This is a photograph by the artist Michael Najjar, and it's real, in the sense that he went there to Argentina to take the photo. But it's also a fiction. There's a lot of work that went into it after that. And what he's done is he's actually reshaped, digitally, all of the contours of the mountains to follow the vicissitudes of the Dow Jones index. So what you see, that precipice, that high precipice with the valley, is the 2008 financial crisis. The photo was made when we were deep in the valley over there. I don't know where we are now. This is the Hang Seng index for Hong Kong. And similar topography. I wonder why.
Questa è una fotografia scattata dall'artista Michael Najjar, ed è reale, nel senso che Najjar è andato veramente in Argentina a scattare la fotografia. Ma è anche finzione. C'è voluto un sacco di lavoro per farla. Quello che lui ha fatto è stato ridare forma, digitalmente, a tutti i contorni delle montagne per seguire le vicissitudini dell'indice Dow Jones. Quindi quello che vedete, quel precipizio, quel precipizio con quella vallata, è la crisi finanziaria del 2008. La foto è stata fatta quand'eravamo nel più profondo di quella valle. Non so dove siamo oggi. Questo è l'indice Hang Seng alla borsa di Hong Kong. E topografie simili. Mi chiedo perché.
And this is art. This is metaphor. But I think the point is that this is metaphor with teeth, and it's with those teeth that I want to propose today that we rethink a little bit about the role of contemporary math -- not just financial math, but math in general. That its transition from being something that we extract and derive from the world to something that actually starts to shape it -- the world around us and the world inside us. And it's specifically algorithms, which are basically the math that computers use to decide stuff. They acquire the sensibility of truth because they repeat over and over again, and they ossify and calcify, and they become real.
E questa è arte. È una metafora. Ma credo che il punto sia che è una metafora convincente. Ed è con questa convinzione che voglio proporre oggi di ripensare un pochino il ruolo della matematica contemporanea -- non solo la matematica finanziaria, ma la matematica in generale. E che la sua transizione, dall'essere qualcosa che estraiamo e deriviamo dal mondo a qualcosa che di fatto comincia a dare forma al mondo, il mondo intorno a noi e il mondo dentro di noi. E sono in particolare gli algoritmi, che sostanzialmente sono la matematica che i computer utilizzano per decidere. Acquisiscono sensibilità nei confronti della verità, perché la ripetono continuamente. Si induriscono, si calcificano, e diventano realtà.
And I was thinking about this, of all places, on a transatlantic flight a couple of years ago, because I happened to be seated next to a Hungarian physicist about my age and we were talking about what life was like during the Cold War for physicists in Hungary. And I said, "So what were you doing?"
E ci stavo riflettendo in un luogo improbabile, su un volo transtlantico un paio di anni fa, perché mi è capitato di sedermi vicino a un fisico ungherese che aveva più o meno la mia età e abbiamo parlato di com'era la vita durante la guerra fredda per i fisici in Ungheria. Gli ho chiesto: "Allora cosa faceva?"
And he said, "Well we were mostly breaking stealth."
E mi ha risposto: "La maggior parte del tempo distruggevamo gli stealth.
And I said, "That's a good job. That's interesting. How does that work?" And to understand that, you have to understand a little bit about how stealth works. And so -- this is an over-simplification -- but basically, it's not like you can just pass a radar signal right through 156 tons of steel in the sky. It's not just going to disappear. But if you can take this big, massive thing, and you could turn it into a million little things -- something like a flock of birds -- well then the radar that's looking for that has to be able to see every flock of birds in the sky. And if you're a radar, that's a really bad job.
E ho detto, "Bel lavoro. Interessante. Come funziona?" E per capirlo, dovete capire come funziona lo stealth. E così -- sto semplificando molto -- ma sostanzialmente, non è come far passare un segnale radar attraverso 156 tonnellate di acciaio nel cielo. Non sparisce. Ma se riuscite a prendere questa cosa enorme e trasformarla in un milione di cose più piccole -- qualcosa come uno stormo di uccelli -- allora quando un radar lo cerca è in grado di vedere ogni stormo di uccello nel cielo. E se siete un radar, è un lavoro pesante.
And he said, "Yeah." He said, "But that's if you're a radar. So we didn't use a radar; we built a black box that was looking for electrical signals, electronic communication. And whenever we saw a flock of birds that had electronic communication, we thought, 'Probably has something to do with the Americans.'"
E mi ha detto: "Certo. Ma questo vale se sei un radar. Noi non utilizzavamo i radar; abbiamo costruito una scatola nera che cercava segnali elettrici, comunicazioni elettroniche. E ogni volta che vedevamo uno stormo di uccelli con comunicazioni elettroniche, pensavamo che probabilmente aveva a che fare con gli Americani."
And I said, "Yeah. That's good. So you've effectively negated 60 years of aeronautic research. What's your act two? What do you do when you grow up?" And he said, "Well, financial services." And I said, "Oh." Because those had been in the news lately. And I said, "How does that work?" And he said, "Well there's 2,000 physicists on Wall Street now, and I'm one of them." And I said, "What's the black box for Wall Street?"
E ho detto, "Certo. Ottimo. Quindi avete efficacemente cancellato 60 anni di ricerche aeronautiche. Qual è il secondo atto? Cosa farete da grandi?" E mi ha detto: "Beh, servizi finanziari," E io: "Oh." Perché se ne era parlato nei notiziari di recente. E ho detto: "Come funziona?" E mi ha detto: "Beh, oggi ci sono 2000 fisici a Wall Street, e io sono uno di loro." E ho detto: "Qual è la scatola nera per Wall Street?"
And he said, "It's funny you ask that, because it's actually called black box trading. And it's also sometimes called algo trading, algorithmic trading." And algorithmic trading evolved in part because institutional traders have the same problems that the United States Air Force had, which is that they're moving these positions -- whether it's Proctor & Gamble or Accenture, whatever -- they're moving a million shares of something through the market. And if they do that all at once, it's like playing poker and going all in right away. You just tip your hand. And so they have to find a way -- and they use algorithms to do this -- to break up that big thing into a million little transactions. And the magic and the horror of that is that the same math that you use to break up the big thing into a million little things can be used to find a million little things and sew them back together and figure out what's actually happening in the market.
E mi dice: "È strano che tu lo chieda, perché di fatto si chiama scatola nera delle transazioni. Qualche volta lo chiamiamo algo trading, trading algoritmico." E il trading algoritmico si è evoluto in parte perché gli operatori istituzionali hanno gli stessi problemi che aveva l'aviazione degli Stati Uniti: spostano le loro posizioni -- che sia Procter & Gamble o Accenture, o chiunque altro -- spostano milioni di azioni di qualcosa all'interno del mercato. E se lo fanno tutto d'un tratto, è come giocare a poker e puntare tutto subito. È come scoprire le carte. Devono quindi trovare un altro modo -- e usano gli algoritmi per farlo -- per spezzare quella cosa enorme in milioni di piccole transazioni. E la magia e l'orrore di tutto questo è che la stessa matematica che si utilizza per spezzare questa cosa in un milione di cose più piccole può essere utilizzata per trovare un milione di piccole cose e rimetterle tutte insieme e rendersi conto di quello che sta succedendo sul mercato.
So if you need to have some image of what's happening in the stock market right now, what you can picture is a bunch of algorithms that are basically programmed to hide, and a bunch of algorithms that are programmed to go find them and act. And all of that's great, and it's fine. And that's 70 percent of the United States stock market, 70 percent of the operating system formerly known as your pension, your mortgage.
Quindi se volete farvi un'idea di quello che sta succedendo sul mercato azionario proprio adesso, quello che potete visualizzare è una serie di algoritmi che sostanzialmente sono programmati per nascondersi, e una serie di algoritmi che sono programmati per trovarli e agire. Tutto questo è fantastico, e va bene. E rappresenta il 70% del mercato azionario degli Stati Uniti, il 70% del sistema operativo che prima rappresentava la vostra pensione, la vostra ipoteca.
And what could go wrong? What could go wrong is that a year ago, nine percent of the entire market just disappears in five minutes, and they called it the Flash Crash of 2:45. All of a sudden, nine percent just goes away, and nobody to this day can even agree on what happened because nobody ordered it, nobody asked for it. Nobody had any control over what was actually happening. All they had was just a monitor in front of them that had the numbers on it and just a red button that said, "Stop."
E cosa potrebbe andare storto? Quello che potrebbe andare storto è che un anno fa, il 9% del mercato è scomparso in cinque minuti, e l'hanno chiamato il crash lampo delle 2:45. Improvvisamente, il 9% sparisce, e nessuno, ancora oggi, riesce a mettersi d'accordo su quello che è successo, perché nessuno ha dato l'ordine, nessuno l'ha chiesto. Nessuno aveva il controllo di quello che stava succedendo. Tutto quello che avevano era uno schermo davanti a se' con tutti i numeri e un bottone rosso con scritto: "Stop."
And that's the thing, is that we're writing things, we're writing these things that we can no longer read. And we've rendered something illegible, and we've lost the sense of what's actually happening in this world that we've made. And we're starting to make our way. There's a company in Boston called Nanex, and they use math and magic and I don't know what, and they reach into all the market data and they find, actually sometimes, some of these algorithms. And when they find them they pull them out and they pin them to the wall like butterflies. And they do what we've always done when confronted with huge amounts of data that we don't understand -- which is that they give them a name and a story. So this is one that they found, they called the Knife, the Carnival, the Boston Shuffler, Twilight.
Ed è questo il punto, che stiamo scrivendo cose, stiamo scrivendo cose che non riusciamo più a leggere. Abbiamo reso questa cosa indecifrabile. E abbiamo perso il senso di quello che sta realmente accadendo in questo mondo che abbiamo costruito. E stiamo cominciando a farci strada. C'è un'azienda a Boston, la Nanex, che utilizza la matematica e la magia e non so cos'altro, e raccoglie tutti i dati di mercato e trova, almeno qualche volta, qualcuno di questi algoritmi. E quando li trova, li tira fuori e li appunta sul muro come farfalle. E fan quello che abbiamo sempre fatto quando siamo davanti a enormi quantità di dati che non capiamo: gli da' un nome e una storia. Questo è uno di quelli che hanno trovato, l'hanno chiamato il Coltello, il Carnevale, il miscelatore di Boston, Crepuscolo
And the gag is that, of course, these aren't just running through the market. You can find these kinds of things wherever you look, once you learn how to look for them. You can find it here: this book about flies that you may have been looking at on Amazon. You may have noticed it when its price started at 1.7 million dollars. It's out of print -- still ... (Laughter) If you had bought it at 1.7, it would have been a bargain. A few hours later, it had gone up to 23.6 million dollars, plus shipping and handling. And the question is: Nobody was buying or selling anything; what was happening? And you see this behavior on Amazon as surely as you see it on Wall Street. And when you see this kind of behavior, what you see is the evidence of algorithms in conflict, algorithms locked in loops with each other, without any human oversight, without any adult supervision to say, "Actually, 1.7 million is plenty."
E la cosa divertente è che, ovviamente, non percorrono solo il mercato. Potete trovare questo tipo di cose ovunque guardiate, una volta che sapete dove cercare. Le potete trovare qui: questo libro sulle mosche che potreste aver cercato su Amazon. Potreste averlo notato quando il suo prezzo era a 1,7 milioni di dollari. È fuori catalogo -- nonostante questo ... (Risate) Se lo aveste comprato a 1,7 milioni, avreste fatto un affare. Qualche ora dopo, era salito a 23,6 milioni di dollari, più imballo e consegna. E la domanda è: Nessuno comprava o vendeva niente; cosa stava succedendo? E vedete questo comportamento su Amazon così come lo vedete a Wall Street. E quando vedete questo genere di comportamento, quello che vedete è la prova di algoritmi che entrano in conflitto, algoritmi racchiusi tra di loro in un ciclo senza fine, senza nessuna svista umana, senza nessuna supervisione di un adulto che dica: "1,7 milioni sono già tanti."
(Laughter)
(Risate)
And as with Amazon, so it is with Netflix. And so Netflix has gone through several different algorithms over the years. They started with Cinematch, and they've tried a bunch of others -- there's Dinosaur Planet; there's Gravity. They're using Pragmatic Chaos now. Pragmatic Chaos is, like all of Netflix algorithms, trying to do the same thing. It's trying to get a grasp on you, on the firmware inside the human skull, so that it can recommend what movie you might want to watch next -- which is a very, very difficult problem. But the difficulty of the problem and the fact that we don't really quite have it down, it doesn't take away from the effects Pragmatic Chaos has. Pragmatic Chaos, like all Netflix algorithms, determines, in the end, 60 percent of what movies end up being rented. So one piece of code with one idea about you is responsible for 60 percent of those movies.
E come con Amazon, per Netflix è uguale. Netflix ha utilizzato diversi algoritmi negli anni. Hanno cominciato con Cinematch, e ne hanno provata tutta una serie. C'è Dinosaur Planet, c'è Gravity. Ora usano Pragmatic Chaos. Pragmatic Chaos, come tutti gli algoritmi Netflix, sta cercando di fare la stessa cosa. Sta cercando di acchiapparvi, o di prendere il firmware all'interno del vostro cranio, così da suggerirvi che film potreste voler guardare -- ed è un problema molto, molto difficile. Ma la difficoltà del problema e il fatto che ancora non ne siamo venuti a capo, è che non toglie niente agli effetti che ha Caos Pragmatico. Caos Pragmatico, come tutti gli algoritmi Netflix, determina, in fin dei conti, il 60% dei film che verranno effettivamente noleggiati. Quindi un singolo codice con un'idea su di voi è responsabile del 60% di tutti quei film.
But what if you could rate those movies before they get made? Wouldn't that be handy? Well, a few data scientists from the U.K. are in Hollywood, and they have "story algorithms" -- a company called Epagogix. And you can run your script through there, and they can tell you, quantifiably, that that's a 30 million dollar movie or a 200 million dollar movie. And the thing is, is that this isn't Google. This isn't information. These aren't financial stats; this is culture. And what you see here, or what you don't really see normally, is that these are the physics of culture. And if these algorithms, like the algorithms on Wall Street, just crashed one day and went awry, how would we know? What would it look like?
E se invece poteste dare un voto a quei film ancora prima che vengano girati? Non sarebbe utile? Beh, un paio di Inglesi specialisti dei dati sono a Hollywood, e hanno algoritmi per le storie -- un'azienda di nome Epagogix. Voi sottoponete la vostra sceneggiatura, e sono in grado di dirvi, quantitativamente, se è un film da 30 milioni di dollari o un film da 200 milioni di dollari. E il fatto è che non si tratta di Google. Non è un'informazione. Non sono statistiche informatiche; è cultura. E quello che vedete qui, o quello che normalmente non vedete, è che questa è la fisica della cultura. E se questi algoritmi, come gli algoritmi di Wall Street, si schiantassero un giorno e qualcosa andasse storto, come potremmo saperlo, cosa verrebbe fuori?
And they're in your house. They're in your house. These are two algorithms competing for your living room. These are two different cleaning robots that have very different ideas about what clean means. And you can see it if you slow it down and attach lights to them, and they're sort of like secret architects in your bedroom. And the idea that architecture itself is somehow subject to algorithmic optimization is not far-fetched. It's super-real and it's happening around you.
E sono nelle vostre case. Sono nelle vostre case. Questi sono due algoritmi che competono nel vostro salotto. Questi sono due aspirapolvere robot che hanno due idee diverse su cosa vuol dire pulire. E potete vederlo se li rallentate e gli applicate delle luci. Sono delle specie di architetti segreti nella vostra camera da letto. E l'idea che l'architettura stessa sia soggetta in qualche modo a un'ottimizzazione algoritmica non è poi così inverosimile. È reale e succede intorno a voi.
You feel it most when you're in a sealed metal box, a new-style elevator; they're called destination-control elevators. These are the ones where you have to press what floor you're going to go to before you get in the elevator. And it uses what's called a bin-packing algorithm. So none of this mishegas of letting everybody go into whatever car they want. Everybody who wants to go to the 10th floor goes into car two, and everybody who wants to go to the third floor goes into car five. And the problem with that is that people freak out. People panic. And you see why. You see why. It's because the elevator is missing some important instrumentation, like the buttons. (Laughter) Like the things that people use. All it has is just the number that moves up or down and that red button that says, "Stop." And this is what we're designing for. We're designing for this machine dialect. And how far can you take that? How far can you take it? You can take it really, really far.
Lo sentite di più quando siete in una scatola di metallo sigillata, un nuovo stile di ascensore, che si chiama ascensore a destinazione controllata. Sono quelli in cui premete il tasto del piano dove volete andare prima di entrare nell'ascensore. E utilizza quello che si chiama algoritmo di raggruppamento delle cabine. Quindi niente di insensato, tipo lasciare che tutti vadano nella cabina che vogliono. Tutti quelli che vogliono andare al 10° piano vanno nella cabina numero 2, e tutti quelli che vogliono andare al 3°piano vanno nella cabina 5. E il problema è che la gente si spaventa. La gente va in panico. Ed è chiaro il perché. È chiaro. È perché l'ascensore è priva di strumenti importanti, come i pulsanti. (Risate) Cioè le cose che la gente usa. Tutto quello che ha è il numero che va su e giù e il bottone rosso con la scritta, "Stop." Ed è questo che stiamo progettando. Stiamo progettando questo dialetto da macchina. Fin dove possiamo andare? Fin dove possiamo spingerci? Si può andare molto, molto lontano.
So let me take it back to Wall Street. Because the algorithms of Wall Street are dependent on one quality above all else, which is speed. And they operate on milliseconds and microseconds. And just to give you a sense of what microseconds are, it takes you 500,000 microseconds just to click a mouse. But if you're a Wall Street algorithm and you're five microseconds behind, you're a loser. So if you were an algorithm, you'd look for an architect like the one that I met in Frankfurt who was hollowing out a skyscraper -- throwing out all the furniture, all the infrastructure for human use, and just running steel on the floors to get ready for the stacks of servers to go in -- all so an algorithm could get close to the Internet.
Torniamo ora a Wall Street. Perché gli algoritmi di Wall Street dipendono da una capacità fondamentale che è la velocità. Lavorano su millisecondi e microsecondi. Solo per darvi l'idea di quanto sia un microsecondo, ci vogliono 500.000 microsecondi per cliccare con il mouse. Ma se siete un algoritmo di Wall Street e siete cinque microsecondi in ritardo, siete dei perdenti. Se foste quindi un algoritmo, cerchereste un architetto come quello che ho incontrato a Francoforte che stava svuotando un grattacielo -- buttava fuori tutti i mobili, tutte le infrastrutture ad uso umano, e metteva solo acciaio ai piani per prepararlo ad accogliere la pila di server da installare -- tutto perché un algoritmo possa avvicinarsi a Internet.
And you think of the Internet as this kind of distributed system. And of course, it is, but it's distributed from places. In New York, this is where it's distributed from: the Carrier Hotel located on Hudson Street. And this is really where the wires come right up into the city. And the reality is that the further away you are from that, you're a few microseconds behind every time. These guys down on Wall Street, Marco Polo and Cherokee Nation, they're eight microseconds behind all these guys going into the empty buildings being hollowed out up around the Carrier Hotel. And that's going to keep happening. We're going to keep hollowing them out, because you, inch for inch and pound for pound and dollar for dollar, none of you could squeeze revenue out of that space like the Boston Shuffler could.
E pensate a Internet come a un sistema distribuito. E ovviamente, lo è, ma è decentralizzato in luoghi precisi. A New York, è decentralizzato al Carrier Hotel in Hudson Street. E questo è da dove partono realmente i cavi per la città. E la realtà è che più lontani siete, più accumulate microsecondi di ritardo. Questi ragazzi a Wall Street, Marco Polo e Cherokee Nation, hanno 8 microsecondi di ritardo rispetto a questi altri che vanno in edifici che si svuotano intorno al Carrier Hotel. E continuerà così. Continueremo a svuotarli, perché voi, centimetro per centrimetro sterlina per sterlina, dollaro per dollaro, nessuno di voi può tirare fuori un profitto da quello spazio come il miscelatore di Boston.
But if you zoom out, if you zoom out, you would see an 825-mile trench between New York City and Chicago that's been built over the last few years by a company called Spread Networks. This is a fiber optic cable that was laid between those two cities to just be able to traffic one signal 37 times faster than you can click a mouse -- just for these algorithms, just for the Carnival and the Knife. And when you think about this, that we're running through the United States with dynamite and rock saws so that an algorithm can close the deal three microseconds faster, all for a communications framework that no human will ever know, that's a kind of manifest destiny; and we'll always look for a new frontier.
Ma se guardate da lontano, guardate da lontano, vedrete un fossato lungo 1300 chilometri tra New York City e Chicago che è stato costruito negli ultimi anni da una società di nome Spread Networks. È un cavo in fibra ottica posato tra le due città solo per far passare un segnale 37 volte più veloce di un clic del mouse, solo per questi algoritmi, solo per il Carnival o per il Knife. E se ci pensate, che stiamo percorrendo gli Stati Uniti con la dinamite e i bulldozer così che un algoritmo possa concludere l'affare tre microsecondi più velocemente. tutto per una infrastruttura delle comunicazioni di cui nessun essere umano sarà mai a conoscenza, è una specie di destino evidente sempre alla ricerca di nuove frontiere.
Unfortunately, we have our work cut out for us. This is just theoretical. This is some mathematicians at MIT. And the truth is I don't really understand a lot of what they're talking about. It involves light cones and quantum entanglement, and I don't really understand any of that. But I can read this map, and what this map says is that, if you're trying to make money on the markets where the red dots are, that's where people are, where the cities are, you're going to have to put the servers where the blue dots are to do that most effectively. And the thing that you might have noticed about those blue dots is that a lot of them are in the middle of the ocean. So that's what we'll do: we'll build bubbles or something, or platforms. We'll actually part the water to pull money out of the air, because it's a bright future if you're an algorithm.
Sfortunatamente, c'è da lavorare. Tutto questo è solo teorico. Questi sono alcuni matematici al MIT. E la verità è che gran parte di quello che dicono è per me incomprensibile. Ha a che fare con coni di luce e entanglement quantistico, e io non ci capisco niente. Ma so leggere questa mappa. E quello che dice questa mappa è che, se state cercando di fare soldi sui mercati dove ci sono i puntini rossi, dove ci sono le persone, dove ci sono le città, dovete mettere i server dove ci sono i puntini blu per farlo in maniera efficace. E quello che avrete potuto notare sui puntini blu è che molti sono nel bel mezzo dell'oceano. Quindi questo è quello che faremo, costruiremo bolle o cose simili, o piattaforme. Di fatto divideremo le acque per fare soldi dall'aria, perché è un futuro brillante se siete un algoritmo.
(Laughter)
(Risate)
And it's not the money that's so interesting actually. It's what the money motivates, that we're actually terraforming the Earth itself with this kind of algorithmic efficiency. And in that light, you go back and you look at Michael Najjar's photographs, and you realize that they're not metaphor, they're prophecy. They're prophecy for the kind of seismic, terrestrial effects of the math that we're making. And the landscape was always made by this sort of weird, uneasy collaboration between nature and man. But now there's this third co-evolutionary force: algorithms -- the Boston Shuffler, the Carnival. And we will have to understand those as nature, and in a way, they are.
E non sono i soldi che sono così interessanti. È la motivazione che danno i soldi. Stiamo di fatto terraformando la terra stessa con questa specie di efficacia algoritmica. E sotto questa luce, tornate indietro alle fotografie di Michael Najjar, e vi rendete conto che non sono metafore, sono profezia. Sono la profezia di quegli effetti sismici della matematica che stiamo facendo. E il panorama è sempre stato modellato da questa strana, scomoda collaborazione tra la natura e l'uomo. Ma ora c'è questa terza forza di evoluzione: gli algoritmi -- il miscelatore di Boston, il Carnival. E dovremo capire queste cose come fosse la natura. E in un certo modo, lo sono.
Thank you.
Grazie.
(Applause)
(Applausi)