This is a photograph by the artist Michael Najjar, and it's real, in the sense that he went there to Argentina to take the photo. But it's also a fiction. There's a lot of work that went into it after that. And what he's done is he's actually reshaped, digitally, all of the contours of the mountains to follow the vicissitudes of the Dow Jones index. So what you see, that precipice, that high precipice with the valley, is the 2008 financial crisis. The photo was made when we were deep in the valley over there. I don't know where we are now. This is the Hang Seng index for Hong Kong. And similar topography. I wonder why.
Esta é uma fotografia do artista Michael Najjar, e é real, no sentido de que ele foi à Argentina para tirar esta foto. Mas isso também é ficção. Muito foi feito nesta foto depois disso. E o que ele fez foi realmente reformar, digitalmente, todos os contornos das montanhas para acompanhar as vicissitudes do índice Dow Jones. Então o que vemos, aquele precipício, aquele profundo precipício e o vale, é a crise financeira de 2008. A foto foi feita quando estávamos no fundo do vale, ali. Não sei onde estamos atualmente. Este é o índice Hang Seng de Hong Kong. E semelhante topografia. Eu me pergunto por quê.
And this is art. This is metaphor. But I think the point is that this is metaphor with teeth, and it's with those teeth that I want to propose today that we rethink a little bit about the role of contemporary math -- not just financial math, but math in general. That its transition from being something that we extract and derive from the world to something that actually starts to shape it -- the world around us and the world inside us. And it's specifically algorithms, which are basically the math that computers use to decide stuff. They acquire the sensibility of truth because they repeat over and over again, and they ossify and calcify, and they become real.
E isto é arte. Isto é metáfora. Mas eu acho que o detalhe é que esta é uma metáfora convincente. E é com esta convicção que quero propor hoje que repensemos um pouco na função da matemática contemporânea – não somente matemática financeira, mas matemática em geral. Que a sua transição de ser algo que extraímos e derivamos do mundo para algo que realmente começa a dar forma a ele – o mundo à nossa volta e nosso mundo interno. E são especificamente os algoritmos, que são, fundamentalmente, a matemática que computadores usam para decidir coisas. Eles adquirem a sensibilidade da verdade, porque se repetem muitas vezes. E eles se ossificam e se calcificam, e tornam-se reais.
And I was thinking about this, of all places, on a transatlantic flight a couple of years ago, because I happened to be seated next to a Hungarian physicist about my age and we were talking about what life was like during the Cold War for physicists in Hungary. And I said, "So what were you doing?"
E eu pensei sobre isso, por incrível que pareça, em um vôo transatlântico uns anos atrás, porque eu, por acaso, estava sentado ao lado de um físico húngaro da minha idade e estávamos conversando sobre como era a vida na época da Guerra Fria para os físicos na Hungria. E eu disse: “Então, o que você fazia?”
And he said, "Well we were mostly breaking stealth."
Ele disse: “Bem, normalmente nós quebrávamos sigilo.”
And I said, "That's a good job. That's interesting. How does that work?" And to understand that, you have to understand a little bit about how stealth works. And so -- this is an over-simplification -- but basically, it's not like you can just pass a radar signal right through 156 tons of steel in the sky. It's not just going to disappear. But if you can take this big, massive thing, and you could turn it into a million little things -- something like a flock of birds -- well then the radar that's looking for that has to be able to see every flock of birds in the sky. And if you're a radar, that's a really bad job.
Eu disse: “Um bom emprego. É interessante. Como isso funciona?” E para compreendermos isso, precisamos compreender um pouco como o sigilo funciona. E, então – isto é uma simplificação excessiva – basicamente, não é como se você pudesse passar um sinal de radar através de 156 toneladas de aço no céu. Não vai simplesmente desaparecer. Mas se você pode pegar esta coisa grande, enorme, e a converter em um milhão de coisinhas – algo como um bando de pássaros – bem, aí o radar que está à procura daquilo tem que ter capacidade de ver todos os bandos de pássaros no céu. E se você é um radar, realmente este é um emprego ruim.
And he said, "Yeah." He said, "But that's if you're a radar. So we didn't use a radar; we built a black box that was looking for electrical signals, electronic communication. And whenever we saw a flock of birds that had electronic communication, we thought, 'Probably has something to do with the Americans.'"
Ele disse: “Sim.” Disse: ‘Mas isto se você for um radar. Nós não usávamos um radar; nós construímos uma caixa-preta que procurava por sinais elétricos, comunicação eletrônica. E toda vez que víamos um bando de pássaros com comunicação eletrônica, pensávamos que provavelmente tinha algo a haver com os americanos.”
And I said, "Yeah. That's good. So you've effectively negated 60 years of aeronautic research. What's your act two? What do you do when you grow up?" And he said, "Well, financial services." And I said, "Oh." Because those had been in the news lately. And I said, "How does that work?" And he said, "Well there's 2,000 physicists on Wall Street now, and I'm one of them." And I said, "What's the black box for Wall Street?"
Eu disse: “Sim. É bom. Então, efetivamente, negaram-lhe 60 anos de pesquisa aeronáutica. Qual é o seu segundo ato? O que você faz quando você cresce?” Ele disse, “Bem, serviços de finanças.” Eu disse: “Ah.” Porque esses tinham sido notícia recentemente. Eu disse: “Como isto funciona? Ele disse: “Bem, atualmente há 2.000 físicos em Wall Street, e eu sou um deles.” Eu disse: “O que é a caixa preta para Wall Street?”
And he said, "It's funny you ask that, because it's actually called black box trading. And it's also sometimes called algo trading, algorithmic trading." And algorithmic trading evolved in part because institutional traders have the same problems that the United States Air Force had, which is that they're moving these positions -- whether it's Proctor & Gamble or Accenture, whatever -- they're moving a million shares of something through the market. And if they do that all at once, it's like playing poker and going all in right away. You just tip your hand. And so they have to find a way -- and they use algorithms to do this -- to break up that big thing into a million little transactions. And the magic and the horror of that is that the same math that you use to break up the big thing into a million little things can be used to find a million little things and sew them back together and figure out what's actually happening in the market.
Ele disse, “É engraçado você me fazer esta pergunta, porque ela, na verdade, se chama caixa preta das negociações E é também, às vezes, chamada de negociações algo, negociações algorítmicas.” E as negociações algorítmicas evoluíram em parte porque os negociadores institucionais têm os mesmos problemas que a Força Aérea dos EUA teve, que é o fato de estarem movimentando essas posições – seja a Proctor & Gamble ou a Accenture – estão movimentando um milhão de ações de algo através do mercado. E se eles fazem isto tudo ao mesmo tempo, é como jogar pôquer e apostar tudo de uma vez só. Você apenas mostra sua mão. E então eles têm que encontrar uma forma – e o que fazem é usar algoritmos – para partir aquela coisa grande em um milhão de pequenas transações. E a mágica e o horror disso é que a mesma matemática que se usa para partir a coisa grande em milhões de coisinhas pode ser usada para encontrar um milhão de coisinhas e as emendar, todas juntas novamente e entender o que realmente está acontecendo no mercado.
So if you need to have some image of what's happening in the stock market right now, what you can picture is a bunch of algorithms that are basically programmed to hide, and a bunch of algorithms that are programmed to go find them and act. And all of that's great, and it's fine. And that's 70 percent of the United States stock market, 70 percent of the operating system formerly known as your pension, your mortgage.
Então, se você precisa de uma imagem do que está acontecendo no mercado de ações neste momento, o que você pode visualizar é um monte de algoritmos que basicamente são programados para esconder, e um monte de algoritmos que são programados para ir, achar e agir. E tudo isto é ótimo e está tudo bem. E isso é 70 por cento do mercado de ações dos Estados Unidos, 70 por cento do sistema operacional antigamente conhecido como sua pensão, sua hipoteca.
And what could go wrong? What could go wrong is that a year ago, nine percent of the entire market just disappears in five minutes, and they called it the Flash Crash of 2:45. All of a sudden, nine percent just goes away, and nobody to this day can even agree on what happened because nobody ordered it, nobody asked for it. Nobody had any control over what was actually happening. All they had was just a monitor in front of them that had the numbers on it and just a red button that said, "Stop."
E o que poderia dar errado? O que poderia dar errado é que um ano atrás, 9 por cento do mercado inteiro simplesmente desapareceu por 5 minutos, chamaram isto de 'flash crash' (quebra relâmpago) das 2:45. De repente, 9 por cento simplesmente desaparecem, e ninguém até hoje pode concordar sobre o que aconteceu, porque ninguém encomendou, pediu isto. Ninguém tinha nenhum controle sobre o que realmente estava acontecendo. Tudo que tinham era um monitor à frente deles com números e somente um botão vermelho que dizia, “Pare”.
And that's the thing, is that we're writing things, we're writing these things that we can no longer read. And we've rendered something illegible, and we've lost the sense of what's actually happening in this world that we've made. And we're starting to make our way. There's a company in Boston called Nanex, and they use math and magic and I don't know what, and they reach into all the market data and they find, actually sometimes, some of these algorithms. And when they find them they pull them out and they pin them to the wall like butterflies. And they do what we've always done when confronted with huge amounts of data that we don't understand -- which is that they give them a name and a story. So this is one that they found, they called the Knife, the Carnival, the Boston Shuffler, Twilight.
E é isso, nós estamos escrevendo coisas, estamos escrevendo estas coisas que não mais podemos ler. E apresentamos algo ilegível E perdemos a noção do que realmente está acontecendo nesse mundo que criamos E estamos começando a avançar. Há uma empresa em Boston, a Nanex, onde usam matemática e mágica e sei lá o que, e eles entram em todos os dados de mercado e, às vezes, encontram alguns desses algoritmos. E quando os encontram eles os levantam e os prendem na parede como borboletas. E eles fazem o que sempre fizeram quando confrontados com enormes quantidades de dados que não entendemos – eles lhes dão um nome e uma história. Então, este é um que encontraram, e o chamaram de ‘Knife’, o ‘Carnival’, o ‘Boston Shuffler’, ‘Twilight’.
And the gag is that, of course, these aren't just running through the market. You can find these kinds of things wherever you look, once you learn how to look for them. You can find it here: this book about flies that you may have been looking at on Amazon. You may have noticed it when its price started at 1.7 million dollars. It's out of print -- still ... (Laughter) If you had bought it at 1.7, it would have been a bargain. A few hours later, it had gone up to 23.6 million dollars, plus shipping and handling. And the question is: Nobody was buying or selling anything; what was happening? And you see this behavior on Amazon as surely as you see it on Wall Street. And when you see this kind of behavior, what you see is the evidence of algorithms in conflict, algorithms locked in loops with each other, without any human oversight, without any adult supervision to say, "Actually, 1.7 million is plenty."
E a piada é que, claro, eles não estão somente passando pelo mercado. Encontramos esses tipos de coisas em toda parte, uma vez que aprendemos como buscá-los. Você pode ver isso aqui: este livro sobre moscas que talvez você esteja procurando na Amazon. Você talvez tenha notado, quando o preço dele era 1,7 milhões de dólares. Está esgotado – mesmo assim ... (Risos) Se você o tivesse comprado por 1,7, teria sido uma pechincha. Algumas horas mais tarde, aumentou para 23,6 milhões de dólares, mais transporte e manuseio. E a questão é: ninguém estava comprando ou vendendo nada; o que acontecia? E vemos este comportamento na Amazon tão certo quanto o vemos na Wall Street. E quando se observa este tipo de comportamento, o que se vê é a evidência dos algoritmos em conflito, algoritmos trancados em 'loops' um com o outro, sem nenhum erro humano, sem nenhuma supervisão adulta dizendo: “Na verdade, 1,7 milhões é muito dinheiro.”
(Laughter)
(Risos)
And as with Amazon, so it is with Netflix. And so Netflix has gone through several different algorithms over the years. They started with Cinematch, and they've tried a bunch of others -- there's Dinosaur Planet; there's Gravity. They're using Pragmatic Chaos now. Pragmatic Chaos is, like all of Netflix algorithms, trying to do the same thing. It's trying to get a grasp on you, on the firmware inside the human skull, so that it can recommend what movie you might want to watch next -- which is a very, very difficult problem. But the difficulty of the problem and the fact that we don't really quite have it down, it doesn't take away from the effects Pragmatic Chaos has. Pragmatic Chaos, like all Netflix algorithms, determines, in the end, 60 percent of what movies end up being rented. So one piece of code with one idea about you is responsible for 60 percent of those movies.
E como na Amazon, a empresa Netflix faz o mesmo. A Netflix analisou, ao longo dos anos, vários algoritmos diferentes. Eles começaram com o 'Cinematch' e tentaram muitos outros. Há o ‘Dinosaur Planet’, o ‘Gravity’. Eles agora usam ‘Pragmatic Chaos’. ‘Pragmatic Chaos’ está, como todos os algoritmos da Netflix, tentando fazer a mesma coisa. Tenta ter uma idéia a seu respeito, sobre o 'firmware' dentro do crânio humano, assim pode recomendar qual o filme que você possa querer assistir na próxima vez – o que é um problema muito, muito difícil. Mas a dificuldade do problema e o fato que realmente nós não o resolvemos completamente, não eliminam os efeitos que o 'Pragmatic Chaos' tem. O 'Pragmatic Chaos', como todos os algoritmos da Netflix, determina, no final, 60 por cento dos filmes que acabam sendo alugados. Então, uma parte do código com uma ideia a seu respeito é responsável por 60 por cento desses filmes.
But what if you could rate those movies before they get made? Wouldn't that be handy? Well, a few data scientists from the U.K. are in Hollywood, and they have "story algorithms" -- a company called Epagogix. And you can run your script through there, and they can tell you, quantifiably, that that's a 30 million dollar movie or a 200 million dollar movie. And the thing is, is that this isn't Google. This isn't information. These aren't financial stats; this is culture. And what you see here, or what you don't really see normally, is that these are the physics of culture. And if these algorithms, like the algorithms on Wall Street, just crashed one day and went awry, how would we know? What would it look like?
Mas, e se você pudesse classificar esses filmes antes de serem filmados? Não seria conveniente? Bem, alguns cientistas de dados do Reino Unido estão em Hollywood, e eles tem história de algoritmos – com a empresa Epagogix. Você pode executar o seu roteiro através dela, e eles podem lhe informar, quantitativamente, que esse é um filme de 30 milhões de dólares ou de 200 milhões de dólares. E o negócio é que isto não é Google. Isto não é informação. Não são estatísticas financeiras. Isto é cultura. E o que vemos aqui, ou o que realmente não vemos normalmente, é que estes são a física da cultura. E, se esses algoritmos, como os algoritmos na Wall Street, que um dia erraram e deixaram de funcionar, como saberíamos, como eles se pareceriam?
And they're in your house. They're in your house. These are two algorithms competing for your living room. These are two different cleaning robots that have very different ideas about what clean means. And you can see it if you slow it down and attach lights to them, and they're sort of like secret architects in your bedroom. And the idea that architecture itself is somehow subject to algorithmic optimization is not far-fetched. It's super-real and it's happening around you.
E eles estão em sua casa. Aqui estão dois algoritmos competindo na sua sala. Aqui estão dois robôs de limpeza diferentes, com conceitos bem diferentes de limpeza. E podemos ver isto se baixarmos a velocidade e afixarmos luzes à eles. Eles são um tipo de arquitetos secretos no seu quarto. E a ideia de que arquitetura em si é, de certa maneira, sujeita à otimização algorítmica não é exagero. É super real e está acontecendo à sua volta.
You feel it most when you're in a sealed metal box, a new-style elevator; they're called destination-control elevators. These are the ones where you have to press what floor you're going to go to before you get in the elevator. And it uses what's called a bin-packing algorithm. So none of this mishegas of letting everybody go into whatever car they want. Everybody who wants to go to the 10th floor goes into car two, and everybody who wants to go to the third floor goes into car five. And the problem with that is that people freak out. People panic. And you see why. You see why. It's because the elevator is missing some important instrumentation, like the buttons. (Laughter) Like the things that people use. All it has is just the number that moves up or down and that red button that says, "Stop." And this is what we're designing for. We're designing for this machine dialect. And how far can you take that? How far can you take it? You can take it really, really far.
Sentimos isto mais quando estamos em uma caixa de metal lacrada, um elevador novo estilo, chamados de elevadores com controle de destino. Estes são aqueles que você precisa apertar o botão do andar a que quer ir antes de entrar no elevador. Ele usa aquilo que chamamos de algoritmo de embalagem. Então, nada dessas loucuras de deixar todo mundo entrar em qualquer elevador. Os que querem ir para o 10º andar dirigem-se ao elevador 2, e os que queiram ir para o 3º andar dirigem-se ao elevador 5, E o problema disso é que a pessoas ficam perturbadas. Entram em pânico. E você vê o porquê. É porque no elevador está faltando uma instrumentação importante, como os botões. (Risos) Como as coisas que as pessoas usam. Tudo que tem é um número indo para cima e para baixo e aquele botão vermelho que diz: “Pare”. E é para isso que é o design. Estamos projetando para o dialeto desta máquina. E até que ponto você pode aguentar isso? Você pode realmente aguentar, muito.
So let me take it back to Wall Street. Because the algorithms of Wall Street are dependent on one quality above all else, which is speed. And they operate on milliseconds and microseconds. And just to give you a sense of what microseconds are, it takes you 500,000 microseconds just to click a mouse. But if you're a Wall Street algorithm and you're five microseconds behind, you're a loser. So if you were an algorithm, you'd look for an architect like the one that I met in Frankfurt who was hollowing out a skyscraper -- throwing out all the furniture, all the infrastructure for human use, and just running steel on the floors to get ready for the stacks of servers to go in -- all so an algorithm could get close to the Internet.
Voltando à Wall Street. Porque os algoritmos da Wall Street dependem de uma qualidade acima de tudo, que é a rapidez. Eles operam em milissegundos e microssegundos. E só para lhe dar uma noção do que são microssegundos, você leva 500.000 microssegundos para clicar um mouse. Mas, se você é um algoritmo da Wall Street e está 5 microssegundos atrasado, você é um fracassado. Então, se você fosse um algoritmo, você iria procurar um arquiteto como o que conheci em Frankfurt que esvaziou um arranha-céu – jogou fora todos os móveis, toda a infraestrutura para uso humano, e deixou somente laminados de aço no piso para se preparar para as pilhas de servidores – tudo para que um algoritmo pudesse ficar próximo da Internet.
And you think of the Internet as this kind of distributed system. And of course, it is, but it's distributed from places. In New York, this is where it's distributed from: the Carrier Hotel located on Hudson Street. And this is really where the wires come right up into the city. And the reality is that the further away you are from that, you're a few microseconds behind every time. These guys down on Wall Street, Marco Polo and Cherokee Nation, they're eight microseconds behind all these guys going into the empty buildings being hollowed out up around the Carrier Hotel. And that's going to keep happening. We're going to keep hollowing them out, because you, inch for inch and pound for pound and dollar for dollar, none of you could squeeze revenue out of that space like the Boston Shuffler could.
E você pensa na Internet como esse tipo de sistema distribuído. E é claro que é, mas é distribuído de lugares. Em Nova York, é distribuído do Hotel Carrier na Rua Hudson. E é realmente dali que os cabos vão até a cidade. A realidade é que quanto mais distantes dali estamos, ficamos atrasados alguns microssegundos todas as vezes. Esses caras na Wall Street, Marco Polo e Cherokee Nation, estão 8 microssegundos mais atrasados do que todos esses caras que vão para prédios desocupados, sendo esvaziados no entorno do Hotel Carrier. O que vai continuar acontecendo. Continuaremos esvaziando. porque, centímetro por centímetro, quilo por quilo e dólar por dólar, nenhum de vocês poderia extrair rendimento daquele espaço, como pode o 'Boston Shuffler'.
But if you zoom out, if you zoom out, you would see an 825-mile trench between New York City and Chicago that's been built over the last few years by a company called Spread Networks. This is a fiber optic cable that was laid between those two cities to just be able to traffic one signal 37 times faster than you can click a mouse -- just for these algorithms, just for the Carnival and the Knife. And when you think about this, that we're running through the United States with dynamite and rock saws so that an algorithm can close the deal three microseconds faster, all for a communications framework that no human will ever know, that's a kind of manifest destiny; and we'll always look for a new frontier.
Mas se você diminuísse o zum, se você diminuísse o zum, veria uma trincheira de 1,330 quilômetros entre Nova York e Chicago que foi construída nos últimos anos pela empresa Spread Networks. Isto é um cabo de fibra óptica que foi colocado entre estas duas cidades para apenas um sinal poder trafegar 37 vezes mais rápido do que um clique de mouse – só para esses algoritmos, só para o 'Carnival' e o 'Knife'. E quando pensamos nisso, que estamos correndo pelos EUA com dinamite e serras para cortar pedras para que um algoritmo possa fechar o negócio três microssegundos mais rápido, tudo para uma estrutura de comunicações que nenhum humano jamais saberá, este é o tipo de Destino Manifesto e estará sempre à procura de uma nova fronteira.
Unfortunately, we have our work cut out for us. This is just theoretical. This is some mathematicians at MIT. And the truth is I don't really understand a lot of what they're talking about. It involves light cones and quantum entanglement, and I don't really understand any of that. But I can read this map, and what this map says is that, if you're trying to make money on the markets where the red dots are, that's where people are, where the cities are, you're going to have to put the servers where the blue dots are to do that most effectively. And the thing that you might have noticed about those blue dots is that a lot of them are in the middle of the ocean. So that's what we'll do: we'll build bubbles or something, or platforms. We'll actually part the water to pull money out of the air, because it's a bright future if you're an algorithm.
Infelizmente, temos nosso trabalho retirado de nós. Isto é apenas teórico. Estes são alguns matemáticos do MIT. E a verdade é que não entendo realmente muito sobre o que estão falando. Trata-se de cones de luz e entrelaçamento quântico, e eu realmente não entendo nada disso. Mas, eu posso ler esse mapa. E o que ele diz é que, se você está tentando ganhar dinheiro nos mercados nos pontos vermelhos, é lá que estão as pessoas, onde estão as cidades, você terá que colocar os servidores nos pontos azuis para ser mais eficaz. E algo que talvez tenham notado sobre estes pontos azuis é que muitos deles estão no meio do oceano. Então, é isso que faremos, construiremos bolhas ou algo assim, ou plataformas. Vamos partir as águas para extrair dinheiro do ar, porque é um futuro promissor se você é um algoritmo.
(Laughter)
(Risos)
And it's not the money that's so interesting actually. It's what the money motivates, that we're actually terraforming the Earth itself with this kind of algorithmic efficiency. And in that light, you go back and you look at Michael Najjar's photographs, and you realize that they're not metaphor, they're prophecy. They're prophecy for the kind of seismic, terrestrial effects of the math that we're making. And the landscape was always made by this sort of weird, uneasy collaboration between nature and man. But now there's this third co-evolutionary force: algorithms -- the Boston Shuffler, the Carnival. And we will have to understand those as nature, and in a way, they are.
E, realmente, não é o dinheiro que é tão interessante. É o que o dinheiro motiva. É que estamos realmente terraformando a própria Terra com esse tipo de eficiência algorítmica. E neste contexto, você volta e observa as fotografias de Michael Najjar, e percebe que elas não são metáforas, mas profecias. Elas são profecias para o tipo de efeitos sísmicos, terrestres, da matemática que estamos usando. E a paisagem foi sempre feita com esse tipo de colaboração esquisita, inquieta entre a natureza e o homem. Mas agora existe essa terceira força coevolucionária: os algoritmos – o 'Boston Shuffler', o 'Carnival'. E teremos que entendê-los como sendo natureza. E, de certo modo, eles são.
Thank you.
Obrigado.
(Applause)
(Aplausos)