This is a photograph by the artist Michael Najjar, and it's real, in the sense that he went there to Argentina to take the photo. But it's also a fiction. There's a lot of work that went into it after that. And what he's done is he's actually reshaped, digitally, all of the contours of the mountains to follow the vicissitudes of the Dow Jones index. So what you see, that precipice, that high precipice with the valley, is the 2008 financial crisis. The photo was made when we were deep in the valley over there. I don't know where we are now. This is the Hang Seng index for Hong Kong. And similar topography. I wonder why.
To jest zdjęcie autorstwa Michaela Najjara i jest prawdziwe dlatego, że pojechał tam, do Argentyny żeby je zrobić. Jednak jest to również fikcja. Zaraz po sesji, w to zdjęcie został włożony duży nakład pracy. On tak właściwie przekształcił, cyfrowo, wszystkie zarysy gór, by trzymać się zmiennych ze wskaźnika Dow Jonesa. Tak więc to, co widzicie, to urwisko, to kolosalne urwisko z doliną to kryzys finansowy 2008 roku. Zdjęcie zrobiono, kiedy byliśmy głęboko tam, w tej dolinie. Nie wiem, gdzie jesteśmy teraz. To jest indeks Hang Senga dla Hong Kongu. Topografia jest podobna. Zastanawiam się, dlaczego.
And this is art. This is metaphor. But I think the point is that this is metaphor with teeth, and it's with those teeth that I want to propose today that we rethink a little bit about the role of contemporary math -- not just financial math, but math in general. That its transition from being something that we extract and derive from the world to something that actually starts to shape it -- the world around us and the world inside us. And it's specifically algorithms, which are basically the math that computers use to decide stuff. They acquire the sensibility of truth because they repeat over and over again, and they ossify and calcify, and they become real.
I to jest sztuka. To jest metafora. Uważam jednak, że jest to metafora z pazurem. W związku z tym chciałbym zaproponować dzisiaj żebyśmy choć trochę przemyśleli rolę współczesnej matematyki - nie tylko tej finansowej, ale matematyki w ogóle. To jest przejście od bycia czymś, co wyciągamy i czerpiemy ze świata do czegoś, co tak właściwie go kształtuje - ten świat wokół nas i ten wewnątrz nas. I to właśnie algorytmy, które są w zasadzie matematyką, używaną przez komputery do różnych rzeczy. Zdobywają możliwość wykrycia prawdy, bo powtarzają te czynności bezustannie. W końcu zastygają i wapnieją i stają się prawdziwe.
And I was thinking about this, of all places, on a transatlantic flight a couple of years ago, because I happened to be seated next to a Hungarian physicist about my age and we were talking about what life was like during the Cold War for physicists in Hungary. And I said, "So what were you doing?"
Myślałem o tym akurat parę lat temu podczas lotu przez Atlantyk, ponieważ miałem okazję wtedy siedzieć obok węgierskiego fizyka mniej więcej w moim wieku; i rozmawialiśmy o tym, jak podczas Zimnej Wojny wyglądało życie dla fizyków z Węgier. No i spytałem: "Co wtedy robiłeś?"
And he said, "Well we were mostly breaking stealth."
A on odpowiedział: "Cóż, głównie łamaliśmy technikę stealth."
And I said, "That's a good job. That's interesting. How does that work?" And to understand that, you have to understand a little bit about how stealth works. And so -- this is an over-simplification -- but basically, it's not like you can just pass a radar signal right through 156 tons of steel in the sky. It's not just going to disappear. But if you can take this big, massive thing, and you could turn it into a million little things -- something like a flock of birds -- well then the radar that's looking for that has to be able to see every flock of birds in the sky. And if you're a radar, that's a really bad job.
Odrzekłem: "To dobra praca. Interesująca. Jak to działa?" I żeby to zrozumieć, najpierw trzeba pojąć, jak działa ta technika. Tak więc, to jest znaczne uproszczenie, ale generalnie: to nie jest tak, że sygnał radaru zostaje przepuszczony przez 156 ton latającej stali. Nie może zniknąć od tak. Ale jeśliby wziąć ten wielki, masywny obiekt i zamienić go w tysiące małych obiektów, w coś na kształt stada ptaków, to wtedy ten radar, szukający dużego obiektu musiałby posiadać zdolność wykrycia każdego wędrującego stada ptaków. I jeśli jesteś radarem, to bardzo niefortunne zajęcie,.
And he said, "Yeah." He said, "But that's if you're a radar. So we didn't use a radar; we built a black box that was looking for electrical signals, electronic communication. And whenever we saw a flock of birds that had electronic communication, we thought, 'Probably has something to do with the Americans.'"
On na to: "Tak." Po czym dodał: "Ale tylko jeśli jesteś radarem. Tak więc nie użyliśmy radaru; skonstruowaliśmy czarną skrzynkę, która miała wyszukiwać sygnały elektryczne, elektroniczną komunikację. I za każdym razem, kiedy widzieliśmy stado ptaków, które posługiwało się taką komunikacją, myśleliśmy, że ma to coś wspólnego z Amerykanami."
And I said, "Yeah. That's good. So you've effectively negated 60 years of aeronautic research. What's your act two? What do you do when you grow up?" And he said, "Well, financial services." And I said, "Oh." Because those had been in the news lately. And I said, "How does that work?" And he said, "Well there's 2,000 physicists on Wall Street now, and I'm one of them." And I said, "What's the black box for Wall Street?"
Odpowiedziałem: "Tak. To dobrze. Udało się wam skutecznie podważyć 60 lat spędzonych na badaniach aeronautycznych. A co dalej? Co robisz teraz?" Odpowiedział: "Pracuję w usługach finansowych." A ja na to: 'O!" Ostatnio w mediach było o nich głośno. Spytałem więc: "A jak to działa?" Odpowiedział: "No więc, na Wall Street jest teraz 2000 fizyków, i ja jestem jednym z nich." Spytałem: "Po co czarna skrzynka na Wall Street?"
And he said, "It's funny you ask that, because it's actually called black box trading. And it's also sometimes called algo trading, algorithmic trading." And algorithmic trading evolved in part because institutional traders have the same problems that the United States Air Force had, which is that they're moving these positions -- whether it's Proctor & Gamble or Accenture, whatever -- they're moving a million shares of something through the market. And if they do that all at once, it's like playing poker and going all in right away. You just tip your hand. And so they have to find a way -- and they use algorithms to do this -- to break up that big thing into a million little transactions. And the magic and the horror of that is that the same math that you use to break up the big thing into a million little things can be used to find a million little things and sew them back together and figure out what's actually happening in the market.
A on odpowiedział: "Zabawne, że o to pytasz, bo tak właściwie to się nazywa "handel czarnymi skrzynkami". Czasem mówi się na to "handel algo" lub "handel algorytmiczny". Handel algorytmiczny rozwinął się tylko po części, ponieważ inwestorzy instytucjonalni borykają się z tymi samymi problemami, z którymi kiedyś borykały się Siły Powietrze Stanów Zjednoczonych, czyli - przesuwają one swoje pozycje, bez znaczenia, czy dotyczy to przedsiębiorstwa P&G czy Accenture, wprowadzają oni tysiące części czegoś poprzez rynek. I jeśli robią to wszystko naraz, to tak jakby już na samym początku gry w pokera szli na całość. Jakby dokładnie pokazywali, co zamierzają. Tak więc muszą znaleźć jakiś sposób -- używają do tego algorytmów -- do tego, by tą jedną, wielką rzecz rozbić na tysiące małych transakcji. Przeraża i fascynuje jednak fakt, że to ta sama matematyka, która może rozbić jedną wielką rzecz na tysiące małych rzeczy, może być wykorzystana do odnalezienia tych małych rzeczy i poskładania ich z powrotem w celu odkrycia tego, co tak właściwie dzieje się na rynku.
So if you need to have some image of what's happening in the stock market right now, what you can picture is a bunch of algorithms that are basically programmed to hide, and a bunch of algorithms that are programmed to go find them and act. And all of that's great, and it's fine. And that's 70 percent of the United States stock market, 70 percent of the operating system formerly known as your pension, your mortgage.
Więc jeśliby zobrazować to, co właśnie dzieje się na giełdzie papierów wartościowych, to zobaczy się grupę algorytmów, które tak właściwie zaprogramowano do tego, by się chowały oraz grupę algorytmów zaprogramowanych do znalezienia tamtych i do podjęcia działań. I wszystko jest fajne i super. To jest właśnie 70 procent giełdy Stanów Zjednoczonych, 70 procent system operacyjnego, wcześniej znanego jako wasza renta, wasza emerytura.
And what could go wrong? What could go wrong is that a year ago, nine percent of the entire market just disappears in five minutes, and they called it the Flash Crash of 2:45. All of a sudden, nine percent just goes away, and nobody to this day can even agree on what happened because nobody ordered it, nobody asked for it. Nobody had any control over what was actually happening. All they had was just a monitor in front of them that had the numbers on it and just a red button that said, "Stop."
I co mogło pójść źle? A to, że rok temu dziewięć procent całego rynku po prostu zniknęło w ciągu pięciu minut, i to pięć minut przeszło do historii jako flash crash 14.45. Ni stąd, ni zowąd, dziewięć procent po prostu sobie znika i nikt po dziś dzień nie może ustalić, co się stało, ponieważ nikt tego nie zlecił, nikt o to nie prosił. Nikt nie miał kontroli nad tym, co się działo. Jedyne, co było do dyspozycji to monitor, pełen cyfr i do tego czerwony guzik z napisem "Stop".
And that's the thing, is that we're writing things, we're writing these things that we can no longer read. And we've rendered something illegible, and we've lost the sense of what's actually happening in this world that we've made. And we're starting to make our way. There's a company in Boston called Nanex, and they use math and magic and I don't know what, and they reach into all the market data and they find, actually sometimes, some of these algorithms. And when they find them they pull them out and they pin them to the wall like butterflies. And they do what we've always done when confronted with huge amounts of data that we don't understand -- which is that they give them a name and a story. So this is one that they found, they called the Knife, the Carnival, the Boston Shuffler, Twilight.
I o to chodzi; piszemy różne rzeczy, rzeczy, których nie jesteśmy w stanie odczytać. Stworzyliśmy coś niezrozumiałego. I straciliśmy poczucie, co się dzieje w świecie, który sami stworzyliśmy. Ale zaczynamy odnosić sukces. W Bostonie jest taka firma, Nanex, w której, przy użyciu matematyki i magii, i nie wiem, czego jeszcze, można dostać się do wszystkich danych rynkowych i czasem nawet znaleźć część tych algorytmów. Po ich znalezieniu, są one wyciągane i przypinane do ściany, zupełnie jak motyle. I robi się z nimi to, co my zawsze robiliśmy, kiedy natykaliśmy się na ogromne ilości danych, których nie rozumieliśmy -- czyli nadaje się im imiona i tworzy historię. Tak więc tego tutaj nazwali "Nożem", "Maskaradą", "Żonglerem Bostońskim", "Zmierzchem".
And the gag is that, of course, these aren't just running through the market. You can find these kinds of things wherever you look, once you learn how to look for them. You can find it here: this book about flies that you may have been looking at on Amazon. You may have noticed it when its price started at 1.7 million dollars. It's out of print -- still ... (Laughter) If you had bought it at 1.7, it would have been a bargain. A few hours later, it had gone up to 23.6 million dollars, plus shipping and handling. And the question is: Nobody was buying or selling anything; what was happening? And you see this behavior on Amazon as surely as you see it on Wall Street. And when you see this kind of behavior, what you see is the evidence of algorithms in conflict, algorithms locked in loops with each other, without any human oversight, without any adult supervision to say, "Actually, 1.7 million is plenty."
I najlepsze jest to, że one od tak nie śmigają sobie po rynku. Można je znaleźć wszędzie, gdzie się spojrzy, jeśli tylko wie się, w jaki sposób ich szukać. Na przykład tutaj: w tej książce o muchach, którą mogliście przeglądać na Amazonie. Może i zauważyliście, że jej cena wynosiła około 1,7 miliona dolarów. Nakład się wyczerpał, jednak wciąż… (Śmiech) Jeśli kupilibyście ją, kiedy kosztowała 1,7, to byłby to niezły utarg. Parę godzin później, jej cena wzrosła do 23,6 milionów dolarów, łącznie z dostawami. I pytanie jest takie: Nikt niczego nie sprzedawał ani nie kupował; więc co się stało? Z takimi sytuacjami można się spotkać na Amazonie, jak i również na Wall Street. A kiedy spotykamy się z taką sytuacją, kiedy spotykamy się z dowodem na walkę algorytmów, uwięzionych i splątanych ze sobą, pozbawionych jakiegokolwiek nadzoru człowieka, bez jakiejkolwiek kontroli dorosłych, którzy mogliby stwierdzić: "Właściwie, 1.7 wystarczy".
(Laughter)
(Śmiech)
And as with Amazon, so it is with Netflix. And so Netflix has gone through several different algorithms over the years. They started with Cinematch, and they've tried a bunch of others -- there's Dinosaur Planet; there's Gravity. They're using Pragmatic Chaos now. Pragmatic Chaos is, like all of Netflix algorithms, trying to do the same thing. It's trying to get a grasp on you, on the firmware inside the human skull, so that it can recommend what movie you might want to watch next -- which is a very, very difficult problem. But the difficulty of the problem and the fact that we don't really quite have it down, it doesn't take away from the effects Pragmatic Chaos has. Pragmatic Chaos, like all Netflix algorithms, determines, in the end, 60 percent of what movies end up being rented. So one piece of code with one idea about you is responsible for 60 percent of those movies.
Podobnie jak z Amazonem, było i z Netflixem. Netflix przeczesał kilka różnych algorytmów w ciągu paru lat. Zaczęło się od Cinematch'u, potem przyszła kolej na resztę. Jest przecież Dinosaur Planet i Gravity. Teraz używają Pragmatic Chaos. Pragmatic Chaos, tak jak wszystkie algorytmy Netflixu, stara się zrobić to samo. Chce wami zawładnąć objąć panowanie nad oprogramowaniem sterującym człowiekiem, by w ten sposób polecić jaki film chcielibyście znów obejrzeć-- co stanowi naprawdę, naprawdę poważny problem. Jednak powaga problemu i fakt, że jeszcze go nie rozgryźliśmy, nie może zmienić skutków, jakie Pragmatic Chaos powoduje. Pragmatic Chaos, tak jak wszystkie algorytmy Netflixu w końcu określa 60 procent filmów, które mają zostać wypożyczone. Tak więc jedna część kodu połączona z jedną informacją na temat was, jest odpowiedzialna za 60 procent tych filmów.
But what if you could rate those movies before they get made? Wouldn't that be handy? Well, a few data scientists from the U.K. are in Hollywood, and they have "story algorithms" -- a company called Epagogix. And you can run your script through there, and they can tell you, quantifiably, that that's a 30 million dollar movie or a 200 million dollar movie. And the thing is, is that this isn't Google. This isn't information. These aren't financial stats; this is culture. And what you see here, or what you don't really see normally, is that these are the physics of culture. And if these algorithms, like the algorithms on Wall Street, just crashed one day and went awry, how would we know? What would it look like?
Jednak co by było, gdyby można było ocenić te filmy, przed ich realizacją? Nie byłoby to na rękę? Cóż, kilka naukowców z Wielkiej Brytanii, którzy są teraz w Hollywood ma swoje bajkowe algorytmy - firmę nazwaną Epagogix. Można tam posłać skrypt filmu, i dowiedzieć się, czy czy będzie to film wart 30 milionów dolarów czy 200 milionów. A chodzi o to, że to nie Google. To nie informacje. Nie są to też statystyki finansowe; to jest kultura. Tym, co można tu zauważyć, albo to, czego normalnie nie można, to fakt że jest to fizyka kultury. A jeśli te algorytmy, tak jak algorytmy na Wall Street pewnego dnia po prostu zderzą się ze sobą i oszaleją, skąd będziemy wiedzieć, jak to będzie wyglądało?
And they're in your house. They're in your house. These are two algorithms competing for your living room. These are two different cleaning robots that have very different ideas about what clean means. And you can see it if you slow it down and attach lights to them, and they're sort of like secret architects in your bedroom. And the idea that architecture itself is somehow subject to algorithmic optimization is not far-fetched. It's super-real and it's happening around you.
A one są w waszych domach. Są w waszych domach. To są dwa algorytmy, które biją się o miejsce w waszych salonach. To są dwa różne roboty sprzątające, które mają zupełnie odmienne pojęcia czystości. Można to zaobserwować, jeśli się je zwolni i przyczepi się do nich światło. Są czymś w rodzaju ukrytych architektów w waszych sypialniach. A pomysł, że sama architektura w jakimś stopniu podlega algorytmicznej optymalizacji nie jest naciągany. Jest bardzo realny i do tego jest wokół was.
You feel it most when you're in a sealed metal box, a new-style elevator; they're called destination-control elevators. These are the ones where you have to press what floor you're going to go to before you get in the elevator. And it uses what's called a bin-packing algorithm. So none of this mishegas of letting everybody go into whatever car they want. Everybody who wants to go to the 10th floor goes into car two, and everybody who wants to go to the third floor goes into car five. And the problem with that is that people freak out. People panic. And you see why. You see why. It's because the elevator is missing some important instrumentation, like the buttons. (Laughter) Like the things that people use. All it has is just the number that moves up or down and that red button that says, "Stop." And this is what we're designing for. We're designing for this machine dialect. And how far can you take that? How far can you take it? You can take it really, really far.
Czujecie to najmocniej, kiedy znajdujecie się w zapieczętowanym metalowym pudle, czyli w nowoczesnej windzie, którą nazywa się windami docelowymi. To taki typ windy, w którym trzeba wybrać piętro, na które się wybiera jeszcze zanim wsiądzie się do windy. System używa algorytmu pakowania. Tak więc nie ma wariactw z wchodzeniem pasażerów do jakiejkolwiek windy by chcieli. Wszyscy, którzy chcą dojechać na 10. piętro korzystają z windy nr 2, a wszyscy, którzy chcą się dostać na piętro 3. jadą windą nr 5. Problem w tym, że ludzie wariują. Ludzie panikują. I widzicie dlaczego. Widzicie dlaczego. To dlatego, że w windzie brakuje pewnych ważnych instrumentów, na przykład przycisków. (Śmiech) Czyli rzeczy, których ludzie używają. Jest tu jedynie liczba, która przesuwa się w górę lub w dół i czerwony guzik z napisem “Stop”. My projektujemy właśnie w tym celu. Projektujemy zgodnie z językiem maszyny. I jak daleko można z tym dojść? Jak daleko? Można dojść bardzo, bardzo daleko.
So let me take it back to Wall Street. Because the algorithms of Wall Street are dependent on one quality above all else, which is speed. And they operate on milliseconds and microseconds. And just to give you a sense of what microseconds are, it takes you 500,000 microseconds just to click a mouse. But if you're a Wall Street algorithm and you're five microseconds behind, you're a loser. So if you were an algorithm, you'd look for an architect like the one that I met in Frankfurt who was hollowing out a skyscraper -- throwing out all the furniture, all the infrastructure for human use, and just running steel on the floors to get ready for the stacks of servers to go in -- all so an algorithm could get close to the Internet.
Wróćmy więc na Wall Street. Z tego względu, że algorytmy na Wall Street podlegają przede wszystkim jednej właściwości - czyli szybkości. Działają w ciągu milisekund i mikrosekund. A żeby przybliżyć pojęcie mikrosekundy, 500 tysięcy mikrosekund równa się jednemu kliknięciu myszą. Jednak jeśli jest się algorytmem na Wall Street który jest pięć mikrosekund w tyle, to znaczy, że jest się przegranym. Więc jeśli bylibyście algorytmem, to szukalibyście takiego architekta, jakiego miałem okazję spotkać we Frankfurcie, który opróżniał cały wieżowiec --- wyrzucał wszystkie meble, całe zaplecze rzeczy używanych przez człowieka i, biegając szalenie po piętrach, przygotowywał masę serwerów do wejścia - a wszystko po to, żeby algorytm mógł zbliżyć się do internetu.
And you think of the Internet as this kind of distributed system. And of course, it is, but it's distributed from places. In New York, this is where it's distributed from: the Carrier Hotel located on Hudson Street. And this is really where the wires come right up into the city. And the reality is that the further away you are from that, you're a few microseconds behind every time. These guys down on Wall Street, Marco Polo and Cherokee Nation, they're eight microseconds behind all these guys going into the empty buildings being hollowed out up around the Carrier Hotel. And that's going to keep happening. We're going to keep hollowing them out, because you, inch for inch and pound for pound and dollar for dollar, none of you could squeeze revenue out of that space like the Boston Shuffler could.
Mówi się, że internet jest czymś w rodzaju podzielonego systemu. I oczywiście jest on podzielony, ale w różnych miejscach. W Nowym Jorku pochodzi on z kolokacji serwerów, położonej na Hudson Street. I to właśnie stamtąd wszystkie kable łączą się z miastem. W rzeczywistości, im dalej jest się od tego miejsca, tym mniej mikrosekund jest się w tyle za każdym razem. Ci z Wall Street, Marco Polo i Cherokee Nation, są osiem mikrosekund w tyle za tymi, którzy znajdują się w pustych, opróżnianych budynkach wokół kolokacji serwerów. I tak będzie w kółko. Nieustannie będziemy je opróżniać, dlatego że nikt z was, cal za calem, funt za funtem, dolar za dolarem, nikt z was nie mógłby zgarnąć zysków z tej przestrzeni tak jak mógł to zrobić "Żongler Bostoński".
But if you zoom out, if you zoom out, you would see an 825-mile trench between New York City and Chicago that's been built over the last few years by a company called Spread Networks. This is a fiber optic cable that was laid between those two cities to just be able to traffic one signal 37 times faster than you can click a mouse -- just for these algorithms, just for the Carnival and the Knife. And when you think about this, that we're running through the United States with dynamite and rock saws so that an algorithm can close the deal three microseconds faster, all for a communications framework that no human will ever know, that's a kind of manifest destiny; and we'll always look for a new frontier.
Ale jeśli oddalimy obraz, jeśli go oddalimy, to zobaczymy okop o długości 825. mil pomiędzy Nowym Jorkiem i Chicago, który został wzniesiony podczas ostatnich lat przez firmę Spread Networks. To jest światłowód, który przeciągnięto pomiędzy tymi dwoma miastami, by móc zmieniać światła drogowe 37 razy szybciej niż raz kliknąć myszą -- tylko dla tych algorytmów, tylko dla "Karnawału" i dla “Noża”. I jeśliby tak o tym pomyśleć, o tym, że biegamy po Stanach Zjednoczonych z dynamitem i piłami mechanicznymi, żeby algorytm mógł skończyć sprawę trzy mikrosekundy wcześniej, dla zarysowania kształtu komunikacji którego żaden człowiek nigdy nie pozna, to rodzaj ewidentnego przeznaczenia, który ciągle będzie szukał nowej granicy.
Unfortunately, we have our work cut out for us. This is just theoretical. This is some mathematicians at MIT. And the truth is I don't really understand a lot of what they're talking about. It involves light cones and quantum entanglement, and I don't really understand any of that. But I can read this map, and what this map says is that, if you're trying to make money on the markets where the red dots are, that's where people are, where the cities are, you're going to have to put the servers where the blue dots are to do that most effectively. And the thing that you might have noticed about those blue dots is that a lot of them are in the middle of the ocean. So that's what we'll do: we'll build bubbles or something, or platforms. We'll actually part the water to pull money out of the air, because it's a bright future if you're an algorithm.
Niestety, jesteśmy wprost stworzeni do naszej pracy. To tylko teoria. To jacyś tam matematycy z MIT. A prawda jest taka, że nie rozumiem większości, o której ci panowie mówią. To się łączy ze stożkami czasoprzestrzennymi i ze stanem splątanym, a ja naprawdę nic z tego nie rozumiem. Ale tę mapę potrafię odczytać. Ta mapa mówi, że jeśli ktoś próbuje zarobić pieniądze na rynkach oznaczonych czerwonym punktem, czyli tam gdzie są ludzie i miasta, to musi postawić serwery w miejscach oznaczonych kropką niebieską, żeby efekt był jak najlepszy. A jeśli chodzi o te niebieskie kropki, to może i dostrzegliście, że wiele z nich znajduje się pośrodku oceanu. No więc to jest to, co zrobimy - zbudujemy bańki czy coś, a może platformy. Podzielimy wodę, żeby z powietrza wyciagnąć pieniądze bo to świetlana przyszłość, jeśli tylko jesteś algorytmem.
(Laughter)
(Śmiech)
And it's not the money that's so interesting actually. It's what the money motivates, that we're actually terraforming the Earth itself with this kind of algorithmic efficiency. And in that light, you go back and you look at Michael Najjar's photographs, and you realize that they're not metaphor, they're prophecy. They're prophecy for the kind of seismic, terrestrial effects of the math that we're making. And the landscape was always made by this sort of weird, uneasy collaboration between nature and man. But now there's this third co-evolutionary force: algorithms -- the Boston Shuffler, the Carnival. And we will have to understand those as nature, and in a way, they are.
I tak właściwie, to nie pieniądze są intrygujące. Intrygujące jest to, co one pobudzają. To, że my właściwie tworzymy kolonię na samej Ziemi przy pomocy algorytmicznej wydajności. Z tą myślą można się cofnąć do fotografii Michaela Najjara po to, żeby zdać sobie sprawę, że nie one są metaforą, tylko zapowiedzią. Są zapowiedzią pewnych sejsmicznych, lądowych efektów matematyki, którą tworzymy. Krajobraz zawsze składał się z takiej dziwnej, niestabilnej współpracy pomiędzy naturą a człowiekiem. Jednak teraz jest ta trzecia siła współzależnej koewolucji: algorytmy - "Żongler Bostoński", "Maskarada". A my będziemy musieli pojąć je jako naturę. W swojej osobliwej postaci.
Thank you.
Dziękuję.
(Applause)
(Aplauz)