Intelligence -- what is it? If we take a look back at the history of how intelligence has been viewed, one seminal example has been Edsger Dijkstra's famous quote that "the question of whether a machine can think is about as interesting as the question of whether a submarine can swim." Now, Edsger Dijkstra, when he wrote this, intended it as a criticism of the early pioneers of computer science, like Alan Turing. However, if you take a look back and think about what have been the most empowering innovations that enabled us to build artificial machines that swim and artificial machines that [fly], you find that it was only through understanding the underlying physical mechanisms of swimming and flight that we were able to build these machines. And so, several years ago, I undertook a program to try to understand the fundamental physical mechanisms underlying intelligence.
Inteligența - ce este aceasta? Dacă aruncam o privire înapoi la istoria modului în care a fost percepută inteligența, un exemplu fundamental îl constituie faimosul citat al lui Edsger Dijkstra: ,,întrebarea dacă o mașinărie poate gândi este aproape la fel de interesantă ca întrebarea dacă un submarin poate înota". Când a scris aceste cuvinte, Edsger Dijkstra a intenționat să critice pionierii informaticii, precum Alan Turing. Cu toate acestea, dacă privim înapoi și ne gândim care au fost cele mai valoroase inovații care ne-au permis să construim mașinării care să înoate și mașinării care să gândească, vom descoperi că doar înțelegerea mecanismelor fizice din spatele înotului și zborului ne-au permis construirea acestor mașinării. Astfel, acum câțiva ani, am demarat un program pentru a încerca să înțeleg mecanismele fizice fundamentale ce stau la baza inteligenței.
Let's take a step back. Let's first begin with a thought experiment. Pretend that you're an alien race that doesn't know anything about Earth biology or Earth neuroscience or Earth intelligence, but you have amazing telescopes and you're able to watch the Earth, and you have amazingly long lives, so you're able to watch the Earth over millions, even billions of years. And you observe a really strange effect. You observe that, over the course of the millennia, Earth is continually bombarded with asteroids up until a point, and that at some point, corresponding roughly to our year, 2000 AD, asteroids that are on a collision course with the Earth that otherwise would have collided mysteriously get deflected or they detonate before they can hit the Earth. Now of course, as earthlings, we know the reason would be that we're trying to save ourselves. We're trying to prevent an impact. But if you're an alien race who doesn't know any of this, doesn't have any concept of Earth intelligence, you'd be forced to put together a physical theory that explains how, up until a certain point in time, asteroids that would demolish the surface of a planet mysteriously stop doing that. And so I claim that this is the same question as understanding the physical nature of intelligence.
Să facem un pas înapoi. Să începem mai întâi cu o idee experimentală. Să zicem că sunteți o rasă extraterestră care nu știe nimic despre biologia Pământului sau despre neuro-știința sau inteligența acestuia, dar aveți telescoape incrediblie, aveți posibilitatea de a supraveghea Pământul și trăiți vieți extraordinar de lungi, astfel că puteți supraveghea Pământul de-a lungul a milioane, chiar miliarde de ani. Și observați un fenomen foarte ciudat. Observați că, de-a lungul mileniilor, Pământul este în continuu bombardat de asteroizi până la un punct, și că, din acel moment, corespunzând în mare anului 2000 d. Hr., asteroizii care se aflau pe o orbită de coliziune cu Pământul și care în mod normal s-ar fi ciocnit cu acesta și-au schimbat în mod misterios traiectoria sau au explodat înainte să lovească planeta. Bineînțeles, ca pământeni, știm că motivul ar fi încercarea de a ne salva pe noi înșine. Încercăm să prevenim un impact. Dar dacă ești o rasă extraterestră care nu cunoaște toate aceste detalii și nu are nici o idee despre inteligența terestră, ai fi forțat să alcătuiești o teorie fizică menită să explice de ce, până la un anumit moment în timp, asteroizii care distrugeau suprafața planetei s-au oprit în mod misterios. Așa că eu consider că această problemă este la fel ca înțelegerea naturii fizice a inteligenței.
So in this program that I undertook several years ago, I looked at a variety of different threads across science, across a variety of disciplines, that were pointing, I think, towards a single, underlying mechanism for intelligence. In cosmology, for example, there have been a variety of different threads of evidence that our universe appears to be finely tuned for the development of intelligence, and, in particular, for the development of universal states that maximize the diversity of possible futures. In game play, for example, in Go -- everyone remembers in 1997 when IBM's Deep Blue beat Garry Kasparov at chess -- fewer people are aware that in the past 10 years or so, the game of Go, arguably a much more challenging game because it has a much higher branching factor, has also started to succumb to computer game players for the same reason: the best techniques right now for computers playing Go are techniques that try to maximize future options during game play. Finally, in robotic motion planning, there have been a variety of recent techniques that have tried to take advantage of abilities of robots to maximize future freedom of action in order to accomplish complex tasks. And so, taking all of these different threads and putting them together, I asked, starting several years ago, is there an underlying mechanism for intelligence that we can factor out of all of these different threads? Is there a single equation for intelligence?
Astfel, în cadrul acestui program inițiat acum câțiva ani, am analizat o varietate de aspecte dincolo de știință, interdisciplinare, care cred că indicau către un mecanism unic, fundamental al inteligenței. În cosmologie, de exemplu, există o mulțime de indicii conform cărora universul nostru pare să fie reglat cu precizie în vederea dezvoltării inteligenței și, în particular, a dezvoltării a unor situații universale care să maximalizeze diversitatea posibilelor viitoruri. În cazul jocurilor, de exemplu, în Go - ne amintim cu toții anul 1997, când supercomputerul Deep Blue al IBM-ului l-a învins pe Garry Kasparov la șah; puțin oameni știu însă că în ultimii circa 10 ani, jocul Go, demonstrat ca fiind un joc mult mai solicitant datorită factorului de ramificare mult mai mare, a început, de asemenea, să piardă în fața jucătorilor reali din același motiv: cele mai bune tehnici actuale de joc ale computerului le reprezintă tehnicile care încearcă să maximalizeze opțiunile viitoare în timpul jocului în sine. În cele din urmă, în proiectarea mișcării robotice, au fost folosite o diversitate de tehnici recente care au încercat să se folosească de abilitățile roboților pentru a maximaliza libertatea de acțiune viitoare pentru a îndeplini cerințe complexe. Așa că, luând toate aceste diferite aspecte și punându-le laolaltă, m-am întrebat, de câțiva ani încoace, dacă există un mecanism care să stea la baza inteligenței și pe care să-l putem individualiza din toate aceste aspecte diferite? Există o ecuație unică a inteligenței?
And the answer, I believe, is yes. ["F = T ∇ Sτ"] What you're seeing is probably the closest equivalent to an E = mc² for intelligence that I've seen. So what you're seeing here is a statement of correspondence that intelligence is a force, F, that acts so as to maximize future freedom of action. It acts to maximize future freedom of action, or keep options open, with some strength T, with the diversity of possible accessible futures, S, up to some future time horizon, tau. In short, intelligence doesn't like to get trapped. Intelligence tries to maximize future freedom of action and keep options open. And so, given this one equation, it's natural to ask, so what can you do with this? How predictive is it? Does it predict human-level intelligence? Does it predict artificial intelligence? So I'm going to show you now a video that will, I think, demonstrate some of the amazing applications of just this single equation.
Iar răspunsul este, cred eu, da. ["F = T ∇ Sτ"] Ceea ce vedeți este probabil cel mai apropiat echivalent al formulei E = mc² pentru inteligență, din câte cunosc. Așa că ceea ce vedeți aici este o declarație de analogie potrivit căreia inteligența este o forță, F, care acționează pentru a maximiza libertatea de acțiune ulterioară. Aceasta acționează pentru a maximaliza libertatea de acțiune ulterioară, sau pentru a menține alternativele disponibile, cu o anumită putere, T, cu diversitatea posibilelor viitoruri accesibile, S, până la un orizont temporal viitor, Tau. Pe scurt, inteligenței nu-i place să fie îngrădită. Inteligența încearcă să maximalizeze viitoarea libertate de acțiune și să mențină opțiunile disponibile. Astfel, dată fiind aceasta ecuație, e normal să ne întrebăm, bun, și ce facem cu ea? Cât de predictivă este? Poate prezice nivelul inteligenței umane? Prezice inteligența artificială? Așa că, vă voi prezenta acum un film care va demonstra, cred eu, câteva dintre uimitoarele aplicații ale acestei ecuații unice.
(Video) Narrator: Recent research in cosmology has suggested that universes that produce more disorder, or "entropy," over their lifetimes should tend to have more favorable conditions for the existence of intelligent beings such as ourselves. But what if that tentative cosmological connection between entropy and intelligence hints at a deeper relationship? What if intelligent behavior doesn't just correlate with the production of long-term entropy, but actually emerges directly from it? To find out, we developed a software engine called Entropica, designed to maximize the production of long-term entropy of any system that it finds itself in. Amazingly, Entropica was able to pass multiple animal intelligence tests, play human games, and even earn money trading stocks, all without being instructed to do so. Here are some examples of Entropica in action.
(Film) Narator: Cercetările recente în cosmologie au sugerat că universurile care produc mai multă dezordine sau ,,entropie" în timpul duratei lor ar trebui să aibă condiții mai favorabile existenței ființelor inteligente, ca noi înșine. Dar dacă tentativa de conexiune cosmologică dintre entropie și inteligență indică o relație mai profundă? Dacă comportamentul inteligent nu este doar corelat cu producerea de entropie pe termen lung, ci, de fapt, rezultă direct din aceasta? Pentru a afla, am creat un mecanism software numit Entropica, conceput să maximalizeze producerea de entropie pe termen lung în orice sistem în care se afla. Uimitor, Entropica a fost capabilă să treacă numeroase teste de inteligență animală, să joace jocuri umane și chiar să câștige bani din tranzacții cu acțiuni, toate fără a primi instrucțiuni în acest sens. Iată câteva exemple ale programului Entropica în acțiune.
Just like a human standing upright without falling over, here we see Entropica automatically balancing a pole using a cart. This behavior is remarkable in part because we never gave Entropica a goal. It simply decided on its own to balance the pole. This balancing ability will have appliactions for humanoid robotics and human assistive technologies. Just as some animals can use objects in their environments as tools to reach into narrow spaces, here we see that Entropica, again on its own initiative, was able to move a large disk representing an animal around so as to cause a small disk, representing a tool, to reach into a confined space holding a third disk and release the third disk from its initially fixed position. This tool use ability will have applications for smart manufacturing and agriculture. In addition, just as some other animals are able to cooperate by pulling opposite ends of a rope at the same time to release food, here we see that Entropica is able to accomplish a model version of that task. This cooperative ability has interesting implications for economic planning and a variety of other fields.
Întocmai unui om care stă în picioare fără să cadă, aici o vedem pe Entropica echilibrând automat o tijă folosindu-se de un cărucior. Acest comportament este în special remarcabil deoarece noi nu i-am dat lui Entropica un scop. Pur și simplu a decis singură să echilibreze tija. Această abilitate de echilibrare își va găsi aplicații în robotica umanoidă și în tehnologiile de asistență umană. Așa cum unele animale pot folosi obiecte din mediul lor ca unelte pentru a ajunge în spații înguste, la fel și Entropica, din nou, din proprie inițiativă, a reușit să mute un disc mare, reprezentând un animal, pentru ca un disc mai mic, reprezentând o unealtă, să poată ajunge într-un spațiu închis în care se află un al treilea disc și să-l elibereze din poziția sa inițială. Această abilitate de a întrebuința o unealtă va avea aplicații în industrie și agricultură. Mai mult, așa cum alte animale pot coopera trăgând de capetele opuse ale unei frânghii în același timp pentru a primi hrană, aici vedem că Entropica este în măsură să îndeplinească o versiune model a respectivei sarcini. Această abilitate de a coopera are implicații interesante în planificarea economică și într-o varietate de alte domenii.
Entropica is broadly applicable to a variety of domains. For example, here we see it successfully playing a game of pong against itself, illustrating its potential for gaming. Here we see Entropica orchestrating new connections on a social network where friends are constantly falling out of touch and successfully keeping the network well connected. This same network orchestration ability also has applications in health care, energy, and intelligence. Here we see Entropica directing the paths of a fleet of ships, successfully discovering and utilizing the Panama Canal to globally extend its reach from the Atlantic to the Pacific. By the same token, Entropica is broadly applicable to problems in autonomous defense, logistics and transportation.
Entropica se poate aplica, în linii mari, unei palete largi de domenii. De exemplu, aici o vedem reușind să joace o partidă de pong împotriva ei însăși, ilustrându-și potențialul ludic. Aici o vedem pe Entropica orchestrând noi conexiuni într-o rețea socială în care prietenii pierd constant legătura unii cu ceilalți și reușind cu succes să mențină rețeaua bine conectată. Aceasta abilitate de a orchestra o rețea are aplicații în domeniile sănătății, energiei și inteligenței. Aici o vedem pe Entropica coordonând traiectoria unei flote, descoperind și utilizând cu succes Canalul Panama pentru a se extinde, la nivel global, din Atlantic, în Pacific. În același fel, Entropica dovedește o largă aplicabilitate în probleme legate de propria apărare, logistică și transport.
Finally, here we see Entropica spontaneously discovering and executing a buy-low, sell-high strategy on a simulated range traded stock, successfully growing assets under management exponentially. This risk management ability will have broad applications in finance and insurance.
În cele din urmă, aici o vedem pe Entropica descoperind spontan și executând o strategie de cumpărat-ieftin, vândut-scump la o bursă simulată, reușind cu succes să crească capitalul exponențial. Managementul riscului va avea largi aplicații în finanțe și asigurări.
Alex Wissner-Gross: So what you've just seen is that a variety of signature human intelligent cognitive behaviors such as tool use and walking upright and social cooperation all follow from a single equation, which drives a system to maximize its future freedom of action.
Alex Wissner-Gross: Deci ceea ce ați văzut este o variatate de comportamente cognitive specifice inteligenței umane ca de pildă, folosirea uneltelor și mersul biped, drept, sau cooperarea socială derivă toate dintr-o singură ecuație, care conduce un sistem spre maximizarea viitoarei sale libertăți de acțiune.
Now, there's a profound irony here. Going back to the beginning of the usage of the term robot, the play "RUR," there was always a concept that if we developed machine intelligence, there would be a cybernetic revolt. The machines would rise up against us. One major consequence of this work is that maybe all of these decades, we've had the whole concept of cybernetic revolt in reverse. It's not that machines first become intelligent and then megalomaniacal and try to take over the world. It's quite the opposite, that the urge to take control of all possible futures is a more fundamental principle than that of intelligence, that general intelligence may in fact emerge directly from this sort of control-grabbing, rather than vice versa.
Iată acum profunda ironie a lucrurilor. Întorcându-ne la începuturile utilizării termenului de robot, piesa de teatru ,,RUR", dintotdeauna a existat ideea potrivit căreia dacă creăm inteligență artificială, va urma o revoltă cibernetică. Mașinile se vor ridica împotriva noastră. Una dintre consecințele majore ale acestui demers este că, poate în toate aceste decenii, am perceput întreg conceptul de revoltă cibernetică invers. Mașinile nu devin mai întâi inteligente, apoi megalomane și încearcă să conducă lumea. Este chiar invers, deoarece dorința de a prelua controlul tuturor posibilelor viitoruri este un principiu mai fundamental decât acela al inteligenței, iar inteligența generală ar putea în fapt să rezulte direct din acest tip de nevoie de a prelua controlul, decât invers.
Another important consequence is goal seeking. I'm often asked, how does the ability to seek goals follow from this sort of framework? And the answer is, the ability to seek goals will follow directly from this in the following sense: just like you would travel through a tunnel, a bottleneck in your future path space, in order to achieve many other diverse objectives later on, or just like you would invest in a financial security, reducing your short-term liquidity in order to increase your wealth over the long term, goal seeking emerges directly from a long-term drive to increase future freedom of action.
O altă consecință importantă e urmărirea unui obiectiv. Sunt întrebat adesea, cum reiese abilitatea de a urmări un scop din acestă schemă? Iar răspunsul este, capacitatea de a urmări obiective va rezulta direct din aceasta după cum urmează: așa cum ați călători printr-un tunel, o îngustare a căii de acces viitoare, pentru a obține, mai târziu, numeroase alte diverse obiective, sau ca și cum ai investi în ceva sigur financiar, reducând lichiditățile pe termen scurt pentru a crește venitul pe termen lung, urmărirea scopului ia naștere direct dintr-un demers pe termen lung pentru a crește viitoarea libertate de acțiune.
Finally, Richard Feynman, famous physicist, once wrote that if human civilization were destroyed and you could pass only a single concept on to our descendants to help them rebuild civilization, that concept should be that all matter around us is made out of tiny elements that attract each other when they're far apart but repel each other when they're close together. My equivalent of that statement to pass on to descendants to help them build artificial intelligences or to help them understand human intelligence, is the following: Intelligence should be viewed as a physical process that tries to maximize future freedom of action and avoid constraints in its own future.
În cele din urmă, faimosul fizician Richard Feynman a scris cândva că dacă civilizația umană ar fi distrusă și n-am putea transmite descendenților noștri decât un singur concept pentru a-i ajuta să refacă civilizația acel concept ar trebui să fie că tot ce contează în jurul nostru este făcut din elemente minuscule care se atrag între ele atunci când sunt îndepărtate dar se resping când sunt împreună. Echivalentul meu pentru această afirmație de dat mai departe descendenților pentru a-i ajuta să construiască inteligența artificială, ori spre a-i ajuta să înțeleagă inteligența umană, este următorul: Inteligența ar trebui văzută ca un proces fizic care încearcă să maximizeze viitoarea libertate de acțiune și să evite constrângerile în propriul său viitor.
Thank you very much.
Vă mulțumesc foarte mult!
(Applause)
(Aplauze)