Intelligence -- what is it? If we take a look back at the history of how intelligence has been viewed, one seminal example has been Edsger Dijkstra's famous quote that "the question of whether a machine can think is about as interesting as the question of whether a submarine can swim." Now, Edsger Dijkstra, when he wrote this, intended it as a criticism of the early pioneers of computer science, like Alan Turing. However, if you take a look back and think about what have been the most empowering innovations that enabled us to build artificial machines that swim and artificial machines that [fly], you find that it was only through understanding the underlying physical mechanisms of swimming and flight that we were able to build these machines. And so, several years ago, I undertook a program to try to understand the fundamental physical mechanisms underlying intelligence.
Intelligenza, cos'è? Se guardiamo indietro alla storia di come veniva vista l'intelligenza, un esempio fondamentale è stata la famosa citazione di Edsger Dijkstra: "Chiedersi se un computer possa pensare non è più interessante del chiedersi se un sottomarino possa nuotare." Quando Edsger Dijkstra ha scritto questo, lo ha inteso come critica ai primi pionieri dell'informatica, come Alan Turing. Tuttavia, se tornate indietro e pensate a quelle che sono state le più grandi innovazioni che ci hanno permesso di costruire macchine artificiali che nuotano e macchine artificiali che volano, scoprite che è stato solo attraverso la comprensione dei principi fisici sottostanti il nuoto e il volo che siamo stati in grado di costruire queste macchine. Diversi anni fa, mi sono cimentato in un programma per cercare di capire i meccanismi fisici fondamentali alla base dell'intelligenza.
Let's take a step back. Let's first begin with a thought experiment. Pretend that you're an alien race that doesn't know anything about Earth biology or Earth neuroscience or Earth intelligence, but you have amazing telescopes and you're able to watch the Earth, and you have amazingly long lives, so you're able to watch the Earth over millions, even billions of years. And you observe a really strange effect. You observe that, over the course of the millennia, Earth is continually bombarded with asteroids up until a point, and that at some point, corresponding roughly to our year, 2000 AD, asteroids that are on a collision course with the Earth that otherwise would have collided mysteriously get deflected or they detonate before they can hit the Earth. Now of course, as earthlings, we know the reason would be that we're trying to save ourselves. We're trying to prevent an impact. But if you're an alien race who doesn't know any of this, doesn't have any concept of Earth intelligence, you'd be forced to put together a physical theory that explains how, up until a certain point in time, asteroids that would demolish the surface of a planet mysteriously stop doing that. And so I claim that this is the same question as understanding the physical nature of intelligence.
Facciamo un passo indietro. Cominciamo con un esperimento del pensiero. Fate finta di essere una razza aliena che non sa niente della biologia della Terra o di neuroscienza o intelligenza della Terra, ma di avere meravigliosi telescopi di essere in grado di guardare la Terra, di poter vivere molto a lungo e essere in grado di guardare la Terra per milioni o miliardi di anni. Osservate un effetto molto strano. Osservate che nei millenni, la Terra è continuamente bombardata da asteroidi fino a un punto, e a un certo punto, che corrisponde all'incirca al nostro anno 2000, asteroidi che sono in rotta di collisione con la Terra che altrimenti l'avrebbero colpita misteriosamente vengono deviati o esplodono prima di colpire la Terra. Ovviamente, in quanto terrestri, sappiamo che è perché stiamo cercando di salvarci. Stiamo cercando di impedire l'impatto. Ma se siete alieni che non lo sanno, che non hanno idea dell'intelligenza terrestre, sareste costretti a mettere insieme una teoria fisica che spieghi come, fino a un certo punto nel tempo, asteroidi che demolivano la superficie di un pianeta misteriosamente smettono di farlo. Sostengo che sia come cercare di capire la natura fisica dell'intelligenza.
So in this program that I undertook several years ago, I looked at a variety of different threads across science, across a variety of disciplines, that were pointing, I think, towards a single, underlying mechanism for intelligence. In cosmology, for example, there have been a variety of different threads of evidence that our universe appears to be finely tuned for the development of intelligence, and, in particular, for the development of universal states that maximize the diversity of possible futures. In game play, for example, in Go -- everyone remembers in 1997 when IBM's Deep Blue beat Garry Kasparov at chess -- fewer people are aware that in the past 10 years or so, the game of Go, arguably a much more challenging game because it has a much higher branching factor, has also started to succumb to computer game players for the same reason: the best techniques right now for computers playing Go are techniques that try to maximize future options during game play. Finally, in robotic motion planning, there have been a variety of recent techniques that have tried to take advantage of abilities of robots to maximize future freedom of action in order to accomplish complex tasks. And so, taking all of these different threads and putting them together, I asked, starting several years ago, is there an underlying mechanism for intelligence that we can factor out of all of these different threads? Is there a single equation for intelligence?
In questo programma che ho iniziato diversi anni fa, ho osservato diverse teorie scientifiche, di diverse discipline, che puntavano, credo, verso un singolo meccanismo alla base dell'intelligenza. In cosmologia, per esempio, ci sono stati diverse prove a sostegno del fatto che il nostro universo appare sintonizzato per lo sviluppo dell'intelligenza, e, in particolare, per lo sviluppo di stati universali che massimizzano la diversità di possibili futuri. Nel gioco, per esempio, in Go -- tutti ricordano nel 1997 quando Deep Blue di IBM ha battuto Garry Kasparov a scacchi -- pochi sanno che negli ultimi 10 anni, il gioco Go, probabilmente un gioco molto più impegnativo perché ha molti più diramazioni possibili, ha anche lui iniziato a soccombere di fronte a avversari computer per lo stesso motivo: oggi le migliori tecniche per i computer che giocano a Go sono tecniche che cercano di massimizzare le opzioni future durante il gioco. Infine, nella pianificazione delle mosse robotiche, ci sono state diverse tecniche recenti che hanno cercato di trarre vantaggio dalle abilità dei robot per massimizzare la futura libertà di azione allo scopo di compiere compiti complessi. Quindi, prendendo tutte queste diverse teorie e mettendole insieme, diversi anni fa, mi sono chiesto se esistesse un meccanismo alla base dell'intelligenza che possiamo estrarre da queste diverse teorie. Esiste una singola equazione dell'intelligenza?
And the answer, I believe, is yes. ["F = T ∇ Sτ"] What you're seeing is probably the closest equivalent to an E = mc² for intelligence that I've seen. So what you're seeing here is a statement of correspondence that intelligence is a force, F, that acts so as to maximize future freedom of action. It acts to maximize future freedom of action, or keep options open, with some strength T, with the diversity of possible accessible futures, S, up to some future time horizon, tau. In short, intelligence doesn't like to get trapped. Intelligence tries to maximize future freedom of action and keep options open. And so, given this one equation, it's natural to ask, so what can you do with this? How predictive is it? Does it predict human-level intelligence? Does it predict artificial intelligence? So I'm going to show you now a video that will, I think, demonstrate some of the amazing applications of just this single equation.
E credo che la risposta sia positiva. ["F = T ∇ Sτ"] Quello che vedete è probabilmente quello che più si avvicina a E = mc² per l'intelligenza, che io abbia visto. Quello che vedete qui è una dichiarazione di corrispondenza che l'intelligenza è una forza, F, che agisce per massimizzare la futura libertà di azione. Agisce per massimizzare la futura libertà di azione, o mantenere le opzioni aperte, con una certa forza T, con la diversità di possibili futuri accessibili, S, fino a un certo orizzonte temporale, tau. In breve, all'intelligenza non piace rimanere intrappolata. L'intelligenza cerca di massimizzare la futura libertà di azione e mantenere le opzioni aperte. Quindi, data questa singola equazione, viene naturale chiedersi che cosa farsene. Quanto prevede? Prevede il livello di intelligenza umana? Prevede l'intelligenza artificiale? Vi mostrerò un video che, credo, dimostrerà alcune fantastiche applicazioni di questa singola equazione.
(Video) Narrator: Recent research in cosmology has suggested that universes that produce more disorder, or "entropy," over their lifetimes should tend to have more favorable conditions for the existence of intelligent beings such as ourselves. But what if that tentative cosmological connection between entropy and intelligence hints at a deeper relationship? What if intelligent behavior doesn't just correlate with the production of long-term entropy, but actually emerges directly from it? To find out, we developed a software engine called Entropica, designed to maximize the production of long-term entropy of any system that it finds itself in. Amazingly, Entropica was able to pass multiple animal intelligence tests, play human games, and even earn money trading stocks, all without being instructed to do so. Here are some examples of Entropica in action.
(Video) Narratore: Ricerche recenti in cosmologia suggeriscono che universi che producono più disordine, o "entropia", durante la loro vita dovrebbe tendere ad avere condizioni più favorevoli per l'esistenza di esseri intelligenti come siamo noi. E se quella tentata connessione cosmologica tra entropia e intelligenza rivelasse una relazione più profonda? E se il comportamento intelligente non fosse solo legato alla produzione di entropia a lungo termine, ma ne emergesse direttamente? Per scoprirlo, abbiamo sviluppato un software chiamato Entropica, progettato per massimizzare la produzione di entropia a lungo termine di qualunque sistema in cui si trova. Straordinariamente, Entropica è stato in grado di passare molteplici test di intelligenza animale, giocare a giochi per umani, e persino guadagnare in borsa, tutto senza essere istruito a farlo. Ecco alcuni esempi di Entropica in azione.
Just like a human standing upright without falling over, here we see Entropica automatically balancing a pole using a cart. This behavior is remarkable in part because we never gave Entropica a goal. It simply decided on its own to balance the pole. This balancing ability will have appliactions for humanoid robotics and human assistive technologies. Just as some animals can use objects in their environments as tools to reach into narrow spaces, here we see that Entropica, again on its own initiative, was able to move a large disk representing an animal around so as to cause a small disk, representing a tool, to reach into a confined space holding a third disk and release the third disk from its initially fixed position. This tool use ability will have applications for smart manufacturing and agriculture. In addition, just as some other animals are able to cooperate by pulling opposite ends of a rope at the same time to release food, here we see that Entropica is able to accomplish a model version of that task. This cooperative ability has interesting implications for economic planning and a variety of other fields.
Proprio come un essere umano che sta in piedi senza cadere, qui vediamo Entropica che mantiene automaticamente in equilibrio un palo utilizzando un carrello. Questo comportamento è notevole in parte perché non abbiamo mai dato a Entropica un obiettivo. Decide semplicemente da solo di tenere in equilibrio il palo. Questa capacità di equilibrio avrà applicazioni per i robot umanoidi e tecnologie di assistenza all'uomo. Proprio come alcuni animali possono usare oggetti come strumenti nei loro ambienti per raggiungere spazi ristretti, qui vediamo Entropica, di nuovo di propria iniziativa, in grado di spostare un grande disco che rappresenta un animale così da permettere a un disco piccolo, che rappresenta uno strumento, di raggiungere uno spazio ristretto tenendo un terzo disco e rilasciare il terzo disco dalla sua posizione iniziale fissa. Questa capacità di uso degli strumenti avrà applicazioni per produzioni e agricolture intelligenti. Inoltre, proprio come altri animali sono in grado di cooperare tirando dai lati opposti di una corda nello stesso tempo per rilasciare cibo, qui vediamo che Entropica è in grado di compiere una versione modello di questo compito. Questa capacità di cooperare ha implicazioni interessanti per la pianificazione economica e in diversi altri campi.
Entropica is broadly applicable to a variety of domains. For example, here we see it successfully playing a game of pong against itself, illustrating its potential for gaming. Here we see Entropica orchestrating new connections on a social network where friends are constantly falling out of touch and successfully keeping the network well connected. This same network orchestration ability also has applications in health care, energy, and intelligence. Here we see Entropica directing the paths of a fleet of ships, successfully discovering and utilizing the Panama Canal to globally extend its reach from the Atlantic to the Pacific. By the same token, Entropica is broadly applicable to problems in autonomous defense, logistics and transportation.
Entropica è ampiamente applicabile a tutta una serie di settori. Per esempio, qui vediamo che gioca a pong contro se stesso, illustrando il suo potenziale nel gioco. Qui vediamo Entropica che orchestra nuove connessioni in un social network i cui amici si perdono continuamente di vista e mantiene la rete ben connessa. Questa stessa capacità di orchestrazione della rete ha anche applicazioni nella sanità, nell'energia e nell'intelligenza. Qui vediamo Entropica che guida il percorso di una flotta di navi, scoprendo e utilizzando il Canale di Panama per estendere globalmente la sua portata dall'Atlantico al Pacifico. Con lo stesso metodo, Entropica è ampiamente applicabile a problemi di autodifesa, logistica e trasporti.
Finally, here we see Entropica spontaneously discovering and executing a buy-low, sell-high strategy on a simulated range traded stock, successfully growing assets under management exponentially. This risk management ability will have broad applications in finance and insurance.
Infine, qui vediamo Entropica che scopre spontaneamente e esegue una strategia di acquisto a prezzi bassi e vendita a prezzi alti su una serie di titoli finanziari simulati, accrescendo con successo i titoli sotto controllo in maniera esponenziale. Questa capacità di gestione del rischio avrà ampie applicazioni in finanza e nelle assicurazioni.
Alex Wissner-Gross: So what you've just seen is that a variety of signature human intelligent cognitive behaviors such as tool use and walking upright and social cooperation all follow from a single equation, which drives a system to maximize its future freedom of action.
Alex Wissner-Gross: Avete appena visto che una varietà di comportamenti cognitivi tipici dell'intelligenza umana come l'uso degli strumenti, camminare eretti e la cooperazione derivano tutti da una singola equazione, che guida un sistema per massimizzare la futura libertà di azione.
Now, there's a profound irony here. Going back to the beginning of the usage of the term robot, the play "RUR," there was always a concept that if we developed machine intelligence, there would be a cybernetic revolt. The machines would rise up against us. One major consequence of this work is that maybe all of these decades, we've had the whole concept of cybernetic revolt in reverse. It's not that machines first become intelligent and then megalomaniacal and try to take over the world. It's quite the opposite, that the urge to take control of all possible futures is a more fundamental principle than that of intelligence, that general intelligence may in fact emerge directly from this sort of control-grabbing, rather than vice versa.
C'è una profonda ironia in tutto questo. Tornare agli inizi dell'uso del termine robot, il gioco "RUR"; c'è sempre stato un concetto per cui se sviluppiamo l'intelligenza delle macchine, ci sarà una rivolta cibernetica. Le macchine si solleveranno contro di noi. Un'importante conseguenza di questo lavoro è che forse in tutti questi decenni, abbiamo visto al contrario l'intero concetto della rivolta cibernetica. Non sono le macchine a diventare prima intelligenti e poi megalomani che cercano di controllare il mondo. È l'opposto. Il desiderio di prendere il controllo di tutti i possibili futuri è un principio più fondamentale di quello dell'intelligenza, che l'intelligenza generale potrebbe di fatto emergere direttamente da questa specie di controllo, invece che viceversa.
Another important consequence is goal seeking. I'm often asked, how does the ability to seek goals follow from this sort of framework? And the answer is, the ability to seek goals will follow directly from this in the following sense: just like you would travel through a tunnel, a bottleneck in your future path space, in order to achieve many other diverse objectives later on, or just like you would invest in a financial security, reducing your short-term liquidity in order to increase your wealth over the long term, goal seeking emerges directly from a long-term drive to increase future freedom of action.
Un'altra importante conseguenza è il perseguimento di un obiettivo. Mi viene spesso chiesto, come la capacità di perseguire un obiettivo derivi da questa specie di quadro. La risposta è che la capacità di perseguire un obiettivo ne deriva direttamente in questo senso: così come viaggereste attraverso un tunnel, un collo di bottiglia nel vostro futuro percorso, per poter raggiungere molti altri obiettivi più avanti, o così come investireste in titoli finanziari, riducendo la vostra liquidità a breve termine per poter aumentare la vostra ricchezza nel lungo termine, il perseguimento di un obiettivo emerge direttamente dalla spinta a lungo termine ad aumentare la futura libertà di azione.
Finally, Richard Feynman, famous physicist, once wrote that if human civilization were destroyed and you could pass only a single concept on to our descendants to help them rebuild civilization, that concept should be that all matter around us is made out of tiny elements that attract each other when they're far apart but repel each other when they're close together. My equivalent of that statement to pass on to descendants to help them build artificial intelligences or to help them understand human intelligence, is the following: Intelligence should be viewed as a physical process that tries to maximize future freedom of action and avoid constraints in its own future.
Infine, Richard Feynman, un famoso fisico, ha scritto una volta che se la civiltà umana venisse distrutta e potesse trasmettere un singolo concetto alla propria discendenza per aiutarla a ricostruire la civiltà, quel concetto dovrebbe essere che tutta la materia che ci circonda è costituita di minuscoli elementi che si attraggono l'un l'altro quando sono lontani, ma si respingono quando sono vicini. Il mio equivalente di quella dichiarazione da passare alla discendenza per aiutarla a costruire l'intelligenza artificiale o per aiutarla a capire l'intelligenza umana, è la seguente: l'intelligenza dovrebbe essere vista come un processo fisico che cerca di massimizzare la futura libertà di azione e evitare i limiti del proprio futuro.
Thank you very much.
Grazie infinite.
(Applause)
(Applausi)