Intelligence -- what is it? If we take a look back at the history of how intelligence has been viewed, one seminal example has been Edsger Dijkstra's famous quote that "the question of whether a machine can think is about as interesting as the question of whether a submarine can swim." Now, Edsger Dijkstra, when he wrote this, intended it as a criticism of the early pioneers of computer science, like Alan Turing. However, if you take a look back and think about what have been the most empowering innovations that enabled us to build artificial machines that swim and artificial machines that [fly], you find that it was only through understanding the underlying physical mechanisms of swimming and flight that we were able to build these machines. And so, several years ago, I undertook a program to try to understand the fundamental physical mechanisms underlying intelligence.
Inteligencia, ¿qué es eso? Si analizamos la historia de cómo se ha visto la inteligencia, un ejemplo productivo ha sido la famosa cita de Edsger Dijkstra de que "La pregunta de si una máquina puede pensar es tan interesante como la pregunta de si un submarino puede nadar". Cuando Edsger Dijkstra escribió esto lo hizo como una crítica a los pioneros de la informática como Alan Turing. Sin embargo, si miramos al pasado y pensamos cuáles han sido las innovaciones más poderosas que nos han permitido construir máquinas artificiales que nadan y máquinas artificiales que vuelan, hallarán que fue solo comprendiendo los mecanismos físicos subyacentes del nadar y el volar que pudimos construir esas máquinas. Y así, hace algunos años, emprendí un programa para tratar de entender los mecanismos físicos fundamentales subyacentes de la inteligencia.
Let's take a step back. Let's first begin with a thought experiment. Pretend that you're an alien race that doesn't know anything about Earth biology or Earth neuroscience or Earth intelligence, but you have amazing telescopes and you're able to watch the Earth, and you have amazingly long lives, so you're able to watch the Earth over millions, even billions of years. And you observe a really strange effect. You observe that, over the course of the millennia, Earth is continually bombarded with asteroids up until a point, and that at some point, corresponding roughly to our year, 2000 AD, asteroids that are on a collision course with the Earth that otherwise would have collided mysteriously get deflected or they detonate before they can hit the Earth. Now of course, as earthlings, we know the reason would be that we're trying to save ourselves. We're trying to prevent an impact. But if you're an alien race who doesn't know any of this, doesn't have any concept of Earth intelligence, you'd be forced to put together a physical theory that explains how, up until a certain point in time, asteroids that would demolish the surface of a planet mysteriously stop doing that. And so I claim that this is the same question as understanding the physical nature of intelligence.
Retrocedamos un paso. Primero empecemos con un experimento mental. Imaginen que son de una raza alienígena, que no saben nada de la biología de la Tierra ni de neurociencia de la Tierra ni de inteligencia de la Tierra, pero que tienen telescopios increíbles y pueden observar la Tierra, y tienen vidas increíblemente largas, así que pueden observar la Tierra durante millones, incluso miles de millones de años. Y ven un efecto muy extraño. Observan que, en el transcurso de los milenios, la Tierra es continuamente bombardeada por asteroides hasta un cierto momento, y que en ese momento, que corresponde aproximadamente a nuestro año 2000 d.C., asteroides que se encuentran en un curso de colisión con la Tierra que de otra forma habrían chocado, misteriosamente salen desviados o detonan antes de impactar la Tierra. Por supuesto, como terrícolas, sabemos que la razón sería que estamos tratando de salvarnos a nosotros mismos. Estamos tratando de evitar un impacto. Pero si son de una raza alienígena que no sabe nada de esto, que no tiene ningún concepto sobre inteligencia de la Tierra, se verían obligados a desarrollar una teoría física que explicara cómo, hasta cierto momento en el tiempo, los asteroides que demolerían la superficie de un planeta misteriosamente dejan de hacerlo. Y por eso afirmo que esta es la misma pregunta que la de entender la naturaleza física de la inteligencia.
So in this program that I undertook several years ago, I looked at a variety of different threads across science, across a variety of disciplines, that were pointing, I think, towards a single, underlying mechanism for intelligence. In cosmology, for example, there have been a variety of different threads of evidence that our universe appears to be finely tuned for the development of intelligence, and, in particular, for the development of universal states that maximize the diversity of possible futures. In game play, for example, in Go -- everyone remembers in 1997 when IBM's Deep Blue beat Garry Kasparov at chess -- fewer people are aware that in the past 10 years or so, the game of Go, arguably a much more challenging game because it has a much higher branching factor, has also started to succumb to computer game players for the same reason: the best techniques right now for computers playing Go are techniques that try to maximize future options during game play. Finally, in robotic motion planning, there have been a variety of recent techniques that have tried to take advantage of abilities of robots to maximize future freedom of action in order to accomplish complex tasks. And so, taking all of these different threads and putting them together, I asked, starting several years ago, is there an underlying mechanism for intelligence that we can factor out of all of these different threads? Is there a single equation for intelligence?
Así que en este programa que llevé a cabo hace varios años, analicé una variedad de temas a través de la ciencia, a través de varias disciplinas, que señalaban, creo, hacia un único mecanismo subyacente de la inteligencia. En cosmología, por ejemplo, ha habido una variedad de evidencias de que nuestro universo parece estar finamente ajustado para el desarrollo de la inteligencia, y, en particular, para el desarrollo de estados universales que maximizan la diversidad de posibles futuros. En el juego de Go, por ejemplo, —todo el mundo recuerda en 1997 cuando Deep Blue de IBM derrotó a Garry Kasparov en ajedrez— pocas personas son conscientes de que en los últimos 10 años aproximadamente, el juego de Go, explicablemente un juego mucho más desafiante porque tiene un factor de ramificación mucho más alto, también ha comenzado a sucumbir ante las computadoras por la misma razón: las mejores técnicas en este momento en las computadoras con el Go son técnicas que intentan maximizar las opciones futuras durante el juego. Finalmente, en la planeación de movimiento robótico, ha habido una variedad de técnicas recientes que han intentado aprovechar las habilidades de los robots para maximizar la futura libertad de acción con el fin de realizar tareas complejas. Y así, tomando todos estos temas diferentes y colocándolos juntos, pregunté, desde hace ya varios años: ¿Existe un mecanismo subyacente para la inteligencia que podamos extraer de todos estos diferentes temas? ¿Existe solamente una ecuación para la inteligencia?
And the answer, I believe, is yes. ["F = T ∇ Sτ"] What you're seeing is probably the closest equivalent to an E = mc² for intelligence that I've seen. So what you're seeing here is a statement of correspondence that intelligence is a force, F, that acts so as to maximize future freedom of action. It acts to maximize future freedom of action, or keep options open, with some strength T, with the diversity of possible accessible futures, S, up to some future time horizon, tau. In short, intelligence doesn't like to get trapped. Intelligence tries to maximize future freedom of action and keep options open. And so, given this one equation, it's natural to ask, so what can you do with this? How predictive is it? Does it predict human-level intelligence? Does it predict artificial intelligence? So I'm going to show you now a video that will, I think, demonstrate some of the amazing applications of just this single equation.
Y creo que la respuesta es sí. Lo que están viendo es probablemente el equivalente más cercano a un E = mc² para la inteligencia que yo haya visto. Así que lo que están viendo aquí es una afirmación de que la inteligencia es una fuerza, F, que actúa con el fin de maximizar la futura libertad de acción. Actúa para maximizar la futura libertad de acción, o mantener las opciones abiertas, con una fuerza T, con la diversidad de posibles futuros accesibles, S, hasta un inminente tiempo futuro, tau. En pocas palabras, a la inteligencia no le gusta quedar atrapada. La inteligencia intenta maximizar la futura libertad de acción y mantener las opciones abiertas. Y así, teniendo en cuenta esta ecuación, es natural preguntar: ¿Qué se puede hacer con esto? ¿Qué tan predictivo es? ¿Predice el nivel de inteligencia humana? ¿Predice la inteligencia artificial? Así que voy a mostrarles ahora un video que pienso, mostrará algunas de las aplicaciones sorprendentes de esta simple ecuación.
(Video) Narrator: Recent research in cosmology has suggested that universes that produce more disorder, or "entropy," over their lifetimes should tend to have more favorable conditions for the existence of intelligent beings such as ourselves. But what if that tentative cosmological connection between entropy and intelligence hints at a deeper relationship? What if intelligent behavior doesn't just correlate with the production of long-term entropy, but actually emerges directly from it? To find out, we developed a software engine called Entropica, designed to maximize the production of long-term entropy of any system that it finds itself in. Amazingly, Entropica was able to pass multiple animal intelligence tests, play human games, and even earn money trading stocks, all without being instructed to do so. Here are some examples of Entropica in action.
(Video) Narrador: Recientes investigaciones en cosmología han sugerido que los universos que producen más desorden, o "entropía", durante su vida deberían tener tendencia a condiciones más favorables para la existencia de seres inteligentes como nosotros. Pero ¿qué pasa si esa conexión cosmológica tentativa entre la entropía y la inteligencia insinúa una relación más profunda? ¿Qué pasa si el comportamiento inteligente no solo se correlaciona con la producción de entropía a largo plazo, sino que en realidad surge directamente de ella? Para averiguarlo, hemos desarrollado un motor de software llamado Entropica, diseñado para maximizar la producción de entropía a largo plazo en cualquier sistema en que se encuentre dentro. Sorprendentemente, Entropica pudo pasar múltiples pruebas de inteligencia animal, jugar juegos de humanos, e incluso ganar dinero comerciando acciones, todo ello sin que se le hubiera indicado hacer eso. Aquí están algunos ejemplos de Entropica en acción.
Just like a human standing upright without falling over, here we see Entropica automatically balancing a pole using a cart. This behavior is remarkable in part because we never gave Entropica a goal. It simply decided on its own to balance the pole. This balancing ability will have appliactions for humanoid robotics and human assistive technologies. Just as some animals can use objects in their environments as tools to reach into narrow spaces, here we see that Entropica, again on its own initiative, was able to move a large disk representing an animal around so as to cause a small disk, representing a tool, to reach into a confined space holding a third disk and release the third disk from its initially fixed position. This tool use ability will have applications for smart manufacturing and agriculture. In addition, just as some other animals are able to cooperate by pulling opposite ends of a rope at the same time to release food, here we see that Entropica is able to accomplish a model version of that task. This cooperative ability has interesting implications for economic planning and a variety of other fields.
Al igual que un humano de pie sin caerse, aquí vemos a Entropica equilibrando automáticamente un poste usando un carrito. Este comportamiento es notable en parte porque nunca le dimos a Entropica una meta. Simplemente decidió por su cuenta equilibrar el poste. Esta habilidad de equilibrio tendrá aplicaciones para la robótica humanoide y tecnologías de asistencia humana. Así como algunos animales pueden usar los objetos en sus entornos como herramientas para alcanzar en espacios estrechos, aquí vemos que Entropica, otra vez por su propia iniciativa, pudo mover un disco grande que representa a un animal alrededor, con el fin de lograr que un pequeño disco, que representa una herramienta, llegue a un espacio confinado sosteniendo un tercer disco y soltándolo desde su posición fija inicialmente. Esta capacidad de uso de herramientas tendrá aplicaciones en la manufactura inteligente y la agricultura. Además, al igual que algunos otros animales pueden cooperar tirando de extremos opuestos de una cuerda al mismo tiempo para liberar la comida, aquí vemos que Entropica puede realizar una versión del modelo de esa tarea. Esta capacidad de cooperación tiene consecuencias interesantes para la planeación económica y en una variedad de otros campos.
Entropica is broadly applicable to a variety of domains. For example, here we see it successfully playing a game of pong against itself, illustrating its potential for gaming. Here we see Entropica orchestrating new connections on a social network where friends are constantly falling out of touch and successfully keeping the network well connected. This same network orchestration ability also has applications in health care, energy, and intelligence. Here we see Entropica directing the paths of a fleet of ships, successfully discovering and utilizing the Panama Canal to globally extend its reach from the Atlantic to the Pacific. By the same token, Entropica is broadly applicable to problems in autonomous defense, logistics and transportation.
Entropica es ampliamente aplicable a una variedad de dominios. Por ejemplo, aquí la vemos exitosamente jugando un juego de pong contra sí misma, ilustrando su potencial para el juego. Aquí vemos a Entropica orquestar nuevas conexiones en una red social donde los amigos se desconectan constantemente y mantiene con éxito la red bien conectada. Esta misma capacidad de orquestación de red también tiene aplicaciones en el cuidado de la salud, en energía e inteligencia. Aquí vemos a Entropica organizar las rutas de una flota de barcos, descubriendo con éxito y usando el Canal de Panamá para ampliar a nivel mundial su alcance desde el Atlántico hasta el Pacífico. De la misma manera, Entropica es ampliamente aplicable a problemas en defensa autónoma, logística y transporte.
Finally, here we see Entropica spontaneously discovering and executing a buy-low, sell-high strategy on a simulated range traded stock, successfully growing assets under management exponentially. This risk management ability will have broad applications in finance and insurance.
Finalmente, aquí vemos a Entropica espontáneamente descubrir y ejecutar una estrategia de compra-bajo, vende-alto en una serie simulada de negociación de acciones, exitosamente aumentando los activos bajo su gestión exponencialmente. Esta habilidad de gestión de riesgo tendrá amplias aplicaciones en finanzas y en seguros.
Alex Wissner-Gross: So what you've just seen is that a variety of signature human intelligent cognitive behaviors such as tool use and walking upright and social cooperation all follow from a single equation, which drives a system to maximize its future freedom of action.
Alex Wissner-Gross: Lo que han visto es que una variedad de marcas de comportamientos humanos cognitivos inteligentes tales como el uso de herramientas, caminar erguidos y la cooperación social, todos derivan de una sola ecuación, que conduce a un sistema para maximizar su futura libertad de acción.
Now, there's a profound irony here. Going back to the beginning of the usage of the term robot, the play "RUR," there was always a concept that if we developed machine intelligence, there would be a cybernetic revolt. The machines would rise up against us. One major consequence of this work is that maybe all of these decades, we've had the whole concept of cybernetic revolt in reverse. It's not that machines first become intelligent and then megalomaniacal and try to take over the world. It's quite the opposite, that the urge to take control of all possible futures is a more fundamental principle than that of intelligence, that general intelligence may in fact emerge directly from this sort of control-grabbing, rather than vice versa.
Ahora, aquí hay una profunda ironía. Volvamos al principio del uso del término robot, la obra "RUR"; hubo siempre el concepto de que si desarrollábamos máquinas inteligentes, habría una rebelión cibernética. Las máquinas se levantarían contra nosotros. Una de las mayores consecuencias de este trabajo es que tal vez todas estas décadas, hemos tenido todo el concepto de la rebelión cibernética a la inversa. No es que las máquinas primero se vuelven inteligentes y luego megalómanas y que intenten apoderarse del mundo. Es todo lo contrario, que el impulso de tomar el control de todos los futuros posibles es un principio más fundamental que el de la inteligencia, que la inteligencia general puede de hecho surgir directamente de tomar el control, en vez de ser al revés.
Another important consequence is goal seeking. I'm often asked, how does the ability to seek goals follow from this sort of framework? And the answer is, the ability to seek goals will follow directly from this in the following sense: just like you would travel through a tunnel, a bottleneck in your future path space, in order to achieve many other diverse objectives later on, or just like you would invest in a financial security, reducing your short-term liquidity in order to increase your wealth over the long term, goal seeking emerges directly from a long-term drive to increase future freedom of action.
Otra consecuencia importante es la búsqueda del objetivo. A menudo me preguntan: ¿Cómo es que buscar objetivos se desprende de este tipo de marco? Y la respuesta es que la habilidad de buscar objetivos derivará directamente de esto en el siguiente sentido: igual que si viajaran a través de un túnel, un cuello de botella en su futura trayectoria del espacio, con el fin de lograr muchos otros diversos objetivos más adelante, o igual que si invirtieran en una seguridad financiera, reduciendo la liquidez de corto plazo para aumentar la riqueza a largo plazo, la búsqueda de metas surge directamente de un impulso de largo plazo de aumentar la futura libertad de acción.
Finally, Richard Feynman, famous physicist, once wrote that if human civilization were destroyed and you could pass only a single concept on to our descendants to help them rebuild civilization, that concept should be that all matter around us is made out of tiny elements that attract each other when they're far apart but repel each other when they're close together. My equivalent of that statement to pass on to descendants to help them build artificial intelligences or to help them understand human intelligence, is the following: Intelligence should be viewed as a physical process that tries to maximize future freedom of action and avoid constraints in its own future.
Finalmente, Richard Feynman, físico famoso, una vez escribió que si la civilización humana fuera destruida y pudiera pasar solamente una única idea a nuestros descendientes para ayudarles a reconstruir la civilización, ese concepto debería ser que toda la materia que nos rodea está hecha de elementos diminutos que se atraen entre sí cuando están muy separados pero que se repelen cuando están muy juntos. Mi equivalente a esa declaración para pasar a los descendientes para ayudarles a construir inteligencias artificiales o para ayudarles a comprender la inteligencia humana, es la siguiente: La inteligencia debe ser vista como un proceso físico que intenta maximizar la futura libertad de acción y evitar las restricciones en su propio futuro.
Thank you very much.
Muchas gracias.
(Applause)
(Aplausos)