Intelligence -- what is it? If we take a look back at the history of how intelligence has been viewed, one seminal example has been Edsger Dijkstra's famous quote that "the question of whether a machine can think is about as interesting as the question of whether a submarine can swim." Now, Edsger Dijkstra, when he wrote this, intended it as a criticism of the early pioneers of computer science, like Alan Turing. However, if you take a look back and think about what have been the most empowering innovations that enabled us to build artificial machines that swim and artificial machines that [fly], you find that it was only through understanding the underlying physical mechanisms of swimming and flight that we were able to build these machines. And so, several years ago, I undertook a program to try to understand the fundamental physical mechanisms underlying intelligence.
Inteligência: o que é isso? Se observarmos a história de como a inteligência tem sido entendida, um exemplo inspirador seria a famosa frase de Edsger Dijkstra: "A pergunta de se uma máquina pode pensar é tão interessante quanto a pergunta de se um submarino pode nadar." Quando Edsger Dijkstra escreveu essa frase, ele pretendia que fosse uma crítica aos pioneiros da ciência da computação, como Alan Turing. Entretanto, se olharmos para o passado e imaginarmos quais foram as inovações mais importantes que nos permitiram construir máquinas artificiais que podem nadar e máquinas artificiais que [voam], doscobriremos que apenas entendendo os mecanismos físicos em que se baseiam o nadar e o voar é que se tornou possível construirmos essas máquinas. E então, muitos anos atrás, eu participei de um programa para tentar entender os mecanismos físicos fundamentais em que se baseia a inteligência.
Let's take a step back. Let's first begin with a thought experiment. Pretend that you're an alien race that doesn't know anything about Earth biology or Earth neuroscience or Earth intelligence, but you have amazing telescopes and you're able to watch the Earth, and you have amazingly long lives, so you're able to watch the Earth over millions, even billions of years. And you observe a really strange effect. You observe that, over the course of the millennia, Earth is continually bombarded with asteroids up until a point, and that at some point, corresponding roughly to our year, 2000 AD, asteroids that are on a collision course with the Earth that otherwise would have collided mysteriously get deflected or they detonate before they can hit the Earth. Now of course, as earthlings, we know the reason would be that we're trying to save ourselves. We're trying to prevent an impact. But if you're an alien race who doesn't know any of this, doesn't have any concept of Earth intelligence, you'd be forced to put together a physical theory that explains how, up until a certain point in time, asteroids that would demolish the surface of a planet mysteriously stop doing that. And so I claim that this is the same question as understanding the physical nature of intelligence.
Vamos voltar um pouco. Vamos começar com um experimento mental Imaginem que vocês são de uma raça alienígena que não sabe nada sobre a biologia terrestre, sobre neurociência terrestre ou inteligência terrestre, mas vocês possuem telescópios incríveis e têm a capacidade de observar a Terra, e vocês vivem por um longo período de tempo, e por isso podem observar a terra durante milhões, até mesmo bilhões de anos. E vocês observam um efeito extremamente estranho. Vocês percebem que, com o passar dos milênios, a Terra é continuamente bombardeada por asteroides até determinado momento, e que, em determinado momento, corresondendo aproximadamente ao nosso ano, 2000 d.C., alguns asteroides que estão em rota de colisão com a Terra, que de outra forma teriam colidido, misteriosamente são defletidos ou explodem antes que possam atingir a Terra. É claro, que como terráqueos, nós sabemos que a razão disso é que estamos tentando nos salvar. Estamos tentando prevenir um impacto. Mas se vocês são uma raça alienígena, que não sabe nada disso, que não possui nenhum conceito de inteligência terrestre, seriam forçados a conceber uma teoria física que explicasse como, até certo momento na história, os asteroides que devastariam a superfície do planeta misteriosamente pararam de colidir. Então eu digo que isso é o mesmo que tentamos entender a natureza física da inteligência.
So in this program that I undertook several years ago, I looked at a variety of different threads across science, across a variety of disciplines, that were pointing, I think, towards a single, underlying mechanism for intelligence. In cosmology, for example, there have been a variety of different threads of evidence that our universe appears to be finely tuned for the development of intelligence, and, in particular, for the development of universal states that maximize the diversity of possible futures. In game play, for example, in Go -- everyone remembers in 1997 when IBM's Deep Blue beat Garry Kasparov at chess -- fewer people are aware that in the past 10 years or so, the game of Go, arguably a much more challenging game because it has a much higher branching factor, has also started to succumb to computer game players for the same reason: the best techniques right now for computers playing Go are techniques that try to maximize future options during game play. Finally, in robotic motion planning, there have been a variety of recent techniques that have tried to take advantage of abilities of robots to maximize future freedom of action in order to accomplish complex tasks. And so, taking all of these different threads and putting them together, I asked, starting several years ago, is there an underlying mechanism for intelligence that we can factor out of all of these different threads? Is there a single equation for intelligence?
Neste programa de que eu participei há vários anos, eu observei uma variedade de diferentes linhas na ciência, através de várias disciplinas, que apontavam, eu imagino, na direção de um único mecanismo básico para a inteligência. Na cosmologia, por exemplo, existem diferentes linhas para evidenciar que nosso universo parece estar sintonizado para o desenvolvimento da inteligência, e, em particular, para o desenvolvimento de estados universais que maximizam a diversidade de futuros possíveis. Num jogo, por exemplo, o Go -- todos se lembram de quando, em 1997, o Deep Blue da IBM derrotou Garry Kasparov no xadrez; poucas pessoas sabem que nos últimos 10 anos, mais ou menos, o jogo Go, um jogo muito mais desafiador porque possui um fator muito maior de ramificações, também começou a sucumbir a computadores que jogam pela mesma razão: as melhores técnicas atualmente para computadores que jogam Go são técnicas que tentam maximizar as opções futuras durante a partida. Afinal, no planejamento de movimentos robóticos, surgiram uma variedade de técnicas recentes que tentam tirar vantagem das habilidades dos robôs de maximizar a liberdade de ações no futuro, buscando realizar tarefas complexas. E então, juntando todas essas linhas, e colocando-as juntas, eu perguntei, há muitos anos, será que existe um mecanismo fundamental para a inteligência que podemos extrair de todas essas diferentes linhas? Será que há uma única equação para a inteligência?
And the answer, I believe, is yes. ["F = T ∇ Sτ"] What you're seeing is probably the closest equivalent to an E = mc² for intelligence that I've seen. So what you're seeing here is a statement of correspondence that intelligence is a force, F, that acts so as to maximize future freedom of action. It acts to maximize future freedom of action, or keep options open, with some strength T, with the diversity of possible accessible futures, S, up to some future time horizon, tau. In short, intelligence doesn't like to get trapped. Intelligence tries to maximize future freedom of action and keep options open. And so, given this one equation, it's natural to ask, so what can you do with this? How predictive is it? Does it predict human-level intelligence? Does it predict artificial intelligence? So I'm going to show you now a video that will, I think, demonstrate some of the amazing applications of just this single equation.
E acho que a resposta é sim. ["F = T ∇ Sτ"] O que vocês estão vendo é, provavelmente, o equivalente mais próximo a E = mc² para a inteligência que eu já vi. O que vocês veem aqui é uma declaração de correspondência de que a inteligência é uma força, F, que age de modo a maximizar a liberdade de ação no futuro. Ela age para maximizar a liberdade de ação no futuro, ou manter opções abertas, com uma energia T, com a diversidade de possíveis futuros acessíveis, S, até algum horizonte de tempo futuro, tau. Resumindo, a inteligência não gosta de ficar encurralada. A inteligência tenta maximizar a liberdade de ação no futuro e manter opções abertas. E assim, com essa equação, é natural a pergunta: o que podemos fazer com isso? Quão preditivo é isso? Será que prevê inteligência em nível humano? Será que prevê inteligência artificial? Vou mostrar agora um vídeo que vai demonstrar, acho, algumas das incríveis aplicações dessa única equação.
(Video) Narrator: Recent research in cosmology has suggested that universes that produce more disorder, or "entropy," over their lifetimes should tend to have more favorable conditions for the existence of intelligent beings such as ourselves. But what if that tentative cosmological connection between entropy and intelligence hints at a deeper relationship? What if intelligent behavior doesn't just correlate with the production of long-term entropy, but actually emerges directly from it? To find out, we developed a software engine called Entropica, designed to maximize the production of long-term entropy of any system that it finds itself in. Amazingly, Entropica was able to pass multiple animal intelligence tests, play human games, and even earn money trading stocks, all without being instructed to do so. Here are some examples of Entropica in action.
(Vídeo) Narrador: Pesquisas recentes em cosmologia sugerem que universos que produzem mais desordem, ou "entropia", durante sua existência devem tender a ter condições mais favoráveis para a existência de seres inteligentes como nós. Mas e se essa conexão cosmológica experimental entre entropia e inteligência insinua um relacionamento mais profundo? E se o comportamento inteligente não só se correlaciona com a produção de entropia a longo prazo, mas, na verdade, emerge diretamente dela? Para saber, desenvolvemos um mecanismo de software chamado Entropica, projetado para maximizar a produção de entropia a longo prazo de qualquer sistema em que ele se encontre. Incrivelmente, o Entropia conseguiu passar em vários testes de inteligência animal, jogar jogos humanos, e até mesmo ganhar dinheiro na bolsa de valores, tudo sem ser instruído para isso. Aqui estão alguns exemplos do Entropica em ação.
Just like a human standing upright without falling over, here we see Entropica automatically balancing a pole using a cart. This behavior is remarkable in part because we never gave Entropica a goal. It simply decided on its own to balance the pole. This balancing ability will have appliactions for humanoid robotics and human assistive technologies. Just as some animals can use objects in their environments as tools to reach into narrow spaces, here we see that Entropica, again on its own initiative, was able to move a large disk representing an animal around so as to cause a small disk, representing a tool, to reach into a confined space holding a third disk and release the third disk from its initially fixed position. This tool use ability will have applications for smart manufacturing and agriculture. In addition, just as some other animals are able to cooperate by pulling opposite ends of a rope at the same time to release food, here we see that Entropica is able to accomplish a model version of that task. This cooperative ability has interesting implications for economic planning and a variety of other fields.
Assim como um ser humano fica em pé sem cair, aqui nós vemos o Entropica equilibrando uma vara automaticamente com um carrinho. Esse comportamento é notável em parte porque nunca demos ao Entropica um objetivo. Ele simplesmente decide sozinho equilibrar a vara. Essa habilidade de equilíbrio terá aplicações para a robótica humanoide e tecnologias de assistência humana. Assim como alguns animais usam objetos em seu ambiente como ferramentas para alcançar espaços estreitos, aqui nós vemos que o Entropica, novamente, por iniciativa própria, pôde mover um disco grande representando um animal pelo lugar, de maneira a fazer com que o disco pequeno, representando uma ferramenta, alcançasse um espaço confinado segurando um terceiro disco e soltar o terceiro disco de sua posição fixa inicial. Essa habilidade de usar ferramentas terá aplicações na produção inteligente e agricultura. Além disso, assim como outros animais cooperam puxando as pontas opostas de uma corda ao mesmo tempo para liberar comida, Aqui vemos que o Entropica consegue completar uma versão modelo dessa tarefa. Essa habilidade de cooperação tem implicações interessantes no planejamento econômico e uma variedade de outros campos.
Entropica is broadly applicable to a variety of domains. For example, here we see it successfully playing a game of pong against itself, illustrating its potential for gaming. Here we see Entropica orchestrating new connections on a social network where friends are constantly falling out of touch and successfully keeping the network well connected. This same network orchestration ability also has applications in health care, energy, and intelligence. Here we see Entropica directing the paths of a fleet of ships, successfully discovering and utilizing the Panama Canal to globally extend its reach from the Atlantic to the Pacific. By the same token, Entropica is broadly applicable to problems in autonomous defense, logistics and transportation.
O Entropica é amplamente aplicável em uma variedade de domínios. Por exemplo, aqui podemos vê-lo jogando pingue-pongue contra si mesmo, demonstrando seu potencial para jogos. Aqui vemos o Entropica orquestrando novas conexões numa rede social em que amigos constantemente perdem o contato e mantendo a rede conectada com sucesso. A mesma habilidade de osquestrar uma rede também tem aplicações na saúde, energia e inteligência. Aqui o Entropica direciona os caminhos de uma frota de navios, descobrindo e utilizando com sucesso o Canal do Panamá para extender seu alcance globalmente do Atlântico ao Pacífico. Com o mesmo argumento, o Entropica é amplamente aplicável a problemas em defesa autônoma, logística e transporte.
Finally, here we see Entropica spontaneously discovering and executing a buy-low, sell-high strategy on a simulated range traded stock, successfully growing assets under management exponentially. This risk management ability will have broad applications in finance and insurance.
Finalmente, aqui vemos o Entropica descobrindo e executando espontaneamente a estratégia de comprar em baixa e vender em alta numa simulação de mercado de ações a descoberto, conseguindo aumentar os bens administrados exponencialmente. A habilidade de gerenciar riscos terá ampla aplicação em finanças e em seguros.
Alex Wissner-Gross: So what you've just seen is that a variety of signature human intelligent cognitive behaviors such as tool use and walking upright and social cooperation all follow from a single equation, which drives a system to maximize its future freedom of action.
Alex Wissner-Gross: O que acabamos de ver foi que várias demonstrações de comportamento cognitivo humano inteligente, tais como uso de ferramentas, andar ereto e cooperação social todos derivam da mesma equação, que guia um sistema a maximizar sua liberdade de ação no futuro.
Now, there's a profound irony here. Going back to the beginning of the usage of the term robot, the play "RUR," there was always a concept that if we developed machine intelligence, there would be a cybernetic revolt. The machines would rise up against us. One major consequence of this work is that maybe all of these decades, we've had the whole concept of cybernetic revolt in reverse. It's not that machines first become intelligent and then megalomaniacal and try to take over the world. It's quite the opposite, that the urge to take control of all possible futures is a more fundamental principle than that of intelligence, that general intelligence may in fact emerge directly from this sort of control-grabbing, rather than vice versa.
Bem, há uma ironia profunda aqui. Voltando ao início do uso do termo "robô", a peça "RUR", sempre houve um conceito de que se desenvolvêssemos inteligência de máquina, haveria uma revolta cibernética. As máquinas se levantariam contra nós. Uma das maiores consequências desse trabalho é que talvez, por todas estas décadas, nós entendemos o conceito de revolta cibernética ao contrário. Não é que as máquinas ficam inteligentes primeiro e depois megalomaníacas e tentam conquistar o mundo. É bem o contrário, que a vontade de assumir o controle de todos os possíveis futuros é um princípio mais fundamental que o da inteligência, que inteligência em geral pode mesmo provir diretamente desse desejo de controle ao invés de o contrário.
Another important consequence is goal seeking. I'm often asked, how does the ability to seek goals follow from this sort of framework? And the answer is, the ability to seek goals will follow directly from this in the following sense: just like you would travel through a tunnel, a bottleneck in your future path space, in order to achieve many other diverse objectives later on, or just like you would invest in a financial security, reducing your short-term liquidity in order to increase your wealth over the long term, goal seeking emerges directly from a long-term drive to increase future freedom of action.
Outra consequência importante é a busca de metas. Perguntam-me bastante como a habilidade de buscar metas deriva desse tipo de estrutura? E a resposta é que a habilidade de buscar metas deriva diretamente disso no seguinte sentido: assim como passamos por um túnel, um gargalo em nosso futuro caminho, para conseguir atingir vários outros objetivos diferentes mais tarde, ou assim como investiríamos numa segurança financeira, diminuindo a liquidez a curto prazo para aumentar nossa riqueza a longo prazo, a busca por metas emerge diretamente de uma motivação de longo prazo para aumentar a liberdade de ação no futuro.
Finally, Richard Feynman, famous physicist, once wrote that if human civilization were destroyed and you could pass only a single concept on to our descendants to help them rebuild civilization, that concept should be that all matter around us is made out of tiny elements that attract each other when they're far apart but repel each other when they're close together. My equivalent of that statement to pass on to descendants to help them build artificial intelligences or to help them understand human intelligence, is the following: Intelligence should be viewed as a physical process that tries to maximize future freedom of action and avoid constraints in its own future.
Para finalizar, Richard Feynman, físico famoso, escreveu uma vez que se a civilização humana fosse destruída e pudéssemos deixar só um único conceito para nossos descendentes para ajudá-los a reconstruir a civilização, esse conceito deveria ser que toda a matéria a nossa volta é feita de pequenos elementos que se atraem quando estão longe uns dos outros, mas se repelem quando estão próximos uns dos outros. Meu equivalente a essa afirmação para os descendentes para ajudá-los a construir inteligências artificiais ou ajudá-los a entender a inteligência humana, é o seguinte: a inteligência deveria ser encarada como um processo físico que tenta maximizar a liberdade de ação no futuro e evitar limitações em seu próprio futuro.
Thank you very much.
Muito obrigado.
(Applause)
(Aplausos)