Intelligence -- what is it? If we take a look back at the history of how intelligence has been viewed, one seminal example has been Edsger Dijkstra's famous quote that "the question of whether a machine can think is about as interesting as the question of whether a submarine can swim." Now, Edsger Dijkstra, when he wrote this, intended it as a criticism of the early pioneers of computer science, like Alan Turing. However, if you take a look back and think about what have been the most empowering innovations that enabled us to build artificial machines that swim and artificial machines that [fly], you find that it was only through understanding the underlying physical mechanisms of swimming and flight that we were able to build these machines. And so, several years ago, I undertook a program to try to understand the fundamental physical mechanisms underlying intelligence.
Что такое интеллект? Если мы обратимся к истории того, как рассматривали интеллект, одним из основополагающих примеров было известное высказывание Эдсгера Дейкстра: «Вопрос «Умеет ли компьютер думать?» имеет не больше смысла, чем вопрос «Умеет ли подводная лодка плавать?». Когда Эдсгер Дейкстра написал это, он хотел тем самым раскритиковать таких пионеров информатики, как Алан Тьюринг. Однако если вы посмотрите в прошлое и подумаете о том, какими были наиболее полезные инновации, позволившие нам построить искусственные плавательные и летательные аппараты, вы обнаружите, только понимание физических механизмов, лежащих в основе плавания и полёта, позволило нам построить эти машины. Поэтому несколько лет назад я присоединился к одной программе, чтобы попытаться понять фундаментальные физические механизмы, ответственные за интеллект.
Let's take a step back. Let's first begin with a thought experiment. Pretend that you're an alien race that doesn't know anything about Earth biology or Earth neuroscience or Earth intelligence, but you have amazing telescopes and you're able to watch the Earth, and you have amazingly long lives, so you're able to watch the Earth over millions, even billions of years. And you observe a really strange effect. You observe that, over the course of the millennia, Earth is continually bombarded with asteroids up until a point, and that at some point, corresponding roughly to our year, 2000 AD, asteroids that are on a collision course with the Earth that otherwise would have collided mysteriously get deflected or they detonate before they can hit the Earth. Now of course, as earthlings, we know the reason would be that we're trying to save ourselves. We're trying to prevent an impact. But if you're an alien race who doesn't know any of this, doesn't have any concept of Earth intelligence, you'd be forced to put together a physical theory that explains how, up until a certain point in time, asteroids that would demolish the surface of a planet mysteriously stop doing that. And so I claim that this is the same question as understanding the physical nature of intelligence.
Давайте сделаем отступление. Давайте начнём с мысленного эксперимента. Представьте, что вы внеземная раса, которая ничего не знает о биологии Земли, или земной нейробиологии, или земном интеллекте. Но у вас есть изумительные телескопы, вы способны наблюдать за Землёй. У вас удивительно большая продолжительность жизни, поэтому вы можете наблюдать за Землёй на протяжении миллионов, даже миллиардов лет. И вы наблюдаете очень странные происшествия. Вы видите, что на протяжении тысячелетий вплоть до некоторого момента Землю постоянно бомбардируют астероиды. Но в некоторый момент, соответствующий примерно нашему году, 2000 от Рождества Христова, астероиды, которые находятся на курсе столкновения с Землёй и вот-вот с ней столкнутся, магически отклоняются от столкновения или детонируют до того, как достичь Земли. Разумеется, как земляне мы знаем, что причина была бы в том, что мы пытаемся спасти себя. Мы пытаемся предотвратить столкновение. Но если вы внеземная раса, которая не знает этого, не имеет никакого представления об интеллекте Земли, вам пришлось бы создать физическую теорию, объясняющую, как астероиды, вплоть до определённого момента уничтожающие поверхность планеты, вдруг таинственно перестали делать это. Я заявляю, что это вопрос из той же сферы, что и понимание физической природы интеллекта.
So in this program that I undertook several years ago, I looked at a variety of different threads across science, across a variety of disciplines, that were pointing, I think, towards a single, underlying mechanism for intelligence. In cosmology, for example, there have been a variety of different threads of evidence that our universe appears to be finely tuned for the development of intelligence, and, in particular, for the development of universal states that maximize the diversity of possible futures. In game play, for example, in Go -- everyone remembers in 1997 when IBM's Deep Blue beat Garry Kasparov at chess -- fewer people are aware that in the past 10 years or so, the game of Go, arguably a much more challenging game because it has a much higher branching factor, has also started to succumb to computer game players for the same reason: the best techniques right now for computers playing Go are techniques that try to maximize future options during game play. Finally, in robotic motion planning, there have been a variety of recent techniques that have tried to take advantage of abilities of robots to maximize future freedom of action in order to accomplish complex tasks. And so, taking all of these different threads and putting them together, I asked, starting several years ago, is there an underlying mechanism for intelligence that we can factor out of all of these different threads? Is there a single equation for intelligence?
В программе, к которой я присоединился несколько лет назад, я изучил различные дискуссии во всех областях науки, во множестве дисциплин, которые указывали, я думаю, на общий глубинный механизм интеллекта. Например, в космологии есть ряд подтверждений того, что наша вселенная выглядит тщательно настроенной на развитие интеллекта, и в частности, на развитие универсальных состояний, которые максимизируют разнообразие возможных вариантов будущего. В играх, например, в го — все помнят 1997 год, когда суперкомпьютер IBM Deep Blue победил Гарри Каспарова в шахматы — немногие люди знают, что за последние 10 лет или около того игра го, значительно более сложная вследствие значительно большей степени ветвления, также начала поддаваться игрокам-компьютерам и по той же причине: сейчас наилучшие техники для компьютеров, которые играют в го, это техники, которые пытаются максимизировать варианты развития по ходу игры. Наконец, при планировании движения роботов существует немало свежих технологий, пытающихся воспользоваться способностями роботов максимизировать будущую свободу действий для выполнения сложных задач. Собирая вместе эту информацию и складывая её вместе, несколько лет назад я задался вопросом: существует ли глубинный механизм интеллекта который мы можем выделить из всей этой информации? Существует ли единственное уравнение интеллекта?
And the answer, I believe, is yes. ["F = T ∇ Sτ"] What you're seeing is probably the closest equivalent to an E = mc² for intelligence that I've seen. So what you're seeing here is a statement of correspondence that intelligence is a force, F, that acts so as to maximize future freedom of action. It acts to maximize future freedom of action, or keep options open, with some strength T, with the diversity of possible accessible futures, S, up to some future time horizon, tau. In short, intelligence doesn't like to get trapped. Intelligence tries to maximize future freedom of action and keep options open. And so, given this one equation, it's natural to ask, so what can you do with this? How predictive is it? Does it predict human-level intelligence? Does it predict artificial intelligence? So I'm going to show you now a video that will, I think, demonstrate some of the amazing applications of just this single equation.
И ответ, я думаю, «да». ["F = T ∇ Sτ"] Вы видите то, что, возможно, является ближайшим эквивалентом Е = mc² для интеллекта, который я изучил. Вы видите выражение соответствия того, что интеллект является силой, F, которая действует таким образом, чтобы максимизировать будущую свободу действий. Она действует для максимизации будущей свободы действий или сохранения возможностей открытыми с некоторой силой Т, с разнообразием возможных доступных вариантов будущего, S, вплоть до некоторого будущего временного горизонта, тау. Короче говоря, интеллект не хочет попасть в ловушку. Он пытается максимизировать свободу действий в будущем и сохранить варианты открытыми. У нас есть это уравнение, и возникает вопрос: что мы можем с ним сделать? Есть ли у него сила предсказания? Предсказывает ли оно уровень интеллекта людей? Предсказывает ли оно искусственный интеллект? Сейчас вы увидите видео, которое, я полагаю, покажет некоторые из удивительных применений этого уравнения.
(Video) Narrator: Recent research in cosmology has suggested that universes that produce more disorder, or "entropy," over their lifetimes should tend to have more favorable conditions for the existence of intelligent beings such as ourselves. But what if that tentative cosmological connection between entropy and intelligence hints at a deeper relationship? What if intelligent behavior doesn't just correlate with the production of long-term entropy, but actually emerges directly from it? To find out, we developed a software engine called Entropica, designed to maximize the production of long-term entropy of any system that it finds itself in. Amazingly, Entropica was able to pass multiple animal intelligence tests, play human games, and even earn money trading stocks, all without being instructed to do so. Here are some examples of Entropica in action.
(Видео) Рассказчик: Недавние исследования в космологии предположили, что вселенные, которые создают больше беспорядка, или энтропии, в течение своей жизни имеют более благоприятные условия для существования разумных существ, таких как мы с вами. Но что, если эта умозрительная космологическая связь между энтропией и интеллектом намекает на более глубокое взаимоотношение? Что, если разумное поведение не просто соотносится с созданием энтропии в длительной перспективе, но на самом деле возникает прямо из неё? Чтобы выяснить это, мы разработали программный продукт под названием «Энтропика», нацеленный на максимизацию создания энтропии в дальней перспективе любой системы, в которой он себя найдёт. Удивительно, «Энтропика» смогла пройти несколько тестов на интеллект для животных, сыграть в человеческие игры и даже заработать деньги, торгуя акциями — и всё это без каких-либо инструкций. Вот некоторые примеры работы «Энтропики».
Just like a human standing upright without falling over, here we see Entropica automatically balancing a pole using a cart. This behavior is remarkable in part because we never gave Entropica a goal. It simply decided on its own to balance the pole. This balancing ability will have appliactions for humanoid robotics and human assistive technologies. Just as some animals can use objects in their environments as tools to reach into narrow spaces, here we see that Entropica, again on its own initiative, was able to move a large disk representing an animal around so as to cause a small disk, representing a tool, to reach into a confined space holding a third disk and release the third disk from its initially fixed position. This tool use ability will have applications for smart manufacturing and agriculture. In addition, just as some other animals are able to cooperate by pulling opposite ends of a rope at the same time to release food, here we see that Entropica is able to accomplish a model version of that task. This cooperative ability has interesting implications for economic planning and a variety of other fields.
Как человек способен стоять прямо не падая, так и «Энтропика» автоматически балансирует шест с использованием тележки. Это поведение удивительно, потому что мы не задавали ей цель. Она сама решила балансировать шест. Эта способность поддерживать равновесие будет иметь применение в гуманоидной робототехнике и технологиях поддержки людей. Так же как некоторые животные могут использовать объекты в своём окружении как инструменты, чтобы пробраться через узкое пространство, здесь мы видим, как «Энтропика», снова по своей инициативе, смогла переместить большой диск, представляющий животное, таким образом, чтобы заставить маленький диск, представляющий инструмент, забраться в ограниченное пространство, удерживающее третий диск, и высвободить третий диск из его изначально фиксированной позиции. Эта способность использовать инструменты будет иметь применение в небольших производствах и аграрном хозяйстве. Вдобавок, также как некоторые другие животные способны сотрудничать, натягивая противоположные концы верёвки одновременно для высвобождения еды, здесь мы видим, что «Энтропика» способна выполнить моделированную версию этой задачи. Эта способность к сотрудничеству имеет интересные применения для планирования экономики и ряда других областей.
Entropica is broadly applicable to a variety of domains. For example, here we see it successfully playing a game of pong against itself, illustrating its potential for gaming. Here we see Entropica orchestrating new connections on a social network where friends are constantly falling out of touch and successfully keeping the network well connected. This same network orchestration ability also has applications in health care, energy, and intelligence. Here we see Entropica directing the paths of a fleet of ships, successfully discovering and utilizing the Panama Canal to globally extend its reach from the Atlantic to the Pacific. By the same token, Entropica is broadly applicable to problems in autonomous defense, logistics and transportation.
«Энтропика» широко применима в ряде областей. Например, здесь мы видим, как она успешно играет в пинг-понг сама с собой, иллюстрируя свой потенциал к играм. Здесь мы видим «Энтропику», планирующую новые связи в социальной сети, где друзья постоянно пропадают из вида, и успешно поддерживающую связь в сети. Эта способность организации сети также имеет применение в здравоохранении, энергетике и создании искусственного интеллекта. Здесь мы видим, как «Энтропика» прокладывает пути флота кораблей, успешно обнаруживая и используя Панамский канал для достижения связи между Атлантическим и Тихим океанами. Эта способность делает «Энтропику» широко применимой к решению проблем автономной защиты, логистики и транспорта.
Finally, here we see Entropica spontaneously discovering and executing a buy-low, sell-high strategy on a simulated range traded stock, successfully growing assets under management exponentially. This risk management ability will have broad applications in finance and insurance.
Наконец, здесь мы видим «Энтропику», спонтанно обнаруживающую и осуществляющую стратегию «покупай дёшево — продавай дорого» в симулируемом периоде торговли акциями. Она успешно показательно наращивает активы под её управлением. Эта способность управления риском будет иметь широкие применения в финансах и страховании.
Alex Wissner-Gross: So what you've just seen is that a variety of signature human intelligent cognitive behaviors such as tool use and walking upright and social cooperation all follow from a single equation, which drives a system to maximize its future freedom of action.
Алекс Висснер-Гросс: То, что вы сейчас увидели, является набором отличительных черт человеческого интеллекта и его поведения, например, использование инструментов, прямохождение и общественное сотрудничество. Все они следуют из уравнения, которое заставляет систему максимизировать свободу действий в будущем.
Now, there's a profound irony here. Going back to the beginning of the usage of the term robot, the play "RUR," there was always a concept that if we developed machine intelligence, there would be a cybernetic revolt. The machines would rise up against us. One major consequence of this work is that maybe all of these decades, we've had the whole concept of cybernetic revolt in reverse. It's not that machines first become intelligent and then megalomaniacal and try to take over the world. It's quite the opposite, that the urge to take control of all possible futures is a more fundamental principle than that of intelligence, that general intelligence may in fact emerge directly from this sort of control-grabbing, rather than vice versa.
Здесь кроется глубокая ирония. Вернёмся к первым упоминаниям термина «робот» в пьесе «Р. У. Р.». Всегда существовало мнение, что если бы мы создали машинный интеллект, произошла бы киберреволюция. Машины бы восстали против нас. Одним большим следствием этой работы является то, что, возможно, на протяжении последних десятилетий, мы наблюдали киберреволюцию в обратном направлении. Это не машины сначала стали разумными, а затем обзавелись манией величия и пытаются завоевать мир. Произошло нечто прямо противоположное. Желание контролировать все возможные варианты будущего — более фундаментальный принцип по сравнению с интеллектом; интеллект может возникать непосредственно из желания захватить контроль, но не наоборот.
Another important consequence is goal seeking. I'm often asked, how does the ability to seek goals follow from this sort of framework? And the answer is, the ability to seek goals will follow directly from this in the following sense: just like you would travel through a tunnel, a bottleneck in your future path space, in order to achieve many other diverse objectives later on, or just like you would invest in a financial security, reducing your short-term liquidity in order to increase your wealth over the long term, goal seeking emerges directly from a long-term drive to increase future freedom of action.
Другое важное следствие — поиск цели. Меня часто спрашивают, как способность поиска целей вытекает из этой модели. Я отвечаю, что способность искать цели следует прямо из этой модели вот каким образом: так же как если вы путешествуете через тоннель — довольно узкий путь из всех возможных путей — для достижения многих разнообразных целей в будущем, или инвестируете в финансовую безопасность, уменьшая краткосрочную ликвидность для того, чтобы увеличить благосостояние в долгосрочной перспективе, поиск цели возникает напрямую из долгосрочной необходимости увеличения свободы действий в будущем.
Finally, Richard Feynman, famous physicist, once wrote that if human civilization were destroyed and you could pass only a single concept on to our descendants to help them rebuild civilization, that concept should be that all matter around us is made out of tiny elements that attract each other when they're far apart but repel each other when they're close together. My equivalent of that statement to pass on to descendants to help them build artificial intelligences or to help them understand human intelligence, is the following: Intelligence should be viewed as a physical process that tries to maximize future freedom of action and avoid constraints in its own future.
Наконец, Ричард Фейнман, знаменитый физик, однажды написал, что если бы человеческая цивилизация находилась на грани уничтожения и у вас была бы возможность передать лишь одну идею потомкам, чтобы помочь им построить цивилизацию заново, эта идея должна быть в том, что вся материя вокруг нас создана из крошечных элементов, которые притягивают друг друга, когда они находятся далеко, но отталкивают друг друга, когда они находятся рядом. Мой эквивалент этого утверждения для передачи потомкам, чтобы помочь им построить искусственный интеллект или помочь им понять человеческую разумность, будет таким: интеллект должен рассматриваться как физический процесс, который пытается максимизировать свободу действий и избежать ограничений в будущем.
Thank you very much.
Большое спасибо.
(Applause)
(Аплодисменты)