When I was a kid, I was the quintessential nerd. I think some of you were, too.
Коли я був малим, я був еталонним "ботаніком". Думаю, деякі з вас теж такими були.
(Laughter)
(Сміх)
And you, sir, who laughed the loudest, you probably still are.
А ви, пане, що сміявся найголосніше, ним, мабуть, і залишились.
(Laughter)
(Сміх)
I grew up in a small town in the dusty plains of north Texas, the son of a sheriff who was the son of a pastor. Getting into trouble was not an option. And so I started reading calculus books for fun.
Я ріс у маленькому містечку на запиленій рівнині північного Техасу, син шерифа, який був сином пастора. Вскочити в якусь халепу було не варіант. І тому заради розваги я почав читати книжки з обчислення.
(Laughter)
(Сміх)
You did, too. That led me to building a laser and a computer and model rockets, and that led me to making rocket fuel in my bedroom. Now, in scientific terms, we call this a very bad idea.
Ви також це робили? Це призвело до того, що я зробив лазер, і комп'ютер, і модель ракети, і це призвело до того, що я зробив ракетне паливо в спальні. Науковою мовою ми називаємо це дуже поганою ідеєю.
(Laughter)
(Сміх)
Around that same time, Stanley Kubrick's "2001: A Space Odyssey" came to the theaters, and my life was forever changed. I loved everything about that movie, especially the HAL 9000. Now, HAL was a sentient computer designed to guide the Discovery spacecraft from the Earth to Jupiter. HAL was also a flawed character, for in the end he chose to value the mission over human life. Now, HAL was a fictional character, but nonetheless he speaks to our fears, our fears of being subjugated by some unfeeling, artificial intelligence who is indifferent to our humanity.
Приблизно в той самий час "2001: Космічна Одісея" Стенлі Кубрика з'явилась в кінотеатрах, і моє життя назавжди змінилось. Мені все подобалось у тому фільмі, особливо ХАЛ 9000. ХАЛ був кмітливим комп'ютером, призаченим направляти космічний корабель Дискавері з Землі на Юпітер. ХАЛ також був персонажем з недоліками, бо врешті вирішив, що місія важливіша за людське життя. ХАЛ був вигаданим персонажем, проте він говорить з нашими страхами, зі страхом бути підкореним позбавленим почуттів штучним інтелектом, що є байдужим до людства.
I believe that such fears are unfounded. Indeed, we stand at a remarkable time in human history, where, driven by refusal to accept the limits of our bodies and our minds, we are building machines of exquisite, beautiful complexity and grace that will extend the human experience in ways beyond our imagining.
Я вважаю, що такі страхи безпідставні. Насправді ми живемо в неймовірний час людської історії, де, відмовляючись визнати обмеження свого тіла і розуму, ми будуємо машини фантастичної, немислимої складності та величі, які розширять досвід людини так, що зараз і не уявити.
After a career that led me from the Air Force Academy to Space Command to now, I became a systems engineer, and recently I was drawn into an engineering problem associated with NASA's mission to Mars. Now, in space flights to the Moon, we can rely upon mission control in Houston to watch over all aspects of a flight. However, Mars is 200 times further away, and as a result it takes on average 13 minutes for a signal to travel from the Earth to Mars. If there's trouble, there's not enough time. And so a reasonable engineering solution calls for us to put mission control inside the walls of the Orion spacecraft. Another fascinating idea in the mission profile places humanoid robots on the surface of Mars before the humans themselves arrive, first to build facilities and later to serve as collaborative members of the science team.
Після кар'єри, яка привела мене з Академії повітряних сил до Космічного командування, я обійняв посаду системного інженера і нещодавно мене залучили до інженерної проблеми, пов'язаною з місією на Марс НАСА. Під час польотів на Місяць ми можемо покладатись на керування місією в Хьюстоні, що спостерігатиме за всіма особливостями польоту. Однак Марс у 200 разів віддаленіший, і тому потрібно в середньому 13 хвилин, щоб сигнал подолав відстань від Землі до Марсу. Якщо виникне проблема, часу забракне. І тому розумним інженерним рішенням є розмістити контроль над місією всередині космічного корабля Оріон. Ще одна чудова ідея в організації місії - помістити робота-гуманоїда на поверхню Марсу перед тим, як туди прибуде людина, - спочатку побудувати споруди, а згодом служити одним із членів наукової команди.
Now, as I looked at this from an engineering perspective, it became very clear to me that what I needed to architect was a smart, collaborative, socially intelligent artificial intelligence. In other words, I needed to build something very much like a HAL but without the homicidal tendencies.
Коли я подивився на це з точки зору інженерії, мені стало зрозуміло, що мені потрібно створити розумний, здатний до співпраці, соціально розумний штучний інтелект. Іншими словами, мені потрібно побудувати щось дуже схоже на ХАЛа, але без схильності до вбивств.
(Laughter)
(Сміх)
Let's pause for a moment. Is it really possible to build an artificial intelligence like that? Actually, it is. In many ways, this is a hard engineering problem with elements of AI, not some wet hair ball of an AI problem that needs to be engineered. To paraphrase Alan Turing, I'm not interested in building a sentient machine. I'm not building a HAL. All I'm after is a simple brain, something that offers the illusion of intelligence.
Зупинімося на хвилину. Чи можливо ось так просто створити штучний інтелект? Власне, так. З багатьох міркувань це складне інженерне завдання стосовно штучного інтелекту, не якась скажена кулька, що має бути спроектована. Якщо перефразувати Алана Тюрінґа, я не зацікавлений в будуванні кмітливої машини. Я не будую ХАЛА. Все, що я хочу, - простий мозок, що може створювати відчуття інтелекту.
The art and the science of computing have come a long way since HAL was onscreen, and I'd imagine if his inventor Dr. Chandra were here today, he'd have a whole lot of questions for us. Is it really possible for us to take a system of millions upon millions of devices, to read in their data streams, to predict their failures and act in advance? Yes. Can we build systems that converse with humans in natural language? Yes. Can we build systems that recognize objects, identify emotions, emote themselves, play games and even read lips? Yes. Can we build a system that sets goals, that carries out plans against those goals and learns along the way? Yes. Can we build systems that have a theory of mind? This we are learning to do. Can we build systems that have an ethical and moral foundation? This we must learn how to do. So let's accept for a moment that it's possible to build such an artificial intelligence for this kind of mission and others.
Мистецтво і наука програмування пройшли довгий шлях з того часу, як ХАЛ з'явився на екрані і я можу уявити, якщо б його винахідник доктор Чандра був тут сьогодні, скільки він мав би до нас питань. Чи дійсно ми можемо змусити мільйони і мільйони приладів зчитувати потоки даних, передбачувати власні помилки і діяти заздалегідь? Так. Чи вміємо ми будувати системи, які спілкуються природною мовою? Так. Чи ми вміємо будувати системи, які розрізняють об'єкти, емоції, відчувають емоції самі, грають в ігри чи навіть читають по губах? Так. Чи можемо збудувати систему, яка ставить перед собою цілі, яка будує плани відносно цих цілей і навчається одночасно? Так. Чи вміємо будувати системи, що моделюють психіку людини? Ми вчимося це робити. Чи вміємо будувати системи, які мають етичні та моральні засади? Ми маємо цього навчитись. Тож припустімо на мить, що можна побудувати штучний інтелект для цього типу місії та подібних.
The next question you must ask yourself is, should we fear it? Now, every new technology brings with it some measure of trepidation. When we first saw cars, people lamented that we would see the destruction of the family. When we first saw telephones come in, people were worried it would destroy all civil conversation. At a point in time we saw the written word become pervasive, people thought we would lose our ability to memorize. These things are all true to a degree, but it's also the case that these technologies brought to us things that extended the human experience in some profound ways.
Наступне питання, яке ви маєте поставити: чи слід його боятися? Кожна нова технологія тягне за собою певне занепокоєння. Коли ми вперше побачили авто, люди галасували, що з цього почнеться руйнування сім'ї. Коли ми вперше побачили телефони, люди були стурбовані, що вони зруйнують всі повсякденні розмови. Коли ми побачили, що письмове слово стало поширеним, люди думали, що ми втратимо вміння запам'ятовувати. Усі ці речі до певної міри правдиві, але водночас ці технології принесли нам винаходи, які якісно поглибили людський досвід - до нового рівня.
So let's take this a little further. I do not fear the creation of an AI like this, because it will eventually embody some of our values. Consider this: building a cognitive system is fundamentally different than building a traditional software-intensive system of the past. We don't program them. We teach them. In order to teach a system how to recognize flowers, I show it thousands of flowers of the kinds I like. In order to teach a system how to play a game -- Well, I would. You would, too. I like flowers. Come on. To teach a system how to play a game like Go, I'd have it play thousands of games of Go, but in the process I also teach it how to discern a good game from a bad game. If I want to create an artificially intelligent legal assistant, I will teach it some corpus of law but at the same time I am fusing with it the sense of mercy and justice that is part of that law. In scientific terms, this is what we call ground truth, and here's the important point: in producing these machines, we are therefore teaching them a sense of our values. To that end, I trust an artificial intelligence the same, if not more, as a human who is well-trained.
Тому міркуймо далі. Я не боюсь створення подібного штучного інтелекту, оскільки, зрештою, він вбере в себе деякі наші цінності. Задумайтесь: побудова когнітивної системи фундаментально відрізняється від побудови традиційного програмного забезпечення минулого. Ми не програмуємо їх. Ми їх вчимо. Щоб навчити систему розпізнавати квіти, я показую їй тисячу квітів, які мені подобаються. Щоб навчити систему грати у гру -- Ну, я б показував. Ви б теж. Я люблю квіти. Ну справді. Щоб навчити систему, як грати у гру - наприклад, го - мені б довелося зіграти тисячі партій в го, але в процесі я також навчаю її, як відрізнити хорошу партію від поганої. Якщо я хочу створити штучний інтелект, який допомагає в правових питаннях, мені потрібно навчити його законам, але водночас я вливаю туди почуття милосердя і справедливості, що є частиною закону. Науковці називають це фундаментальною правдою, і тут є важливий момент: створюючи ці машини, ми водночас вчимо їх нашим цінностям. І через це я довіряю штучному інтелекту так само, якщо не більше, ніж добре навченій людині.
But, you may ask, what about rogue agents, some well-funded nongovernment organization? I do not fear an artificial intelligence in the hand of a lone wolf. Clearly, we cannot protect ourselves against all random acts of violence, but the reality is such a system requires substantial training and subtle training far beyond the resources of an individual. And furthermore, it's far more than just injecting an internet virus to the world, where you push a button, all of a sudden it's in a million places and laptops start blowing up all over the place. Now, these kinds of substances are much larger, and we'll certainly see them coming.
Але ви можете запитати, а що ж щодо шахраїв, якихось добре фінансованих неурядових організацій? Я не боюсь штучного інтелекту в руках самотнього вовка. Зрозуміло, ми не можемо захистити себе від всіх актів насильства, але реальність є такою системою, яка вимагає суттєвої підготовки і тонкого навчання, для яких окремій людині забракне ресурсів. І більше того, це набагато складніше, ніж просто пустити інтернет-вірус у світ, де ти натискаєш кнопку - і ось він у мільйоні місць, і ноутбуки починають вибухати усюди. Але такі події є значно масштабнішими, і ми обов'язково зможемо їх помітити.
Do I fear that such an artificial intelligence might threaten all of humanity? If you look at movies such as "The Matrix," "Metropolis," "The Terminator," shows such as "Westworld," they all speak of this kind of fear. Indeed, in the book "Superintelligence" by the philosopher Nick Bostrom, he picks up on this theme and observes that a superintelligence might not only be dangerous, it could represent an existential threat to all of humanity. Dr. Bostrom's basic argument is that such systems will eventually have such an insatiable thirst for information that they will perhaps learn how to learn and eventually discover that they may have goals that are contrary to human needs. Dr. Bostrom has a number of followers. He is supported by people such as Elon Musk and Stephen Hawking. With all due respect to these brilliant minds, I believe that they are fundamentally wrong. Now, there are a lot of pieces of Dr. Bostrom's argument to unpack, and I don't have time to unpack them all, but very briefly, consider this: super knowing is very different than super doing. HAL was a threat to the Discovery crew only insofar as HAL commanded all aspects of the Discovery. So it would have to be with a superintelligence. It would have to have dominion over all of our world. This is the stuff of Skynet from the movie "The Terminator" in which we had a superintelligence that commanded human will, that directed every device that was in every corner of the world. Practically speaking, it ain't gonna happen. We are not building AIs that control the weather, that direct the tides, that command us capricious, chaotic humans. And furthermore, if such an artificial intelligence existed, it would have to compete with human economies, and thereby compete for resources with us. And in the end -- don't tell Siri this -- we can always unplug them.
Чи я боюсь, що такий штучний інтелект може загрожувати всьому людству? Якщо ви подивитесь такі фільми, як "Матриця", "Метрополіс", "Термінатор", серіал "Західний світ", вони всі розповідають про такий страх. Насправді, у своїй книжці "Суперрозум" філософ Нік Бостром порушує цю тему і стверджує, що суперрозум може не тільки бути небезпечним, він може становити екзистенційну загрозу людству. Головним аргументом доктора Бострома є те, що така система одного разу матиме таку ненаситну спрагу до інформації, що вона, можливо, навчиться вчитися - і врешті зрозуміє, що вона може ставити цілі, які суперечать потребам людства. У доктора Бострома є багато прихильників. Його підтримують такі люди, як Ілон Маск і Стівен Гокінґ. З усією повагою до цих блискучих розумів, я думаю, що вони серйозно помиляються. Є багато аргументів доктора Бострома, що варто обговорити, і в мене немає часу розглядати їх усі, але дуже стисло: неймовірне знання дуже відрізняється від неймовірних дій. ХАЛ був загрозою для команди Дискавері, оскільки ХАЛ керував усіма аспектами Дискавері. Тому йому потрібно було мати суперрозум. Йому довелось би панувати в усьому світі. Це випадок Скайнет з фільму "Термінатор", в якому був суперрозум, який контролював людську волю, направляв кожен пристрій в будь-якому куточку світу. З практичної точки зору, цього ніколи не станеться. Ми не будуємо штучних інтелектів, які контролюють погоду, які направляють хвилі, які командують нами - примхливими, хаотичними людьми. І більше того, якщо б такий штучний інтелект справді існував, йому б доводилось конкурувати з людською економікою, а значить, конкурувати з нами за ресурси. І зрештою - не кажіть Сірі цього - ми завжди можемо їх вимкнути.
(Laughter)
(Сміх)
We are on an incredible journey of coevolution with our machines. The humans we are today are not the humans we will be then. To worry now about the rise of a superintelligence is in many ways a dangerous distraction because the rise of computing itself brings to us a number of human and societal issues to which we must now attend. How shall I best organize society when the need for human labor diminishes? How can I bring understanding and education throughout the globe and still respect our differences? How might I extend and enhance human life through cognitive healthcare? How might I use computing to help take us to the stars?
Ми в неймовірній подорожі співеволюції з нашими машинами. Люди, якими ми є сьогодні, відрізняються від людей, якими ми станемо завтра. Хвилюватися тепер про розвиток суперрозуму - досить небезпечне відволікання, бо розвиток комп'ютерів як такий порушує багато гуманітарних і суспільних проблем, на які нам треба звернути увагу. Як краще організувати суспільство, коли потреба в людській праці зменшується? Як донести порозуміння й освіту до всіх куточків планети і поважати при цьому наші відмінності? Як поліпшити і продовжити людське життя за допомогою охорони когнітивного здоров'я? Як використати комп'ютери, щоб привели нас до зірок?
And that's the exciting thing. The opportunities to use computing to advance the human experience are within our reach, here and now, and we are just beginning.
Ось що цікаво. Можливості використати обчислювання для поліпшення людського досвіду доступні нам тут і тепер, і це тільки початок.
Thank you very much.
Дуже дякую.
(Applause)
(Оплески)