When I was a kid, I was the quintessential nerd. I think some of you were, too.
Quando criança, eu era fundamentalmente "nerd". Acho que alguns de vocês também eram.
(Laughter)
(Risos)
And you, sir, who laughed the loudest, you probably still are.
E o senhor, que deu a risada mais alta, provavelmente ainda é.
(Laughter)
(Risos)
I grew up in a small town in the dusty plains of north Texas, the son of a sheriff who was the son of a pastor. Getting into trouble was not an option. And so I started reading calculus books for fun.
Cresci numa cidadezinha nas planícies empoeiradas do norte do Texas, filho de um xerife que era filho de um pastor. Me meter em confusão não era uma opção. Então, comecei a ler livros de cálculo pra me distrair.
(Laughter)
(Risos)
You did, too. That led me to building a laser and a computer and model rockets, and that led me to making rocket fuel in my bedroom. Now, in scientific terms, we call this a very bad idea.
Você também! Isso me levou a criar um lêiser, um computador e protótipos de foguete, o que me levou a inventar combustível de foguete em meu quarto. Bem, em termos científicos, chamamos isso de "péssima ideia".
(Laughter)
(Risos)
Around that same time, Stanley Kubrick's "2001: A Space Odyssey" came to the theaters, and my life was forever changed. I loved everything about that movie, especially the HAL 9000. Now, HAL was a sentient computer designed to guide the Discovery spacecraft from the Earth to Jupiter. HAL was also a flawed character, for in the end he chose to value the mission over human life. Now, HAL was a fictional character, but nonetheless he speaks to our fears, our fears of being subjugated by some unfeeling, artificial intelligence who is indifferent to our humanity.
Mais ou menos na mesma época, "2001: Uma odisseia no espaço", de Stanley Kubrick, estreou nos cinemas e minha vida mudou para sempre. Adorei tudo naquele filme, principalmente o HAL 9000. HAL era um computador consciente, projetado para conduzir a nave Discovery da Terra até Júpiter. HAL também era um personagem imperfeito, pois, no fim, decidiu priorizar a missão em vez da vida humana. Bem, HAL era um personagem de ficção, mas, mesmo assim, traz à tona nossos medos, medo de sermos subjugados por uma inteligência artificial sem sentimentos, indiferente à nossa humanidade.
I believe that such fears are unfounded. Indeed, we stand at a remarkable time in human history, where, driven by refusal to accept the limits of our bodies and our minds, we are building machines of exquisite, beautiful complexity and grace that will extend the human experience in ways beyond our imagining.
Acredito que esses medos não têm fundamento. De fato, vivemos numa época incrível da história da humanidade, em que, por nos recursarmos a aceitar as limitações do nosso corpo e mente, criamos máquinas graciosas e de linda e primorosa complexidade, que vão ampliar a experiência humana de formas além do que imaginamos.
After a career that led me from the Air Force Academy to Space Command to now, I became a systems engineer, and recently I was drawn into an engineering problem associated with NASA's mission to Mars. Now, in space flights to the Moon, we can rely upon mission control in Houston to watch over all aspects of a flight. However, Mars is 200 times further away, and as a result it takes on average 13 minutes for a signal to travel from the Earth to Mars. If there's trouble, there's not enough time. And so a reasonable engineering solution calls for us to put mission control inside the walls of the Orion spacecraft. Another fascinating idea in the mission profile places humanoid robots on the surface of Mars before the humans themselves arrive, first to build facilities and later to serve as collaborative members of the science team.
Depois de trabalhar na Academia da Força Aérea americana e chegar ao Comando Espacial americano, me tornei engenheiro de sistemas, e recentemente estou ajudando num problema de engenharia relacionado à missão da NASA a Marte. Bem, nos voos espaciais à Lua, podemos contar com o apoio do controle de missão em Houston, que monitora todos os aspectos do voo. Porém, Marte fica 200 vezes mais distante de nós que a Lua e, consequentemente, leva em média 13 minutos para que um sinal de comunicação viaje da Terra a Marte. Se houver algum problema, não dá tempo de resolver. Então, uma solução razoável de engenharia é colocarmos o controle de missão dentro da nave Orion. Outra ideia fascinante no projeto da missão é colocar robôs humanoides na superfície de Marte antes de os humanos chegarem, para construírem instalações e depois atuarem como colaboradores da equipe científica.
Now, as I looked at this from an engineering perspective, it became very clear to me that what I needed to architect was a smart, collaborative, socially intelligent artificial intelligence. In other words, I needed to build something very much like a HAL but without the homicidal tendencies.
Bom, de uma perspectiva de engenharia, ficou bem claro pra mim que o que eu precisava projetar era uma inteligência artificial moderna, colaborativa e com habilidade social. Em outras palavras, eu precisava criar algo bem parecido com o HAL, mas sem suas tendências homicidas.
(Laughter)
(Risos)
Let's pause for a moment. Is it really possible to build an artificial intelligence like that? Actually, it is. In many ways, this is a hard engineering problem with elements of AI, not some wet hair ball of an AI problem that needs to be engineered. To paraphrase Alan Turing, I'm not interested in building a sentient machine. I'm not building a HAL. All I'm after is a simple brain, something that offers the illusion of intelligence.
Mas espera um pouco: será mesmo possível criar uma inteligência artificial assim? Na verdade, é possível sim. De muitas formas, trata-se de um desafio complexo de engenharia, com alguns elementos de IA; não da ideia mirabolante de criar uma IA repulsiva. Parafraseando Alan Turing, não quero criar uma máquina consciente. Não vou criar um HAL. Só quero criar um cérebro simples, algo que cause a ilusão de inteligência.
The art and the science of computing have come a long way since HAL was onscreen, and I'd imagine if his inventor Dr. Chandra were here today, he'd have a whole lot of questions for us. Is it really possible for us to take a system of millions upon millions of devices, to read in their data streams, to predict their failures and act in advance? Yes. Can we build systems that converse with humans in natural language? Yes. Can we build systems that recognize objects, identify emotions, emote themselves, play games and even read lips? Yes. Can we build a system that sets goals, that carries out plans against those goals and learns along the way? Yes. Can we build systems that have a theory of mind? This we are learning to do. Can we build systems that have an ethical and moral foundation? This we must learn how to do. So let's accept for a moment that it's possible to build such an artificial intelligence for this kind of mission and others.
A arte e a ciência da computação evoluíram bastante desde que HAL surgiu no cinema, e imagino que, se o Dr. Chandra, seu inventor, estivesse aqui hoje, ele teria um monte de perguntas pra nós. Será que conseguimos pegar um sistema com milhões e milhões de dispositivos, entrar com os dados, prever suas falhas e nos anteciparmos a elas? Sim. Será possível criar sistemas que conversem conosco em nossa língua? Sim. Será possível criar sistemas que reconheçam objetos e emoções, que reajam emotivamente, usem de estratégia e até leitura labial? Sim. Será possível criar um sistema que estabeleça metas, faça planos e aprenda ao longo do caminho? Sim. Será possível criarmos sistemas com capacidade cognitiva? Estamos aprendendo a fazer isso. Será possível criarmos sistemas que tenham princípios éticos e morais? Precisamos aprender a fazer isso. Então, digamos, por exemplo, que seja possível criar uma inteligência artificial assim, para esse tipo de missão e para outras.
The next question you must ask yourself is, should we fear it? Now, every new technology brings with it some measure of trepidation. When we first saw cars, people lamented that we would see the destruction of the family. When we first saw telephones come in, people were worried it would destroy all civil conversation. At a point in time we saw the written word become pervasive, people thought we would lose our ability to memorize. These things are all true to a degree, but it's also the case that these technologies brought to us things that extended the human experience in some profound ways.
A próxima pergunta que precisamos fazer é: devemos temer essa inteligência? Bom, toda nova tecnologia traz algum tipo de preocupação. Quando surgiram os carros, as pessoas acharam que veríamos a destruição da família. Quando surgiram os telefones, as pessoas temiam que ele destruiria a socialização entre as pessoas. Quando vimos a palavra escrita se espalhar, acharam que perderíamos nossa capacidade de memorizar. Tudo isso é de certa forma verdade, mas também é verdade que essas tecnologias nos possibilitaram ampliar a experiência humana de formas profundas.
So let's take this a little further. I do not fear the creation of an AI like this, because it will eventually embody some of our values. Consider this: building a cognitive system is fundamentally different than building a traditional software-intensive system of the past. We don't program them. We teach them. In order to teach a system how to recognize flowers, I show it thousands of flowers of the kinds I like. In order to teach a system how to play a game -- Well, I would. You would, too. I like flowers. Come on. To teach a system how to play a game like Go, I'd have it play thousands of games of Go, but in the process I also teach it how to discern a good game from a bad game. If I want to create an artificially intelligent legal assistant, I will teach it some corpus of law but at the same time I am fusing with it the sense of mercy and justice that is part of that law. In scientific terms, this is what we call ground truth, and here's the important point: in producing these machines, we are therefore teaching them a sense of our values. To that end, I trust an artificial intelligence the same, if not more, as a human who is well-trained.
Vou explicar melhor. Não temo a criação de uma IA assim, porque ela vai acabar assimilando alguns dos nossos valores. Pensem só: criar um sistema cognitivo é fundamentalmente diferente de criar um sistema complexo e tradicional do passado. Não a programamos. Nós lhe ensinamos. Para ensinar um sistema a reconhecer flores, mostro a ele milhares de flores do tipo de que gosto. Para ensinar um sistema a jogar... eu faria isso, e vocês também... Eu gosto de jogos. Qual é! Para ensinar um sistema a jogar, por exemplo, o "Go", eu o faria jogá-lo várias vezes, mas, no processo, eu também o ensinaria a diferenciar um jogo bom de um jogo ruim. Se quisesse criar um assistente jurídico com inteligência artificial, eu lhe ensinaria algumas leis, mas, ao mesmo tempo, colocaria nele o senso de compaixão e de justiça que acompanham essas leis. Em termos científicos, é o que chamamos de situação fática, e eis o mais importante: ao criar essas máquinas, estamos ensinando a elas algo dos nossos valores. Sendo assim, eu confio na inteligência artificial tanto quanto num humano bem treinado; quem sabe até mais.
But, you may ask, what about rogue agents, some well-funded nongovernment organization? I do not fear an artificial intelligence in the hand of a lone wolf. Clearly, we cannot protect ourselves against all random acts of violence, but the reality is such a system requires substantial training and subtle training far beyond the resources of an individual. And furthermore, it's far more than just injecting an internet virus to the world, where you push a button, all of a sudden it's in a million places and laptops start blowing up all over the place. Now, these kinds of substances are much larger, and we'll certainly see them coming.
Talvez vocês perguntem: "E quanto a agentes maliciosos, tipo, uma ONG bem financiada?" Não temo uma inteligência artificial nas mãos de um "lobo solitário". Obviamente, não podemos nos proteger contra todos os possíveis atos de violência, mas a verdade é que um sistema assim requer treinamento sólido e inteligente muito além das capacidades de um indivíduo. Além disso, a coisa vai além de simplesmente injetar um vírus virtual no mundo, pressionando um botão e, de repente, propagando-o por toda parte, fazendo notebooks explodirem por aí. Esses tipos de coisas são bem maiores, e certamente os veremos chegar.
Do I fear that such an artificial intelligence might threaten all of humanity? If you look at movies such as "The Matrix," "Metropolis," "The Terminator," shows such as "Westworld," they all speak of this kind of fear. Indeed, in the book "Superintelligence" by the philosopher Nick Bostrom, he picks up on this theme and observes that a superintelligence might not only be dangerous, it could represent an existential threat to all of humanity. Dr. Bostrom's basic argument is that such systems will eventually have such an insatiable thirst for information that they will perhaps learn how to learn and eventually discover that they may have goals that are contrary to human needs. Dr. Bostrom has a number of followers. He is supported by people such as Elon Musk and Stephen Hawking. With all due respect to these brilliant minds, I believe that they are fundamentally wrong. Now, there are a lot of pieces of Dr. Bostrom's argument to unpack, and I don't have time to unpack them all, but very briefly, consider this: super knowing is very different than super doing. HAL was a threat to the Discovery crew only insofar as HAL commanded all aspects of the Discovery. So it would have to be with a superintelligence. It would have to have dominion over all of our world. This is the stuff of Skynet from the movie "The Terminator" in which we had a superintelligence that commanded human will, that directed every device that was in every corner of the world. Practically speaking, it ain't gonna happen. We are not building AIs that control the weather, that direct the tides, that command us capricious, chaotic humans. And furthermore, if such an artificial intelligence existed, it would have to compete with human economies, and thereby compete for resources with us. And in the end -- don't tell Siri this -- we can always unplug them.
Se eu temo que uma inteligência artificial assim possa ameaçar toda a espécie humana? Ao assistir a filmes como "Matrix", "Metrópolis", "O Exterminador do Futuro", ou a séries como "Westworld", vemos que todos falam desse tipo de medo. No livro "Superintelligence", do filósofo Nick Bostrom, ele aborda esse tema e explica que uma superinteligência pode não só ser perigosa, mas também representar uma ameaça à existência da espécie humana. O argumento básico do Dr. Bostrom é o de que esses sistemas vão acabar tendo tamanha sede por informação que vão talvez aprender a aprender e vão acabar descobrindo que podem ter objetivos que são contrários às necessidades humanas. O Dr. Bostrom têm alguns seguidores. Pessoas como Elon Musk e Stephen Hawking concordam com ele. Com todo o respeito a essas mentes brilhantes, creio que estejam fundamentalmente equivocados. São muitos os aspectos do argumento do Dr. Bostrom para discutir e não tenho tenho para falar sobre todos, mas, rapidamente, pensem no seguinte: ser "super" no saber é bem diferente de ser "super" no fazer. HAL foi uma ameaça à tripulação da Discovery só porque comandava todos os aspectos da nave. Assim teria que ser com uma superinteligência. Ela teria que ter controle sobre todo o nosso mundo. Isso é coisa da Skynet, do filme "O Exterminador do Futuro", uma superinteligência que controlava a vontade humana, que controlava qualquer dispositivo em qualquer parte do mundo. Em termos práticos, isso não vai rolar. Não estamos criando IAs que controlem o clima, que controlem as marés, ou que comandem a nós, humanos inconstantes e caóticos. Além do mais, se uma inteligência artificial dessas existisse, ela teria que competir nas economias mundiais e, portanto, competir conosco por recursos. No fim... não contem isso ao Siri... sempre é possível desligá-la.
(Laughter)
(Risos)
We are on an incredible journey of coevolution with our machines. The humans we are today are not the humans we will be then. To worry now about the rise of a superintelligence is in many ways a dangerous distraction because the rise of computing itself brings to us a number of human and societal issues to which we must now attend. How shall I best organize society when the need for human labor diminishes? How can I bring understanding and education throughout the globe and still respect our differences? How might I extend and enhance human life through cognitive healthcare? How might I use computing to help take us to the stars?
Estamos numa jornada incrível de coevolução com nossas máquinas. Não seremos no futuro os mesmos humanos que somos hoje. Preocupar-se agora com o surgimento de uma superinteligência é, de várias maneiras, uma distração perigosa porque a ascensão da própria computação nos traz diversas questões, humanas e sociais, com as quais agora devemos lidar. Como organizar a sociedade quando a demanda por trabalho humano diminuir? Como disseminar entendimento e educação por todo o planeta sem desrespeitar nossas diferenças? Como prolongar e melhorar a vida com esse tipo de inteligência na área de saúde? Como posso usar a computação para fazer com que cheguemos às estrelas?
And that's the exciting thing. The opportunities to use computing to advance the human experience are within our reach, here and now, and we are just beginning.
Isso é o mais empolgante. As oportunidades de usar a computação para ampliar a experiência humana estão a nosso alcance, aqui e agora, e estamos apenas começando.
Thank you very much.
Muito obrigado.
(Applause)
(Aplausos)