After 13.8 billion years of cosmic history, our universe has woken up and become aware of itself. From a small blue planet, tiny, conscious parts of our universe have begun gazing out into the cosmos with telescopes, discovering something humbling. We've discovered that our universe is vastly grander than our ancestors imagined and that life seems to be an almost imperceptibly small perturbation on an otherwise dead universe. But we've also discovered something inspiring, which is that the technology we're developing has the potential to help life flourish like never before, not just for centuries but for billions of years, and not just on earth but throughout much of this amazing cosmos.
Após 13 800 milhões de anos de história cósmica o nosso universo acordou e tomou consciência de si mesmo. De um pequeno planeta azul, minúsculas partículas conscientes do nosso universo começaram a explorar o cosmos com telescópios, descobrindo uma coisa humilhante. Descobrimos que o nosso universo é muito maior do que imaginavam os nossos antepassados e que a vida parecia ser uma perturbação quase impercetível num universo que parecia morto. Mas descobrimos também uma coisa inspiradora, a tecnologia que estamos a desenvolver tem o potencial de ajudar a vida a florescer como nunca anteriormente, não só durante séculos, mas durante milhares de milhões de anos, e não só na Terra, mas por esse incrível universo lá fora.
I think of the earliest life as "Life 1.0" because it was really dumb, like bacteria, unable to learn anything during its lifetime. I think of us humans as "Life 2.0" because we can learn, which we in nerdy, geek speak, might think of as installing new software into our brains, like languages and job skills. "Life 3.0," which can design not only its software but also its hardware of course doesn't exist yet. But perhaps our technology has already made us "Life 2.1," with our artificial knees, pacemakers and cochlear implants.
Vejo o início da vida como " Vida 1.0", porque era muito burra como as bactérias, incapaz de aprender o que fosse, durante a sua vida. Vejo os seres humanos como "Vida 2.0", porque nós podemos aprender, o que, na nossa forma "nerd" de falar, podemos pensar como a instalação de um novo "software" no cérebro, como os idiomas e as competências profissionais, A "Vida 3.0", que pode conceber, não só o "software", mas também o "hardware" claramente ainda não existe. Mas talvez a nossa tecnologia já nos tenha criado a "Vida 2.1", com joelhos artificiais, "pacemakers" e transplantes cocleares.
So let's take a closer look at our relationship with technology, OK? As an example, the Apollo 11 moon mission was both successful and inspiring, showing that when we humans use technology wisely, we can accomplish things that our ancestors could only dream of. But there's an even more inspiring journey propelled by something more powerful than rocket engines, where the passengers aren't just three astronauts but all of humanity. Let's talk about our collective journey into the future with artificial intelligence.
Então, olhemos mais atentamente para a nossa relação com a tecnologia. Um exemplo: A missão à Lua Apollo 11 foi bem sucedida e inspiradora, mostrando que, quando usamos a tecnologia com sabedoria, podemos realizar coisas com que os nossos antepassados só podiam sonhar. Mas há uma viagem ainda mais inspiradora, propulsionada por algo muito mais potente que os motores de um foguetão, na qual os passageiros não são apenas três astronautas, mas toda a humanidade. Vamos falar sobre a nossa viagem coletiva para o futuro com inteligência artificial.
My friend Jaan Tallinn likes to point out that just as with rocketry, it's not enough to make our technology powerful. We also have to figure out, if we're going to be really ambitious, how to steer it and where we want to go with it. So let's talk about all three for artificial intelligence: the power, the steering and the destination.
O meu amigo Jaan Tallin costuma salientar que construir apenas foguetões não é o suficiente para tornar a nossa tecnologia poderosa. Se queremos ser realmente ambiciosos, também precisamos de descobrir como conduzi-los e onde queremos ir com eles. Portanto, vamos falar dos três tipos de inteligência artificial: a potência, a condução e o destino.
Let's start with the power. I define intelligence very inclusively -- simply as our ability to accomplish complex goals, because I want to include both biological and artificial intelligence. And I want to avoid the silly carbon-chauvinism idea that you can only be smart if you're made of meat. It's really amazing how the power of AI has grown recently. Just think about it. Not long ago, robots couldn't walk. Now, they can do backflips. Not long ago, we didn't have self-driving cars. Now, we have self-flying rockets. Not long ago, AI couldn't do face recognition. Now, AI can generate fake faces and simulate your face saying stuff that you never said. Not long ago, AI couldn't beat us at the game of Go. Then, Google DeepMind's AlphaZero AI took 3,000 years of human Go games and Go wisdom, ignored it all and became the world's best player by just playing against itself. And the most impressive feat here wasn't that it crushed human gamers, but that it crushed human AI researchers who had spent decades handcrafting game-playing software. And AlphaZero crushed human AI researchers not just in Go but even at chess, which we have been working on since 1950.
Vamos começar pela potência. Eu defino inteligência de forma bastante abrangente - simplesmente como a nossa capacidade de concretizar objetivos complexos - porque eu quero incluir a inteligência biológica e a artificial. E quero afastar essa estúpida ideia chauvinista de que só podemos ser inteligentes, se formos feitos de carne e osso. É incrível como a potência da IA vem crescendo ultimamente. Pensem nisso. Há pouco tempo ainda, os robôs não andavam. Agora, podem dar mortais para trás. Há pouco tempo ainda, não tínhamos carros autónomos. Agora, temos foguetões autónomos. Há pouco tempo ainda, a IA não sabia fazer reconhecimento facial. Agora, pode produzir rostos falsos e simular o nosso rosto, a dizer coisas que nunca dissemos. Há pouco tempo ainda, a IA não conseguia vencer-nos numa partida de Go. Depois, a IA Alfa Zero do Google DeepMind absorveu 3000 anos de partidas humanas e os conhecimentos de Go, ignorou tudo isso e tornou-se o melhor jogador do mundo, jogando apenas contra si mesmo. O mais impressionante não é ela ter derrotado jogadores humanos, mas é ter derrotado os investigadores da IA que tinham passado décadas a trabalhar em "software" de jogos. O Alfa Zero não só derrotou os investigadores de IA no Go como também no xadrez em que temos vindo a trabalhar desde 1950.
So all this amazing recent progress in AI really begs the question: How far will it go? I like to think about this question in terms of this abstract landscape of tasks, where the elevation represents how hard it is for AI to do each task at human level, and the sea level represents what AI can do today. The sea level is rising as AI improves, so there's a kind of global warming going on here in the task landscape. And the obvious takeaway is to avoid careers at the waterfront --
Portanto, este incrível progresso recente da IA leva-nos a perguntar: Até aonde irá? Gosto de pensar nesta pergunta como uma paisagem abstrata de tarefas, em que o nível elevado representa a dificuldade que a IA tem para realizar cada tarefa a nível humano. e o nível do mar representa o que a IA pode fazer hoje. O nível do mar vai subindo à medida que a IA evolui, Assim, há uma espécie de aquecimento global nesta paisagem de tarefas. A conclusão óbvia é evitar seguir carreiras aquáticas
(Laughter)
(Risos)
which will soon be automated and disrupted. But there's a much bigger question as well. How high will the water end up rising? Will it eventually rise to flood everything, matching human intelligence at all tasks. This is the definition of artificial general intelligence -- AGI, which has been the holy grail of AI research since its inception. By this definition, people who say, "Ah, there will always be jobs that humans can do better than machines," are simply saying that we'll never get AGI. Sure, we might still choose to have some human jobs or to give humans income and purpose with our jobs, but AGI will in any case transform life as we know it with humans no longer being the most intelligent. Now, if the water level does reach AGI, then further AI progress will be driven mainly not by humans but by AI, which means that there's a possibility that further AI progress could be way faster than the typical human research and development timescale of years, raising the controversial possibility of an intelligence explosion where recursively self-improving AI rapidly leaves human intelligence far behind, creating what's known as superintelligence.
que em breve serão automatizadas e extintas. Mas ainda há uma pergunta mais relevante. Até que altura pode chegar a água? Será que sobe o suficiente para acabar por inundar tudo, igualando a inteligência humana em todas as tarefas? Esta é a definição de inteligência artificial geral a IAG, que tem sido o Santo Graal da investigação da IA desde o seu início. Com esta definição, as pessoas que dizem: "Sempre haverá tarefas que os humanos podem fazer melhor que as máquinas," estão a afirmar que nunca teremos IAG. Claro, nós ainda podemos optar por usar mão-de-obra humana ou dar aos seres humanos receitas ou um objetivo sem empregos, mas a IAG irá, de qualquer forma, transformar a vida como a conhecemos em que os seres humanos já não serão os mais inteligentes. Mas, se, de facto, o nível da água alcançar a IAG, então, o progresso futuro da IA estará, principalmente, nas suas próprias mãos. Sendo assim, existe uma possibilidade de que o progresso da IA seja muito mais rápido do que a escala temporal em anos da investigação realizada pelos homens. criando a possibilidade controversa de uma explosão de inteligência em que, novamente, uma IA que evolui por si mesma, rapidamente deixará para trás a inteligência humana, criando o que é conhecido por superinteligência.
Alright, reality check: Are we going to get AGI any time soon? Some famous AI researchers, like Rodney Brooks, think it won't happen for hundreds of years. But others, like Google DeepMind founder Demis Hassabis, are more optimistic and are working to try to make it happen much sooner. And recent surveys have shown that most AI researchers actually share Demis's optimism, expecting that we will get AGI within decades, so within the lifetime of many of us, which begs the question -- and then what? What do we want the role of humans to be if machines can do everything better and cheaper than us?
Ok, verifiquemos a realidade: Teremos uma IAG em breve? Alguns investigadores famosos de IA, como Rodney Brooks, pensam que isso não acontecerá nas próximas centenas de anos. Mas outros, como Demis Hassabis, o fundador do Google DeepMind, são mais otimistas e trabalham para fazer que isso aconteça muito mais cedo. Pesquisas recentes mostram que a maioria dos investigadores de IA, partilham do otimismo de Demis, defendendo que teremos uma IAG dentro de décadas, ou seja, durante a vida de muitos de nós, o que nos levar a perguntar: e depois? Que papel queremos para o ser humano se as máquinas puderem fazer tudo melhor e mais barato que nós?
The way I see it, we face a choice. One option is to be complacent. We can say, "Oh, let's just build machines that can do everything we can do and not worry about the consequences. Come on, if we build technology that makes all humans obsolete, what could possibly go wrong?"
Na minha opinião, temos que escolher. Uma opção é ser complacente. Dizemos: "Só vamos construir máquinas que façam tudo o que nós fazemos. "Não nos preocupemos com as consequências, "A sério, se criarmos uma tecnologia que torne obsoletos os seres humanos, "o que é que pode correr mal?"
(Laughter)
(Risos)
But I think that would be embarrassingly lame. I think we should be more ambitious -- in the spirit of TED. Let's envision a truly inspiring high-tech future and try to steer towards it. This brings us to the second part of our rocket metaphor: the steering. We're making AI more powerful, but how can we steer towards a future where AI helps humanity flourish rather than flounder? To help with this, I cofounded the Future of Life Institute. It's a small nonprofit promoting beneficial technology use, and our goal is simply for the future of life to exist and to be as inspiring as possible. You know, I love technology. Technology is why today is better than the Stone Age. And I'm optimistic that we can create a really inspiring high-tech future ... if -- and this is a big if -- if we win the wisdom race -- the race between the growing power of our technology
Mas eu acho que isso seria terrivelmente patético. Acho que nós devemos ser mais ambiciosos - no espírito da TED. Imaginemos um futuro com alta tecnologia, verdadeiramente inspirador e vamos tentar chegar até lá. Isso leva-nos à segunda parte da nossa teoria do foguetão: a condução. Nós estamos a tornar a IA mais poderosa, mas como podemos guiar para um futuro, em que a IA ajude a humanidade a prosperar e a não se debater? Para ajudar nessa questão, fui cofundador do Instituto Futuro da Vida. É uma organização sem fins lucrativos, que promove o uso benéfico da tecnologia. Queremos que exista futuro para a vida e seja o mais inspiradora possível. Sabem, eu adoro a tecnologia. A tecnologia é a razão de o presente ser melhor que a Idade da Pedra. E eu acredito que nós podemos criar um futuro de alta tecnologia verdadeiramente inspirador se - e este é um grande se - se nós vencermos a corrida dos conhecimentos,
and the growing wisdom with which we manage it. But this is going to require a change of strategy because our old strategy has been learning from mistakes. We invented fire, screwed up a bunch of times -- invented the fire extinguisher.
a corrida entre o crescente poder da nossa tecnologia e a crescente sabedoria com que a vamos controlando. Mas isso vai exigir uma mudança de estratégia, pois a estratégia antiga era aprender com os erros Nós inventámos o fogo, fizemos erros muitas vezes, inventámos o extintor de incêndios.
(Laughter)
(Risos)
We invented the car, screwed up a bunch of times -- invented the traffic light, the seat belt and the airbag, but with more powerful technology like nuclear weapons and AGI, learning from mistakes is a lousy strategy, don't you think?
Inventámos o automóvel, fizemos erros muitas vezes, inventámos os semáforos, o cinto de segurança e o "airbag". Mas com uma tecnologia mais potente, como a das armas nucleares e a da IAG, aprender com os erros é uma estratégia péssima, não acham? (Risos)
(Laughter)
É muito melhor ser proativo do que reativo,
It's much better to be proactive rather than reactive; plan ahead and get things right the first time because that might be the only time we'll get. But it is funny because sometimes people tell me, "Max, shhh, don't talk like that. That's Luddite scaremongering." But it's not scaremongering. It's what we at MIT call safety engineering. Think about it: before NASA launched the Apollo 11 mission, they systematically thought through everything that could go wrong when you put people on top of explosive fuel tanks and launch them somewhere where no one could help them. And there was a lot that could go wrong. Was that scaremongering? No. That's was precisely the safety engineering that ensured the success of the mission, and that is precisely the strategy I think we should take with AGI. Think through what can go wrong to make sure it goes right.
planear o futuro e acertar à primeira, porque essa pode ser a nossa única oportunidade. Mas é engraçado porque, às vezes, as pessoas dizem-me: "Max, chiu, não fales assim. "Isso é um alarmismo ludita." Mas não é alarmismo. Isto é aquilo a que o ITM chama engenharia de segurança. Pensem nisto. Antes de a NASA lançar a missão Apollo 11, pensaram, sistematicamente, em tudo o que podia correr mal, quando colocaram pessoas em cima de tanques de combustível explosivo e as lançaram para onde ninguém as podia ajudar. E havia muitas coisas que podiam correr mal. Isso foi alarmismo? Não. Foi precisamente a engenharia de segurança que garantiu o sucesso da missão. É essa a estratégia que eu penso que devemos adotar com a IAG. Pensar no que pode correr mal, para garantir que corra bem.
So in this spirit, we've organized conferences, bringing together leading AI researchers and other thinkers to discuss how to grow this wisdom we need to keep AI beneficial. Our last conference was in Asilomar, California last year and produced this list of 23 principles which have since been signed by over 1,000 AI researchers and key industry leaders, and I want to tell you about three of these principles.
Com esse pensamento, organizámos conferências, reunindo os melhores investigadores de IA e outros estudiosos para analisar como desenvolver o saber para manter os benefícios da IA. A nossa última conferência foi no ano passado, em Asilomar, na Califórnia e dela saiu uma lista com 23 princípios, que já foi assinada por mais de mil investigadores de IA e por importantes líderes da indústria. Vou falar um pouco sobre três desses princípios.
One is that we should avoid an arms race and lethal autonomous weapons. The idea here is that any science can be used for new ways of helping people or new ways of harming people. For example, biology and chemistry are much more likely to be used for new medicines or new cures than for new ways of killing people, because biologists and chemists pushed hard -- and successfully -- for bans on biological and chemical weapons. And in the same spirit, most AI researchers want to stigmatize and ban lethal autonomous weapons. Another Asilomar AI principle is that we should mitigate AI-fueled income inequality. I think that if we can grow the economic pie dramatically with AI and we still can't figure out how to divide this pie so that everyone is better off, then shame on us.
Um, é que devemos evitar uma corrida às armas e armas letais autónomas. A ideia aqui é que nenhuma ciência pode ser usada como uma nova forma de ajudar ou de prejudicar as pessoas, Por exemplo, a Biologia e a Química, provavelmente, serão mais usadas em novos medicamentos ou novas curas do que em novas formas de matar pessoas, já que biólogos e químicos lutaram - e com sucesso - pela proibição de armas químicas e biológicas. Dentro desse mesmo espírito, a maioria dos investigadores de IA gostaria de estigmatizar e banir as armas letais autónomas. Outro princípio criado em Asilomar determina que devemos reduzir a desigualdade de receitas impulsionada pela IA. Acho que, se o bolo da economia aumentar drasticamente, com a IA, mas não conseguirmos imaginar como dividir esse bolo, para beneficiar toda a gente, será uma vergonha para nós.
(Applause)
(Aplausos)
Alright, now raise your hand if your computer has ever crashed.
Então, levante a mão quem já sofreu uma falha de sistema no computador.
(Laughter)
(Risos)
Wow, that's a lot of hands. Well, then you'll appreciate this principle that we should invest much more in AI safety research, because as we put AI in charge of even more decisions and infrastructure, we need to figure out how to transform today's buggy and hackable computers into robust AI systems that we can really trust, because otherwise, all this awesome new technology can malfunction and harm us, or get hacked and be turned against us. And this AI safety work has to include work on AI value alignment, because the real threat from AGI isn't malice, like in silly Hollywood movies, but competence -- AGI accomplishing goals that just aren't aligned with ours. For example, when we humans drove the West African black rhino extinct, we didn't do it because we were a bunch of evil rhinoceros haters, did we? We did it because we were smarter than them and our goals weren't aligned with theirs. But AGI is by definition smarter than us, so to make sure that we don't put ourselves in the position of those rhinos if we create AGI, we need to figure out how to make machines understand our goals, adopt our goals and retain our goals.
Meu Deus, quantas mãos! Então vocês vão gostar deste princípio de que devemos investir muito mais na investigação da segurança de IA, pois, quando colocamos a IA responsável por mais decisões e infraestruturas, precisamos de imaginar como transformar esses computadores defeituosos e frágeis em sistemas de IA robustos, em que podemos confiar. Caso contrário, toda essa nova tecnologia incrível pode funcionar mal e prejudicar-nos ou ser pirateada e voltar-se contra nós. Esse trabalho de segurança de IA tem que incluir um alinhamento de valores, pois a verdadeira ameaça da IAG não é a maldade, como nos filmes idiotas de Hollywood, mas a competência - os objetivos da IAG não estarem alinhados com os nossos. Por exemplo, quando nós causámos a extinção do Rinoceronte Negro africano não o fizemos porque odiamos os rinocerontes, mas porque somos mais inteligentes que eles e os nossos objetivos não estavam alinhados com os deles. Mas, por definição, a IAG é mais inteligente que nós. Assim, para garantir que não acabamos como os rinocerontes, se criarmos a IAG, precisamos de descobrir como fazer com que as máquinas entendam, adotem e mantenham os nossos objetivos.
And whose goals should these be, anyway? Which goals should they be?
Aliás, de quem devem ser esses objetivos? Quais devem ser esses objetivos?
This brings us to the third part of our rocket metaphor: the destination. We're making AI more powerful, trying to figure out how to steer it, but where do we want to go with it? This is the elephant in the room that almost nobody talks about -- not even here at TED -- because we're so fixated on short-term AI challenges. Look, our species is trying to build AGI, motivated by curiosity and economics, but what sort of future society are we hoping for if we succeed? We did an opinion poll on this recently, and I was struck to see that most people actually want us to build superintelligence: AI that's vastly smarter than us in all ways. What there was the greatest agreement on was that we should be ambitious and help life spread into the cosmos, but there was much less agreement about who or what should be in charge. And I was actually quite amused to see that there's some some people who want it to be just machines.
Isto leva-nos à terceira parte da nossa metáfora do foguetão: o destino. Estamos a tornar a IA mais poderosa, tentando descobrir como a guiar. Mas onde queremos chegar com ela? Este é o elefante na sala de que quase ninguém fala - nem mesmo aqui na TED - porque estamos muito focados nos desafios da IA a curto prazo. A nossa espécie está a tentar criar uma IAG, motivada pela curiosidade e pela economia, mas que tipo de sociedade futura estamos a esperar, se o conseguirmos? Fizemos uma sondagem de opinião sobre isso recentemente. Fiquei surpreendido ao ver que a maioria das pessoas quer a criação de uma superinteligência, a IA que, seja como for, é muito mais inteligente do que nós. O maior consenso era que devemos ser ambiciosos e ajudar a vida a espalhar-se pelo cosmos. Mas houve muito menos consenso sobre quem ou o quê deve ser o responsável. Na verdade, fiquei bastante divertido ao ver que há pessoas que querem que sejam apenas as máquinas
(Laughter)
(Risos)
And there was total disagreement about what the role of humans should be, even at the most basic level, so let's take a closer look at possible futures that we might choose to steer toward, alright?
E não houve consenso algum sobre o papel do ser humano, mesmo ao nível mais básico. Então, vamos olhar com mais atenção para os possíveis futuros que podemos escolher.
So don't get me wrong here. I'm not talking about space travel, merely about humanity's metaphorical journey into the future. So one option that some of my AI colleagues like is to build superintelligence and keep it under human control, like an enslaved god, disconnected from the internet and used to create unimaginable technology and wealth for whoever controls it. But Lord Acton warned us that power corrupts, and absolute power corrupts absolutely, so you might worry that maybe we humans just aren't smart enough, or wise enough rather, to handle this much power. Also, aside from any moral qualms you might have about enslaving superior minds, you might worry that maybe the superintelligence could outsmart us, break out and take over. But I also have colleagues who are fine with AI taking over and even causing human extinction, as long as we feel the the AIs are our worthy descendants, like our children. But how would we know that the AIs have adopted our best values and aren't just unconscious zombies tricking us into anthropomorphizing them? Also, shouldn't those people who don't want human extinction have a say in the matter, too? Now, if you didn't like either of those two high-tech options, it's important to remember that low-tech is suicide from a cosmic perspective, because if we don't go far beyond today's technology, the question isn't whether humanity is going to go extinct, merely whether we're going to get taken out by the next killer asteroid, supervolcano or some other problem that better technology could have solved.
Não me interpretem mal. Eu não estou a falar de uma viagem espacial, mas de uma viagem metafórica da humanidade para o futuro. Uma opção que alguns dos meus colegas de IA gostam é a de criar uma superinteligência e mantê-la sob o controlo humano, como um deus escravizado, desligado da Internet e usado para criar uma riqueza e uma tecnologia inimagináveis para quem a controlar. Mas Lorde Acton avisou-nos que o poder corrompe e o poder absoluto corrompe absolutamente. Assim, podemos temer que talvez não sejamos inteligentes o suficiente, ou sábios o bastante, para lidar com tanto poder. Além disso, para além de qualquer receio moral que possamos ter de escravizar mentes superiores, podemos temer que talvez a superinteligência nos possa ultrapassar, libertar-se e assumir o controlo. Mas eu também tenho colegas que aceitam que a IA assuma o controlo e, até mesmo, cause a extinção humana, contanto que vejamos a IA como nossos descendentes diretos, tal como os nossos filhos. Mas como é que sabemos se as IAs adotaram os nossos melhores valores e não são apenas zombies inconscientes que nos enganam com a sua forma humana? Além do mais, aqueles que não querem a extinção humana não deviam também ter algo a dizer sobre essa questão? Se nós não gostamos de nenhuma destas duas opções de alta tecnologia, é importante lembrar que a baixa tecnologia é um suicídio, numa perspetiva cósmica, porque, se não formos muito além da tecnologia de hoje, a questão não será apenas se a humanidade será extinta, mas se nós seremos dizimados por um asteroide assassino, por um super vulcão ou por qualquer outra coisa que uma tecnologia melhor podia resolver.
So, how about having our cake and eating it ... with AGI that's not enslaved but treats us well because its values are aligned with ours? This is the gist of what Eliezer Yudkowsky has called "friendly AI," and if we can do this, it could be awesome. It could not only eliminate negative experiences like disease, poverty, crime and other suffering, but it could also give us the freedom to choose from a fantastic new diversity of positive experiences -- basically making us the masters of our own destiny.
Então, que tal conciliarmos as duas coisas? Com uma IGA, que não seja escrava, mas que nos trate bem, porque os valores estão alinhados com os nossos? É esta a essência do que Eliezer Yudkowsky chamou uma "IA amigável". Se o conseguirmos, será maravilhoso. Poderíamos eliminar experiências negativas, como as doenças, a pobreza, o crime e outros sofrimentos e também poderíamos ter a liberdade de escolha a partir de novas experiências fantásticas e positivas tornando-nos, basicamente, nos mestres do nosso próprio destino.
So in summary, our situation with technology is complicated, but the big picture is rather simple. Most AI researchers expect AGI within decades, and if we just bumble into this unprepared, it will probably be the biggest mistake in human history -- let's face it. It could enable brutal, global dictatorship with unprecedented inequality, surveillance and suffering, and maybe even human extinction. But if we steer carefully, we could end up in a fantastic future where everybody's better off: the poor are richer, the rich are richer, everybody is healthy and free to live out their dreams.
Em resumo, a nossa situação com a tecnologia é complicada, mas o cenário geral é bastante simples. A maioria dos investigadores de IA esperam a IAG dentro de décadas. Se nós não estivermos preparados, será, provavelmente, o maior erro na história da humanidade, convenhamos. Ela poderá permitir uma brutal ditadura global, com desigualdade, vigilância e sofrimento sem precedentes, e talvez, até mesmo a extinção humana. Mas, se conduzirmos com cuidado, podemos chegar a um futuro fantástico onde toda a gente fica a ganhar: os pobres ficam mais ricos e os ricos ficam mais ricos, toda a gente é mais saudável e livre para viver os seus sonhos.
Now, hang on. Do you folks want the future that's politically right or left? Do you want the pious society with strict moral rules, or do you an hedonistic free-for-all, more like Burning Man 24/7? Do you want beautiful beaches, forests and lakes, or would you prefer to rearrange some of those atoms with the computers, enabling virtual experiences? With friendly AI, we could simply build all of these societies and give people the freedom to choose which one they want to live in because we would no longer be limited by our intelligence, merely by the laws of physics. So the resources and space for this would be astronomical -- literally.
Agora, esperem um pouco. Vocês querem um futuro político de esquerda ou de direita? Vocês querem uma sociedade obediente às normas morais rigorosas ou querem uma liberdade hedonista, tipo Burning Man, permanentemente? Vocês querem belas praias, florestas e lagos, ou preferem reorganizar alguns desses átomos com os computadores, permitindo experiências virtuais? Com uma IA amigável nós podemos construir todas essas sociedades e dar às pessoas a liberdade de escolher em qual delas querem viver, porque deixamos de estar limitados pela nossa inteligência, mas apenas pelas leis da Física. Os recursos e o espaço para isso serão astronómicos, literalmente.
So here's our choice. We can either be complacent about our future, taking as an article of blind faith that any new technology is guaranteed to be beneficial, and just repeat that to ourselves as a mantra over and over and over again as we drift like a rudderless ship towards our own obsolescence. Or we can be ambitious -- thinking hard about how to steer our technology and where we want to go with it to create the age of amazement. We're all here to celebrate the age of amazement, and I feel that its essence should lie in becoming not overpowered but empowered by our technology.
Então eis as nossas opções. Podemos ser complacentes sobre o nosso futuro, aceitando cegamente que nenhuma nova tecnologia garante ser benéfica, e repetir isso várias vezes, como um mantra, vezes sem conta, enquanto andamos à deriva como um navio sem leme, em direção a nossa própria obsolescência. Ou podemos ser ambiciosos. analisando como dominar a nossa tecnologia e onde queremos chegar com ela para criar a era da admiração. Estamos todos aqui para festejar a era da admiração, e eu sinto que a sua essência não deve ser superada, mas dominar o poder pela nossa tecnologia.
Thank you.
Obrigado.
(Applause)
(Aplausos)