Power. That is the word that comes to mind. We're the new technologists. We have a lot of data, so we have a lot of power. How much power do we have? Scene from a movie: "Apocalypse Now" -- great movie. We've got to get our hero, Captain Willard, to the mouth of the Nung River so he can go pursue Colonel Kurtz. The way we're going to do this is fly him in and drop him off. So the scene: the sky is filled with this fleet of helicopters carrying him in. And there's this loud, thrilling music in the background, this wild music. ♫ Dum da ta da dum ♫ ♫ Dum da ta da dum ♫ ♫ Da ta da da ♫ That's a lot of power. That's the kind of power I feel in this room. That's the kind of power we have because of all of the data that we have.
Poder. Esta é a palavra que vem à mente. Nós somos os novos tecnólogos. Nós temos uma grande quantidade de informação, então temos uma grande quantidade de poder. Quanto poder nós temos? Cena do filme "Apocalypse Now" -- excelente filme. Nós temos que levar o nosso heroi, Capitão Willard, para a foz do Rio Nung na perseguição ao Coronel Kurtz. A forma que faremos isso é levá-lo e deixá-lo em solo seguro. Então a cena começa: o céu está coberto de helicópteros transportando o nosso heroi. E ao fundo há aquela música estrondosa, excitante e selvagem. ♫ Dum da ta da dum ♫ ♫ Dum da ta da dum ♫ ♫ Da ta da da ♫ Isto é muito poder. Este é o tipo de poder que sinto nesta sala. Este é o tipo de poder que nós é dado por causa de toda a informação que temos.
Let's take an example. What can we do with just one person's data? What can we do with that guy's data? I can look at your financial records. I can tell if you pay your bills on time. I know if you're good to give a loan to. I can look at your medical records; I can see if your pump is still pumping -- see if you're good to offer insurance to. I can look at your clicking patterns. When you come to my website, I actually know what you're going to do already because I've seen you visit millions of websites before. And I'm sorry to tell you, you're like a poker player, you have a tell. I can tell with data analysis what you're going to do before you even do it. I know what you like. I know who you are, and that's even before I look at your mail or your phone.
Vejamos um exemplo. O que podemos fazer com a informação de apenas uma pessoa? O que podemos fazer com a informação deste cara? Posso analisar seus rastros bancários. Posso dizer se você paga suas contas em dia. Sei se você pode receber um empréstimo. Posso observar seus registros médicos, posso ver se seu coração continua batendo -- ver se vale a pena oferecer um seguro a você. Posso observar seu padrão de navegação. Quando você vem a meu site, eu já sei o que você vai fazer, pois já vi você visitar milhões de sites anteriormente. E sinto muito em dizer a você, você é como jogador de poker, você tem uma forma de se expressar. Posso falar, com análise da informação, o que você vai fazer antes mesmo que o faça. Eu sei o que você gosta. Eu sei o que você é. Mesmo antes de checar o seu e-mail ou o seu telefone.
Those are the kinds of things we can do with the data that we have. But I'm not actually here to talk about what we can do. I'm here to talk about what we should do. What's the right thing to do?
Estas são coisas que podemos fazer com todas as informações que temos. Mas eu não estou aqui para falar sobre o que podemos fazer. Estou aqui para falar sobre o que deveriamos fazer. Qual a coisa certa a fazer?
Now I see some puzzled looks like, "Why are you asking us what's the right thing to do? We're just building this stuff. Somebody else is using it." Fair enough. But it brings me back. I think about World War II -- some of our great technologists then, some of our great physicists, studying nuclear fission and fusion -- just nuclear stuff. We gather together these physicists in Los Alamos to see what they'll build. We want the people building the technology thinking about what we should be doing with the technology.
Agora vejo algumas pessoas intrigadas como, "Porque você está nos perguntando qual a coisa certa a fazer? Nós apenas estamos criando essas coisas. Outras pessoas estão usando." Bastante justo. Mas isto faz com que eu relembre. Penso a respeito da Segunda Guerra Mundial -- alguns de nossos maiores tecnólogos da época, alguns de nossos maiores físicos, estudando fissão e fusão nuclear -- apenas assuntos nucleares. Nós reunimos aqueles físicos em Los Alamos para ver o que eles construiriam. Nós queremos pessoas construindo a tecnologia pensando no que deveriamos fazer com essa tecnologia.
So what should we be doing with that guy's data? Should we be collecting it, gathering it, so we can make his online experience better? So we can make money? So we can protect ourselves if he was up to no good? Or should we respect his privacy, protect his dignity and leave him alone? Which one is it? How should we figure it out?
Então, o que deveriamos fazer com as informações deste cara? Devemos coletá-la e juntá-la para que possamos fazer a sua experiência online ainda melhor? Podemos fazer dinheiro? Podemos nos proteger se ele não era capaz de nada bom? Ou devemos respeitar a sua privacidade, proteger a sua dignidade e deixá-lo em paz? Qual dessas alternativas? Como podemos descobrir?
I know: crowdsource. Let's crowdsource this. So to get people warmed up, let's start with an easy question -- something I'm sure everybody here has an opinion about: iPhone versus Android. Let's do a show of hands -- iPhone. Uh huh. Android. You'd think with a bunch of smart people we wouldn't be such suckers just for the pretty phones. (Laughter) Next question, a little bit harder. Should we be collecting all of that guy's data to make his experiences better and to protect ourselves in case he's up to no good? Or should we leave him alone? Collect his data. Leave him alone. You're safe. It's fine. (Laughter) Okay, last question -- harder question -- when trying to evaluate what we should do in this case, should we use a Kantian deontological moral framework, or should we use a Millian consequentialist one? Kant. Mill. Not as many votes. (Laughter) Yeah, that's a terrifying result. Terrifying, because we have stronger opinions about our hand-held devices than about the moral framework we should use to guide our decisions.
Eu sei: crowdsource. Vamos fazer crowdsource disto. Então, para aquecer todo mundo, vamos começar com uma simples questão -- algo que eu tenho certeza que todos tem uma opinião formada sobre o tema: iPhone contra Android. Vamos levantar as mãos -- iPhone. Aham. Android. Você poderia pensar que em um grupo de pessoas inteleligentes nós não seríamos tão tolos em escolher somente os telefones bonitos. (Risos) Próxima pergunta, um pouco mais complicada. Deveríamos coletar a informação desta pessoa para tornar suas experiências ainda melhor e nos proteger em caso dela não capaz de nada bom? Ou devemos deixá-lo em paz? Coletar seus dados. Deixá-lo em paz. Você está segura. Está tudo bem. (Risos) Tudo bem, última pergunta -- uma pergunta mais difícil -- quando tentamos avaliar o que deveríamos fazer neste caso, deveríamos utilizar uma estrutura moral deontológica Kantiana ou devemos utilizar a ética consequencialista de Stuart Mill? Kant. Mill. Sem muitos votos. (Risos) Sim, este é um resultado terrível. Terrível pois temos opiniões mais fortes a respeito de nossos dispositivos portáteis do que a respeito da estrutura moral que deveríamos usar para guiar nossas decisões.
How do we know what to do with all the power we have if we don't have a moral framework? We know more about mobile operating systems, but what we really need is a moral operating system. What's a moral operating system? We all know right and wrong, right? You feel good when you do something right, you feel bad when you do something wrong. Our parents teach us that: praise with the good, scold with the bad. But how do we figure out what's right and wrong? And from day to day, we have the techniques that we use. Maybe we just follow our gut. Maybe we take a vote -- we crowdsource. Or maybe we punt -- ask the legal department, see what they say. In other words, it's kind of random, kind of ad hoc, how we figure out what we should do. And maybe, if we want to be on surer footing, what we really want is a moral framework that will help guide us there, that will tell us what kinds of things are right and wrong in the first place, and how would we know in a given situation what to do.
Como sabemos o que fazer com o poder que temos se não temos uma estrutura moral definida? Sabemos muito sobre sistemas operacionais de celulares, mas o que nós realmente precisamos é um sistema operacional moral. O que é um sistema operacional moral? Todos nós sabemos o que é certo e errado, certo. Você se sente bem quando faz alguma coisa correta, você se sente mau quando faz algo incorreto. Nossos pais nos ensinam isso: enalteça os bons e repreenda os maus. Mas como sabemos o que é certo ou errado? No nosso dia a dia temos as técnicas que nós usamos. Talvez nós apenas seguimos nossa razão interior. Talvez nós apenas votemos -- nós fazemos crowd source. Ou talvez nós jogamos -- pergunte ao departamento jurídico, veja o que eles dizem. Em outras palavras, isto se dá aleatoriamente, meio ad hoc, a maneira como resolvemos o que deveríamos fazer. E talvez, se nós queremos estar em terra firme, o que na verdade nós queremos é uma estrutura moral que nos guie, que nos diga que tipo de ações são certas ou erradas primeiramente, e o que nós faríamos em uma determinada situação.
So let's get a moral framework. We're numbers people, living by numbers. How can we use numbers as the basis for a moral framework? I know a guy who did exactly that. A brilliant guy -- he's been dead 2,500 years. Plato, that's right. Remember him -- old philosopher? You were sleeping during that class. And Plato, he had a lot of the same concerns that we did. He was worried about right and wrong. He wanted to know what is just. But he was worried that all we seem to be doing is trading opinions about this. He says something's just. She says something else is just. It's kind of convincing when he talks and when she talks too. I'm just going back and forth; I'm not getting anywhere. I don't want opinions; I want knowledge. I want to know the truth about justice -- like we have truths in math. In math, we know the objective facts. Take a number, any number -- two. Favorite number. I love that number. There are truths about two. If you've got two of something, you add two more, you get four. That's true no matter what thing you're talking about. It's an objective truth about the form of two, the abstract form. When you have two of anything -- two eyes, two ears, two noses, just two protrusions -- those all partake of the form of two. They all participate in the truths that two has. They all have two-ness in them. And therefore, it's not a matter of opinion.
Então vamos criar uma estrutura moral. Nós somos pessoas que vivem com números. Como podemos usar números como a base para a estrutura moral? Conheço um cara que fez exatamente isso, um cara brilhante -- que morreu a 2500 anos atrás. Platão, exatamente. Lembra-se dele -- velho fil Você estava dormindo durante a aula. Platão possuia várias preocupações parecidas com as nossas. Ele estava preocupado sobre o certo e o errado. Ele queria saber o que era justo. Mas ele estava preocupado com o fato de que tudo o que parecíamos estar fazendo era trocar opiniões a respeito disto. Ele diz que algo é justo. Ela diz que algo é justo. É meio que convincente quando ele fala e quando ela fala, também. Estou somente indo e voltando; Não estou indo a lugar algum. Eu não quero opiniões, eu quero conhecimento. Eu quero saber a verdade sobre a justiça -- como nós temos verdades na matemática. Na matemática, sabemos os fatos exatos. Pegue um número, qualquer número -- 2. Número favorito. Adoro esse número. Existem verdades sobre o número dois. Se você tem duas unidades de alguma coisa, e você adiciona mais dois, você tem quatro. Isto é verdade, não importando sobre o quê você está falando. É uma verdade objetiva sobre o dois, a forma abstrata. Quando você tem dois itens de algo -- dois olhos, duas orelhas, dois narizes, somente duas projeções -- todos parte do mesmo dois. Eles todos fazem parte das verdades que o dois tem. Todos tem as particularidades do dois. E então, isto não diz respeito a opiniões de cada um.
What if, Plato thought, ethics was like math? What if there were a pure form of justice? What if there are truths about justice, and you could just look around in this world and see which things participated, partook of that form of justice? Then you would know what was really just and what wasn't. It wouldn't be a matter of just opinion or just appearances. That's a stunning vision. I mean, think about that. How grand. How ambitious. That's as ambitious as we are. He wants to solve ethics. He wants objective truths. If you think that way, you have a Platonist moral framework.
E caso, Platão pensou, ética fosse como matemática? E se existiesse a pura forma da justiça? E se existissem verdades sobre a justiça, e você pudesse somente olhar o mundo ao seu redor e enxergar que coisas participam, são parte integrante desta forma de justiça? Então você saberia o que de fato era justo e o que não era. Isso não seria uma questão de mera opinião ou aparências. Esta é uma visão impressionante. Quero dizer, pense sobre isso. O quão grande. O quão ambicioso. Isso é tão ambicioso quanto nós somos. Ele quer solucionar a ética. Ele quer verdades objetivas. Se pensar dessa forma, você tem uma estrutura moral platônica.
If you don't think that way, well, you have a lot of company in the history of Western philosophy, because the tidy idea, you know, people criticized it. Aristotle, in particular, he was not amused. He thought it was impractical. Aristotle said, "We should seek only so much precision in each subject as that subject allows." Aristotle thought ethics wasn't a lot like math. He thought ethics was a matter of making decisions in the here-and-now using our best judgment to find the right path. If you think that, Plato's not your guy. But don't give up. Maybe there's another way that we can use numbers as the basis of our moral framework.
Se você não pensa dessa forma, bem, você tem muita companhia na história da filosofia Ocidental, por causa dessa precisa ideia -- você sabe, as pessoas criticam isso. Aristóteles, em particular, não era tão impressionado por isso. Ele achava que isto era impraticável. Aristóteles disse, "Só devemos buscar precisão em um determinado assunto até o ponto em que este assunto permite." Aristóteles não achava que a ética era como a matemática. Ele acreditava que a ética era uma questão de tomar decisões aqui e agora, utilizando nosso melhor julgamento para achar o caminho certo. Se pensar assim, Platão não é o seu cara. Mas não desista. Talvez exista um outro caminho que possamos utilizar os números como base para a nossa estrutura moral.
How about this: What if in any situation you could just calculate, look at the choices, measure out which one's better and know what to do? That sound familiar? That's a utilitarian moral framework. John Stuart Mill was a great advocate of this -- nice guy besides -- and only been dead 200 years. So basis of utilitarianism -- I'm sure you're familiar at least. The three people who voted for Mill before are familiar with this. But here's the way it works. What if morals, what if what makes something moral is just a matter of if it maximizes pleasure and minimizes pain? It does something intrinsic to the act. It's not like its relation to some abstract form. It's just a matter of the consequences. You just look at the consequences and see if, overall, it's for the good or for the worse. That would be simple. Then we know what to do.
Que tal isso: E se em qualquer situação você pudesse simplesmente calcular, observar as opções, mensurar qual a melhor e saber o que fazer? Isso soa familiar? Essa é uma estrutura moral utilitarista. John Stuart Mill era um grande defensor disto -- um excelente cara -- e só morreu a cerca de 200 anos. Então, à base do utilitarismo -- eu tenho certeza que você é familiar. As três pessoas que votaram a favor de Mill anteriormente são familiares com isso. Mas aqui está a forma que isso funciona. E se a moral, e se o que faz com que algo seja moral, seja somente uma questão de maximizar o prazer e minimizar a dor? Isso é algo intrínseco ao ato. Não é algo relacionado a uma forma abstrata. É só uma questão de saber as consequências. Você somente observa as consequências e vê se, de maneira geral, isto é para melhorar algo ou para piorar. Isso seria simples. Assim saberíamos o que fazer.
Let's take an example. Suppose I go up and I say, "I'm going to take your phone." Not just because it rang earlier, but I'm going to take it because I made a little calculation. I thought, that guy looks suspicious. And what if he's been sending little messages to Bin Laden's hideout -- or whoever took over after Bin Laden -- and he's actually like a terrorist, a sleeper cell. I'm going to find that out, and when I find that out, I'm going to prevent a huge amount of damage that he could cause. That has a very high utility to prevent that damage. And compared to the little pain that it's going to cause -- because it's going to be embarrassing when I'm looking on his phone and seeing that he has a Farmville problem and that whole bit -- that's overwhelmed by the value of looking at the phone. If you feel that way, that's a utilitarian choice.
Vamos tomar um exemplo. Digamos que eu levante e diga, "Vou pegar seu telefone." Não somente porque ele tocou anteriormente, mas pegarei isso pois eu fiz um pequeno cálculo. Eu pensei, esse cara parece suspeito. E se ele está mandando mensagens para o esconderijo de Bin Laden -- ou quem quer que seja quem assumiu depois de Bin Laden -- e ele é, na verdade, um terrorista, um agente infiltrado. Eu descobrirei isto e quando eu descobrir isto, eu evitaria uma grande quantidade de danos que ele poderia causar. Esta foi uma ação muito útil para prevenir o dano. E comparado ao pequeno dano que isso vai causar -- pois vai ser embaraçoso eu olhar seu telefone e ver que ele tem um problema na sua Farmville -- isso é superado pelo valor de olhar o telefone. Se você se sente dessa forma, essa é uma escolha utilitarista.
But maybe you don't feel that way either. Maybe you think, it's his phone. It's wrong to take his phone because he's a person and he has rights and he has dignity, and we can't just interfere with that. He has autonomy. It doesn't matter what the calculations are. There are things that are intrinsically wrong -- like lying is wrong, like torturing innocent children is wrong. Kant was very good on this point, and he said it a little better than I'll say it. He said we should use our reason to figure out the rules by which we should guide our conduct, and then it is our duty to follow those rules. It's not a matter of calculation.
Mas talvez você também não se sinta assim. Talvez você pense, esse é o telefone dele. É errado pegar seu telefone, pois ele é uma pessoa ele tem direitos e tem dignidade, e não podemos interferir nisto. Ele tem autonomia. Não interessa que cálculos eu fiz. Existem coisas que são intrínsecamente erradas - como mentir é errado, como torturar crianças inocentes é errado. Kant era muito bom nesse sentido, e ele disse um pouco melhor do que eu direi. Ele disse que deveríamos utilizar nossa razão para enteder as regrar pelas quais nós deveríamos guiar a nossa conduta. E então seria o nosso dever seguir essas regras. Isto não é uma questão de cálculo.
So let's stop. We're right in the thick of it, this philosophical thicket. And this goes on for thousands of years, because these are hard questions, and I've only got 15 minutes. So let's cut to the chase. How should we be making our decisions? Is it Plato, is it Aristotle, is it Kant, is it Mill? What should we be doing? What's the answer? What's the formula that we can use in any situation to determine what we should do, whether we should use that guy's data or not? What's the formula? There's not a formula. There's not a simple answer.
Então vamos parar. Nós estamos no âmago disto, no núcleo filosófico disto. E isto continua por milhares de anos, pois estas são questões difíceis, e só tenho 15 minutos. Então vamos direto ao ponto. Como deveríamos tomar nossa decisão? Pelo pensamento de Platão, Aristóteles, Kant ou Mill? O que deveríamos fazer? Qual a resposta? Qual a fórmula que podemos utilizar em qualquer situação e determinar o que devemos fazer, se devemos utilizar os dados deste cara ou não? Qual a fórmula? Não há nenhuma fórmula. Não há uma resposta simples.
Ethics is hard. Ethics requires thinking. And that's uncomfortable. I know; I spent a lot of my career in artificial intelligence, trying to build machines that could do some of this thinking for us, that could give us answers. But they can't. You can't just take human thinking and put it into a machine. We're the ones who have to do it. Happily, we're not machines, and we can do it. Not only can we think, we must. Hannah Arendt said, "The sad truth is that most evil done in this world is not done by people who choose to be evil. It arises from not thinking." That's what she called the "banality of evil." And the response to that is that we demand the exercise of thinking from every sane person.
Ética é difícil. Ética requer pensamento. E isto é desconfortável. Eu sei; Eu gastei muito de minha carreira na intelgência artificial, tentando criar máquinas que poderiam fazer boa parte desse pensar por nós, que poderia nos dar respostas. Mas elas não podem. Você não pode pegar o pensamento humano e colocar uma uma máquina. Nós que devemos fazer isto. Felizmente, não somos máquinas, e podemos fazer isso. Não apenas podemos, devemos. Hannah Arendt disse, "A triste verdade é que a maioria do mal feito nesse mundo não é feito por pessoas que escolheram serem más. Isso emerge do não pensar." Isto é o que ela chamou de "banalidade do mal." E a resposta a isso é que necessitamos do exercício do pensar de toda pessoa sã.
So let's do that. Let's think. In fact, let's start right now. Every person in this room do this: think of the last time you had a decision to make where you were worried to do the right thing, where you wondered, "What should I be doing?" Bring that to mind, and now reflect on that and say, "How did I come up that decision? What did I do? Did I follow my gut? Did I have somebody vote on it? Or did I punt to legal?" Or now we have a few more choices. "Did I evaluate what would be the highest pleasure like Mill would? Or like Kant, did I use reason to figure out what was intrinsically right?" Think about it. Really bring it to mind. This is important. It is so important we are going to spend 30 seconds of valuable TEDTalk time doing nothing but thinking about this. Are you ready? Go.
Então vamos fazer isto. Vamos pensar. De fato, vamos começar agora mesmo. Todos nesta sala façam isso: pense na última vez que você teve que tomar uma decisão, quando você estava preocupado em fazer a coisa certa, quando você pensou, "O que eu devo fazer?" Traga isso à mente. Agora reflita sobre isso e diga, "Como cheguei a essa conclusão?" O que eu fiz? Eu segui meu eu interior? Fiz uma votação sobre isso? Ou eu apostei no que era legal? Agora nós temos algumas outras opções. "Eu avaliei o que traria as maiores vantagens, como Mill faria? Ou como Kant, eu usei a razão para imaginar o que estava intrinsecamente correto? Pense sobre isto. Traga isso à sua mente. Isto é importante. Isto é tão importante que gastaremos 30 segundos valiosos do TEDTalk fazendo nada, somente pensando a respeito disto. Está pronto? Vai.
Stop. Good work. What you just did, that's the first step towards taking responsibility for what we should do with all of our power.
Pare. Bom trabalho. O que você acabou de fazer, este é o primeiro passo em direção a tomar responsabilidae para aquilo que podemos fazer com o nosso poder.
Now the next step -- try this. Go find a friend and explain to them how you made that decision. Not right now. Wait till I finish talking. Do it over lunch. And don't just find another technologist friend; find somebody different than you. Find an artist or a writer -- or, heaven forbid, find a philosopher and talk to them. In fact, find somebody from the humanities. Why? Because they think about problems differently than we do as technologists. Just a few days ago, right across the street from here, there was hundreds of people gathered together. It was technologists and humanists at that big BiblioTech Conference. And they gathered together because the technologists wanted to learn what it would be like to think from a humanities perspective. You have someone from Google talking to someone who does comparative literature. You're thinking about the relevance of 17th century French theater -- how does that bear upon venture capital? Well that's interesting. That's a different way of thinking. And when you think in that way, you become more sensitive to the human considerations, which are crucial to making ethical decisions.
Agora o próximo passo -- tente isto. Procure um amigo e explique a ele como você tomou essa decisão. Não agora. Espere que eu termine a palstra. Faça isso no almoço. E não o faça com outro amigo da área de tecnologia. Ache alguém diferente de você. Ache um artista ou escritor -- ou, que os céus proibam, ache um filósofo e fale com ele sobre isso. Na verdade, ache alguém da área de humanas. Porquê? Pois eles pensam sobre problemas diferente de como pensamos enquanto tecnólogos. Alguns dias atrás, logo do outro lado da rua, havia centemas de pessoas juntas. eram pessoas da área de tecnologia e humanas na gramde Conferência BiblioTech. Eles estavam juntos pois os tecnólogos queriam aprender como seria pensar sobre a perspectiva da área humana. Você tem alguém do Google conversando com alguém que faz literatura comparativa. Você está pensando sobre a relevância do teatro francês do século XVII -- o que isto tem a ver com capital de risco? Isso é interessante. Esta é uma diferente forma de pensar. E quando você pensa dessa forma, você se torna mais sensível para as considerações humanas, que são cruciais para a tomada de decisões éticas.
So imagine that right now you went and you found your musician friend. And you're telling him what we're talking about, about our whole data revolution and all this -- maybe even hum a few bars of our theme music. ♫ Dum ta da da dum dum ta da da dum ♫ Well, your musician friend will stop you and say, "You know, the theme music for your data revolution, that's an opera, that's Wagner. It's based on Norse legend. It's Gods and mythical creatures fighting over magical jewelry." That's interesting. Now it's also a beautiful opera, and we're moved by that opera. We're moved because it's about the battle between good and evil, about right and wrong. And we care about right and wrong. We care what happens in that opera. We care what happens in "Apocalypse Now." And we certainly care what happens with our technologies.
Então imagine que agora mesmo você encontrasse seu amigo músico. E você dissesse para ele sobre o que estamos falando, sobre nossa revolução de dados e tudo isso -- talvez até cantarolasse algo da nossa música tema. ♫ Dum ta da da dum dum ta da da dum ♫ Bem, seu amigo músico pararia e diria, "Sabe, a música tema de sua revolução de dados, é uma ópera escrita por Wagner. É baseada nas lendas Nórdicas. Seus deuses e criaturas míticas lutando por joias mágicas." Isto é interessante. É também uma linda ópera. E somos movidos pela ópera. Somos movidos pois é sobre uma batalha entre o bem e o mal, entre o certo e o errado. E nos importamos com o bem e o mal. Nos importamos com o que acontece na ópera. Nos importamos com o que acontece no "Apocalypse Now." E com certeza nos importamos com o que acontece com nossas tecnologias.
We have so much power today, it is up to us to figure out what to do, and that's the good news. We're the ones writing this opera. This is our movie. We figure out what will happen with this technology. We determine how this will all end.
Temos tanto poder hoje, e é nossa responsabilidade entender o que fazer. Essa é a boa notícia. Nós somos as pessoas escrevendo a ópera. Este é o nosso filme. Nós dizemos o que acontecerá com essa tecnologia. Nós determinamos como tudo isso irá acabar.
Thank you.
Obrigado.
(Applause)
(Aplausos)