Power. That is the word that comes to mind. We're the new technologists. We have a lot of data, so we have a lot of power. How much power do we have? Scene from a movie: "Apocalypse Now" -- great movie. We've got to get our hero, Captain Willard, to the mouth of the Nung River so he can go pursue Colonel Kurtz. The way we're going to do this is fly him in and drop him off. So the scene: the sky is filled with this fleet of helicopters carrying him in. And there's this loud, thrilling music in the background, this wild music. ♫ Dum da ta da dum ♫ ♫ Dum da ta da dum ♫ ♫ Da ta da da ♫ That's a lot of power. That's the kind of power I feel in this room. That's the kind of power we have because of all of the data that we have.
Poder. Esta é a palavra que nos vem à mente. Somos os novos tecnólogos. Temos muita informação, por isso temos muito poder. Quanto poder temos? Cena de um filme: "Apocalypse Now" — um grande filme. Temos que levar o herói, Capitão Willard, até à foz do Rio Nung para que ele persiga o Coronel Kurtz — transportá-lo por via aérea e largá-lo no local. Eis a cena: o céu está coberto pela esquadrilha de helicópteros que o transportam. No fundo, uma música alta e arrebatadora, uma música selvagem. ♫Dum da ta da dum ♫ ♫ Dum da ta da dum ♫ ♫ Da ta da da ♫ É um enorme poder. É o tipo de poder que sinto nesta sala. É o tipo de poder que nós temos devido a toda a informação que temos.
Let's take an example. What can we do with just one person's data? What can we do with that guy's data? I can look at your financial records. I can tell if you pay your bills on time. I know if you're good to give a loan to. I can look at your medical records; I can see if your pump is still pumping -- see if you're good to offer insurance to. I can look at your clicking patterns. When you come to my website, I actually know what you're going to do already because I've seen you visit millions of websites before. And I'm sorry to tell you, you're like a poker player, you have a tell. I can tell with data analysis what you're going to do before you even do it. I know what you like. I know who you are, and that's even before I look at your mail or your phone.
Tomemos um exemplo. O que é que podemos fazer com os dados de apenas uma pessoa? O que é que podemos fazer com os dados daquele indivíduo? Posso ver os seus registos financeiros. Posso dizer se paga as contas a horas, se tem condições para pedir um empréstimo. Posso ver os registos clínicos, ver se o coração ainda bate, ver se está bem, para lhe oferecer um seguro. Posso observar os seus hábitos na Internet. Quando visita o meu sitio na Internet, já sei o que vai fazer, porque o vi visitar milhões de sítios anteriormente. E, lamento dizer-lhe, parece um jogador de póquer, descai-se. Analisando os dados, sei o que vai fazer antes mesmo de você o fazer. Eu sei do que você gosta. Sei quem você é. E isso, antes mesmo de ver o seu correio ou o seu telemóvel.
Those are the kinds of things we can do with the data that we have. But I'm not actually here to talk about what we can do. I'm here to talk about what we should do. What's the right thing to do?
Este é o tipo de coisas que podemos fazer com as informações que temos. Mas eu não estou aqui para falar do que podemos fazer. Estou aqui para falar do que devemos fazer. Qual é a atuação correta?
Now I see some puzzled looks like, "Why are you asking us what's the right thing to do? We're just building this stuff. Somebody else is using it." Fair enough. But it brings me back. I think about World War II -- some of our great technologists then, some of our great physicists, studying nuclear fission and fusion -- just nuclear stuff. We gather together these physicists in Los Alamos to see what they'll build. We want the people building the technology thinking about what we should be doing with the technology.
Estou a ver alguns olhares confusos, tipo: "Porque é que nos está a perguntar qual é a atuação correta? "Nós só estamos a criar isto. São outras pessoas que o utilizam." É verdade. Mas isso leva-me ao passado. Penso na II Guerra Mundial. Alguns dos nossos grandes tecnólogos de então, alguns dos nossos grandes físicos, estudando a fissão e a fusão nuclear, apenas estudos nucleares. Nós reunimos estes físicos em Los Alamos para ver o que criariam. Nós queremos que as pessoas que criam a tecnologia pensem no que devemos fazer com a tecnologia.
So what should we be doing with that guy's data? Should we be collecting it, gathering it, so we can make his online experience better? So we can make money? So we can protect ourselves if he was up to no good? Or should we respect his privacy, protect his dignity and leave him alone? Which one is it? How should we figure it out?
Então, o que devemos fazer com os dados daquele indivíduo? Devemos colher estes dados, reuni-los, para melhorar a sua experiência online? Para ganharmos dinheiro? Para podermos proteger-nos caso ele proceda mal Ou devemos respeitar a sua privacidade, proteger a sua dignidade e deixá-lo em paz? O que devemos fazer? Como devemos decidir?
I know: crowdsource. Let's crowdsource this. So to get people warmed up, let's start with an easy question -- something I'm sure everybody here has an opinion about: iPhone versus Android. Let's do a show of hands -- iPhone. Uh huh. Android. You'd think with a bunch of smart people we wouldn't be such suckers just for the pretty phones. (Laughter) Next question, a little bit harder. Should we be collecting all of that guy's data to make his experiences better and to protect ourselves in case he's up to no good? Or should we leave him alone? Collect his data. Leave him alone. You're safe. It's fine. (Laughter) Okay, last question -- harder question -- when trying to evaluate what we should do in this case, should we use a Kantian deontological moral framework, or should we use a Millian consequentialist one? Kant. Mill. Not as many votes. (Laughter) Yeah, that's a terrifying result. Terrifying, because we have stronger opinions about our hand-held devices than about the moral framework we should use to guide our decisions.
Eu sei: colaboração pública. Vamos resolver isto juntos. Para fazermos o aquecimento, vamos começar com uma questão simples, uma coisa a respeito da qual estou certo de que todos aqui têm uma opinião: iPhone versus Android. Levantem as vossas mãos — iPhone! Ha-ha! Android! Esperava que um grupo de gente inteligente não seria tão apanhada pelos telemóveis bonitinhos. (Risos) Próxima pergunta, um pouco mais difícil. Devemos recolher todos os dados daquele indivíduo para melhorar as suas experiências e para nos protegermos no caso de ele não se portar bem? Ou devemos deixá-lo em paz? Recolher os dados! Deixá-lo em paz! Estão safos. Está certo. (Risos) Muito bem, última pergunta, esta mais difícil. Quando tentamos avaliar o que devemos fazer neste caso, devemos usar o sistema da moral deontológica de Kant, ou devemos usar a teoria da causalidade de Mill? Kant! Mill. Já não há tantos votos. (Risos) Sim, é um resultado assustador. Assustador porque temos opiniões mais firmes sobre os nossos aparelhos portáteis do que sobre os padrões morais que devemos usar para orientar as nossas decisões.
How do we know what to do with all the power we have if we don't have a moral framework? We know more about mobile operating systems, but what we really need is a moral operating system. What's a moral operating system? We all know right and wrong, right? You feel good when you do something right, you feel bad when you do something wrong. Our parents teach us that: praise with the good, scold with the bad. But how do we figure out what's right and wrong? And from day to day, we have the techniques that we use. Maybe we just follow our gut. Maybe we take a vote -- we crowdsource. Or maybe we punt -- ask the legal department, see what they say. In other words, it's kind of random, kind of ad hoc, how we figure out what we should do. And maybe, if we want to be on surer footing, what we really want is a moral framework that will help guide us there, that will tell us what kinds of things are right and wrong in the first place, and how would we know in a given situation what to do.
Como sabemos o que fazer com todo o poder que temos se não temos um enquadramento moral? Sabemos mais sobre sistemas operativos móveis, mas do que realmente necessitamos é de um sistema operativo moral. O que é um sistema operativo moral? Todos sabemos o que é certo e errado. Sentimo-nos bem quando fazemos uma coisa boa, sentimo-nos mal ao fazer uma coisa errada. Os nossos pais ensinam-nos que se louva o bom, ralha-se ao mau. Mas como sabemos o que é bom e o que é mau? No dia a dia, temos as técnicas que usamos. Talvez apenas sigamos o nosso instinto. Talvez recorramos à votação —pedimos a colaboração pública. Ou talvez pesquisemos — perguntamos ao departamento jurídico, para ver o que dizem. Por outras palavras, é um pouco aleatório, um pouco "ad hoc", como decidimos o que devemos fazer. E talvez, se quisermos sentir-nos mais seguros, o que realmente queiramos seja um sistema moral que nos oriente, que nos diga que tipos de coisas são, à partida, certas e erradas, e como sabemos o que fazer numa determinada situação.
So let's get a moral framework. We're numbers people, living by numbers. How can we use numbers as the basis for a moral framework? I know a guy who did exactly that. A brilliant guy -- he's been dead 2,500 years. Plato, that's right. Remember him -- old philosopher? You were sleeping during that class. And Plato, he had a lot of the same concerns that we did. He was worried about right and wrong. He wanted to know what is just. But he was worried that all we seem to be doing is trading opinions about this. He says something's just. She says something else is just. It's kind of convincing when he talks and when she talks too. I'm just going back and forth; I'm not getting anywhere. I don't want opinions; I want knowledge. I want to know the truth about justice -- like we have truths in math. In math, we know the objective facts. Take a number, any number -- two. Favorite number. I love that number. There are truths about two. If you've got two of something, you add two more, you get four. That's true no matter what thing you're talking about. It's an objective truth about the form of two, the abstract form. When you have two of anything -- two eyes, two ears, two noses, just two protrusions -- those all partake of the form of two. They all participate in the truths that two has. They all have two-ness in them. And therefore, it's not a matter of opinion.
Então, vamos arranjar um sistema moral. Somos pessoas que lidam com números, vivemos através de números. Como podemos usar números como base de um sistema moral? Conheço um indivíduo que fez exatamente isso. Era um indivíduo brilhante, morreu há 2500 anos. Platão, isso mesmo. Lembram-se dele, do velho filósofo? Vocês estavam a dormir nessa aula? Platão tinha grande parte das nossas preocupações. Estava preocupado com o certo e o errado. Queria saber o que é justo. Mas preocupava-o o facto de que tudo o que parecemos fazer é trocar opiniões sobre o assunto. Ele diz que isto é justo. Ela diz que aquilo é justo. Ele parece convincente e ela também. Ando para trás e para a frente, não chego a lugar nenhum. Não quero opiniões, quero conhecimento. Quero saber a verdade sobre a justiça, tal como temos verdades na matemática. Em matemática, conhecemos factos objetivos. Escolham um número, qualquer número — dois. O meu número favorito. Adoro-o. Há verdades sobre o dois. Se vocês tiverem dois de alguma coisa, adicionam dois e obtêm quatro. Isto é verdade, seja do que for que estão a falar. É uma verdade objetiva sobre a forma dois, a forma abstrata. Quando temos dois de alguma coisa — dois olhos, duas orelhas, dois narizes, apenas duas saliências — todas elas participam da forma de dois. Todas elas participam nas verdades que o dois tem. Todas têm em si o ser "dois". E, consequentemente, isto não é uma questão de opinião.
What if, Plato thought, ethics was like math? What if there were a pure form of justice? What if there are truths about justice, and you could just look around in this world and see which things participated, partook of that form of justice? Then you would know what was really just and what wasn't. It wouldn't be a matter of just opinion or just appearances. That's a stunning vision. I mean, think about that. How grand. How ambitious. That's as ambitious as we are. He wants to solve ethics. He wants objective truths. If you think that way, you have a Platonist moral framework.
Platão pensou: "E se a ética fosse como a matemática? E se houvesse uma forma pura de justiça? E se houvesse verdades sobre a justiça e pudéssemos olhar à nossa volta, neste mundo e ver quais as coisas que participam dessa forma de justiça? Assim saberíamos o que é justo e o que o não é. Não seria uma questão de mera opinião ou aparência. É uma visão assombrosa. Pensem nisto. Que grandioso! Que ambicioso! Tão ambicioso como nós somos. Ele quer resolver a ética. Quer verdades objetivas. Se pensarmos assim, têm um sistema moral platónico.
If you don't think that way, well, you have a lot of company in the history of Western philosophy, because the tidy idea, you know, people criticized it. Aristotle, in particular, he was not amused. He thought it was impractical. Aristotle said, "We should seek only so much precision in each subject as that subject allows." Aristotle thought ethics wasn't a lot like math. He thought ethics was a matter of making decisions in the here-and-now using our best judgment to find the right path. If you think that, Plato's not your guy. But don't give up. Maybe there's another way that we can use numbers as the basis of our moral framework.
Se não pensarem assim, terão muita companhia na história da filosofia ocidental, porque as pessoas criticaram a ideia pura Aristóteles, em particular, não a apreciou muito. Achou-a impraticável. Aristóteles disse: "Só devemos procurar em cada assunto "o nível de precisão que esse assunto permita." Aristóteles pensou que a ética não era como a matemática. Pensou que a ética tinha a ver com tomar decisões aqui e agora usando o nosso melhor julgamento para encontrar o caminho certo. Se pensarem assim, Platão não é o vosso tipo. Mas não desistam. Talvez haja outra maneira de podermos usar números como base do nosso sistema moral.
How about this: What if in any situation you could just calculate, look at the choices, measure out which one's better and know what to do? That sound familiar? That's a utilitarian moral framework. John Stuart Mill was a great advocate of this -- nice guy besides -- and only been dead 200 years. So basis of utilitarianism -- I'm sure you're familiar at least. The three people who voted for Mill before are familiar with this. But here's the way it works. What if morals, what if what makes something moral is just a matter of if it maximizes pleasure and minimizes pain? It does something intrinsic to the act. It's not like its relation to some abstract form. It's just a matter of the consequences. You just look at the consequences and see if, overall, it's for the good or for the worse. That would be simple. Then we know what to do.
Que tal isto: E se em cada situação, pudéssemos calcular, olhar para as opções, medir qual delas é a melhor e saber o que fazer? Soa familiar? É um sistema moral utilitarista. John Stuart Mill foi seu grande defensor — um tipo fixe, aliás — e só morreu há 200 anos. Portanto, as bases do utilitarismo — de certeza que vos são familiares, pelo menos às três pessoas que votaram em Mill. Mas eis a forma como isto funciona. Que tal se o que torna uma coisa moral, é só uma questão de essa coisa maximizar o prazer e minimizar a dor? Trata-se de uma coisa intrínseca ao ato. Não tem que ver com a sua relação com uma forma abstrata. É apenas uma questão de consequências. Olhamos apenas para as consequências e vemos se, no conjunto, são para o bem ou para o mal. Isso seria simples. Assim saberíamos o que fazer.
Let's take an example. Suppose I go up and I say, "I'm going to take your phone." Not just because it rang earlier, but I'm going to take it because I made a little calculation. I thought, that guy looks suspicious. And what if he's been sending little messages to Bin Laden's hideout -- or whoever took over after Bin Laden -- and he's actually like a terrorist, a sleeper cell. I'm going to find that out, and when I find that out, I'm going to prevent a huge amount of damage that he could cause. That has a very high utility to prevent that damage. And compared to the little pain that it's going to cause -- because it's going to be embarrassing when I'm looking on his phone and seeing that he has a Farmville problem and that whole bit -- that's overwhelmed by the value of looking at the phone. If you feel that way, that's a utilitarian choice.
Tomemos um exemplo. Suponham que eu digo: "Vou-lhe tirar o seu telemóvel." Não só porque, há bocado, ele tocou, mas porque fiz um pequeno cálculo. Aquele indivíduo pareceu-me suspeito. E se ele tiver estado a enviar mensagens para o esconderijo do Bin Laden, ou para quem quer que tenha sucedido a Bin Laden? Parece mesmo um terrorista, uma célula de espionagem. Vou descobrir isso e, quando descobrir, vou impedir os enormes prejuízos que ele podia causar. Será muito útil para evitar esses prejuízos. Em comparação com a pequena dor que vai causar, — porque será embaraçoso eu estar a ver o telemóvel, a ver que ele tem problemas na Farmville, etc. — isso é minimizado pela vantagem de ver o telemóvel. Se vocês pensarem assim, trata-se de uma escolha utilitária.
But maybe you don't feel that way either. Maybe you think, it's his phone. It's wrong to take his phone because he's a person and he has rights and he has dignity, and we can't just interfere with that. He has autonomy. It doesn't matter what the calculations are. There are things that are intrinsically wrong -- like lying is wrong, like torturing innocent children is wrong. Kant was very good on this point, and he said it a little better than I'll say it. He said we should use our reason to figure out the rules by which we should guide our conduct, and then it is our duty to follow those rules. It's not a matter of calculation.
Mas talvez também não pensem dessa maneira. Talvez pensem, o telemóvel é dele. É errado tirar-lhe o telemóvel, porque é uma pessoa, tem direitos, e tem dignidade, e não podemos simplesmente interferir neles. Ele tem autonomia. Não interessam os cálculos. Há coisas que são intrinsecamente erradas — mentir é errado, como é errado torturar crianças inocentes. Kant era muito bom neste ponto, e disse isto um pouco melhor do que eu direi. Ele disse que devíamos usar a nossa razão para decidir as regras que deviam orientar a nossa conduta. E depois é nosso dever seguir essas regras. Não é uma questão de cálculos.
So let's stop. We're right in the thick of it, this philosophical thicket. And this goes on for thousands of years, because these are hard questions, and I've only got 15 minutes. So let's cut to the chase. How should we be making our decisions? Is it Plato, is it Aristotle, is it Kant, is it Mill? What should we be doing? What's the answer? What's the formula that we can use in any situation to determine what we should do, whether we should use that guy's data or not? What's the formula? There's not a formula. There's not a simple answer.
Por isso vamos parar. Estamos mesmo no cerne deste emaranhado filosófico. E isto continua durante milhares de anos, porque estas questões são difíceis, e só dispomos de 15 minutos. Por isso, vamos diretos ao que interessa. Como devemos tomar as nossas decisões? De acordo com Platão, Aristóteles, Kant, Mill? O que devemos fazer? Qual é a resposta? Qual é a fórmula que podemos usar em qualquer situação para determinar o que devemos fazer, se devemos ou não usar as informações daquele individuo? Qual é a fórmula? Não há nenhuma fórmula. Não há uma resposta simples.
Ethics is hard. Ethics requires thinking. And that's uncomfortable. I know; I spent a lot of my career in artificial intelligence, trying to build machines that could do some of this thinking for us, that could give us answers. But they can't. You can't just take human thinking and put it into a machine. We're the ones who have to do it. Happily, we're not machines, and we can do it. Not only can we think, we must. Hannah Arendt said, "The sad truth is that most evil done in this world is not done by people who choose to be evil. It arises from not thinking." That's what she called the "banality of evil." And the response to that is that we demand the exercise of thinking from every sane person.
A ética é difícil. A ética requer pensamento. E é desconfortável. Eu sei, passei grande parte da minha carreira na inteligência artificial, tentando construir máquinas que pudessem pensar nalgumas destas questões por nós, dar-nos respostas. Mas não podem. Não se consegue pegar no pensamento humano e colocá-lo numa máquina. Somos nós que temos de pensar. Felizmente, não somos máquinas, podemos pensar. Não só podemos pensar, mas devemos fazê-lo. Hannah Arendt disse: "A triste verdade "é que o maior mal feito neste mundo "não é feito por pessoas que escolhem ser más. "Ele surge da falta do pensamento." É o que ela denomina a "banalidade do mal." E a resposta a isso é que exigimos o exercício do pensamento a todas as pessoas sãs.
So let's do that. Let's think. In fact, let's start right now. Every person in this room do this: think of the last time you had a decision to make where you were worried to do the right thing, where you wondered, "What should I be doing?" Bring that to mind, and now reflect on that and say, "How did I come up that decision? What did I do? Did I follow my gut? Did I have somebody vote on it? Or did I punt to legal?" Or now we have a few more choices. "Did I evaluate what would be the highest pleasure like Mill would? Or like Kant, did I use reason to figure out what was intrinsically right?" Think about it. Really bring it to mind. This is important. It is so important we are going to spend 30 seconds of valuable TEDTalk time doing nothing but thinking about this. Are you ready? Go.
Vamos, então, fazer isso. Vamos pensar. De facto, vamos começar agora mesmo. Cada pessoa, nesta sala, faça o seguinte: Pensem na última vez que tiveram que tomar uma decisão em que se preocuparam em fazer o que era certo, em que se perguntaram: "O que devo fazer?" Recordem esse momento. E agora reflitam sobre ele e digam: "Como é que cheguei àquela decisão? "O que é que eu fiz? Segui a minha intuição? "Pedi a alguém para votar sobre o assunto? Ou pedi um parecer jurídico?" — agora temos mais algumas opções. "Avaliei qual seria o prazer máximo como faria Mill? Ou, como Kant, usei a razão para decidir o que era intrinsecamente correto?" Pensem nisso. Recordem-se. Isto é importante. É tão importante que vamos passar 30 segundos do valioso tempo do TED Talk a não fazer mais nada senão pensar nisto. Estão prontos? Comecem!
Stop. Good work. What you just did, that's the first step towards taking responsibility for what we should do with all of our power.
Parem. Bom trabalho. O que acabaram de fazer é o primeiro passo no sentido de assumir a responsabilidade sobre o que devemos fazer com todo o nosso poder.
Now the next step -- try this. Go find a friend and explain to them how you made that decision. Not right now. Wait till I finish talking. Do it over lunch. And don't just find another technologist friend; find somebody different than you. Find an artist or a writer -- or, heaven forbid, find a philosopher and talk to them. In fact, find somebody from the humanities. Why? Because they think about problems differently than we do as technologists. Just a few days ago, right across the street from here, there was hundreds of people gathered together. It was technologists and humanists at that big BiblioTech Conference. And they gathered together because the technologists wanted to learn what it would be like to think from a humanities perspective. You have someone from Google talking to someone who does comparative literature. You're thinking about the relevance of 17th century French theater -- how does that bear upon venture capital? Well that's interesting. That's a different way of thinking. And when you think in that way, you become more sensitive to the human considerations, which are crucial to making ethical decisions.
Agora, o passo seguinte — tentem isto. Procurem um amigo e expliquem-lhe como tomaram aquela decisão. Não neste preciso momento. Esperem que eu acabe de falar. Façam-no ao almoço. E não se limitem a fazê-lo com outro amigo da área da tecnologia. Encontrem alguém diferente de vocês, um artista ou um escritor ou, o céu vos proteja, encontrem um filósofo e falem com ele. De facto, encontrem alguém da área de humanidades. Porquê? Porque eles pensam nos problemas de uma forma diferente dos da área tecnológica. Há poucos dias, aqui em frente, mesmo do outro lado da rua, reuniram-se centenas de pessoas, das áreas humanística e tecnológica naquela conferência sobre Bibliotecas Tecnológicas. Juntaram-se todos, porque os de tecnologia queriam aprender como seria pensar a partir de uma perspetiva humanista. Havia pessoas do Google a falar com pessoas que fazem literatura comparativa. Estão a pensar na relevância do teatro francês do séc. XVII como é que ele influenciou o capital de risco? Isso é interessante. É uma forma diferente de pensar. E quando pensamos dessa maneira, tornamo-nos mais sensíveis às considerações humanas, que são fundamentais para a tomada de decisões éticas.
So imagine that right now you went and you found your musician friend. And you're telling him what we're talking about, about our whole data revolution and all this -- maybe even hum a few bars of our theme music. ♫ Dum ta da da dum dum ta da da dum ♫ Well, your musician friend will stop you and say, "You know, the theme music for your data revolution, that's an opera, that's Wagner. It's based on Norse legend. It's Gods and mythical creatures fighting over magical jewelry." That's interesting. Now it's also a beautiful opera, and we're moved by that opera. We're moved because it's about the battle between good and evil, about right and wrong. And we care about right and wrong. We care what happens in that opera. We care what happens in "Apocalypse Now." And we certainly care what happens with our technologies.
Então, imaginem que agora mesmo encontravam o vosso amigo músico. E contavam-lhe aquilo de que estamos a falar, sobre a revolução na informação, talvez até trauteassem partes do nosso tema musical: ♫ Dum ta da da dum dum ta da da dum ♫ Aí, o vosso amigo músico interrompe-vos e diz: "Sabes, a música de fundo "da vossa revolução da informação "é uma ópera, é Wagner. "É baseada na mitologia nórdica. "São deuses e criaturas míticas "a lutar por joias mágicas." É interessante. Mas também é uma ópera maravilhosa. Emocionamo-nos com aquela ópera. Ficamos emocionados porque se trata de uma batalha entre o bem e o mal, sobre o certo e o errado. E nós preocupamo-nos com o certo e o errado. Preocupamo-nos com o que acontece naquela ópera. Preocupamo-nos com o que acontece no "Apocalypse Now." E preocupamo-nos certamente com o que acontece com as nossas tecnologias.
We have so much power today, it is up to us to figure out what to do, and that's the good news. We're the ones writing this opera. This is our movie. We figure out what will happen with this technology. We determine how this will all end.
Hoje temos muito poder, cabe-nos a nós decidir o que fazer. Essa é a boa notícia. Somos os únicos a escrever esta ópera. É o nosso filme. Nós decidimos o que vai acontecer com esta tecnologia. Determinamos como tudo isto acabará.
Thank you.
Obrigado.
(Applause)
(Aplausos)