Power. That is the word that comes to mind. We're the new technologists. We have a lot of data, so we have a lot of power. How much power do we have? Scene from a movie: "Apocalypse Now" -- great movie. We've got to get our hero, Captain Willard, to the mouth of the Nung River so he can go pursue Colonel Kurtz. The way we're going to do this is fly him in and drop him off. So the scene: the sky is filled with this fleet of helicopters carrying him in. And there's this loud, thrilling music in the background, this wild music. ♫ Dum da ta da dum ♫ ♫ Dum da ta da dum ♫ ♫ Da ta da da ♫ That's a lot of power. That's the kind of power I feel in this room. That's the kind of power we have because of all of the data that we have.
Poder. Esa es la palabra que viene a la mente. Somos los nuevos tecnólogos. Tenemos gran cantidad de información, así que tenemos mucho poder. ¿Cuánto poder tenemos? Escena de la película: "Apocalipsis Now" -- excelente película. Tenemos que llevar a nuestro héroe, el capitán Willard, a la desembocadura del río Nung para que pueda perseguir al coronel Kurtz. Para esto, lo vamos a transportar volando y lo dejamos en el lugar. En esta escena el cielo está repleto de helicópteros que lo llevan. Hay de fondo una música fuerte y emocionante, una música desenfrenada. ♫ Dum da ta da dum ♫ ♫ Dum da ta da dum ♫ ♫ Da ta da da ♫ Hay mucha potencia. La clase de potencia que siento en esta sala. Es el poder que nos da toda la información que tenemos.
Let's take an example. What can we do with just one person's data? What can we do with that guy's data? I can look at your financial records. I can tell if you pay your bills on time. I know if you're good to give a loan to. I can look at your medical records; I can see if your pump is still pumping -- see if you're good to offer insurance to. I can look at your clicking patterns. When you come to my website, I actually know what you're going to do already because I've seen you visit millions of websites before. And I'm sorry to tell you, you're like a poker player, you have a tell. I can tell with data analysis what you're going to do before you even do it. I know what you like. I know who you are, and that's even before I look at your mail or your phone.
Pongamos un ejemplo: ¿Qué podemos hacer con la información de una sola persona? ¿Qué podemos hacer con la información de ese señor? Puedo mirar sus registros financieros. Puedo decir si paga sus cuentas puntualmente. Sé si reúne las condiciones para que le den un préstamo. Puedo ver su historia clínica, puedo ver si aún late su corazón; ver si está bien para que le ofrezcan un seguro. Puedo observar sus hábitos en Internet. Cuando viene a mi sitio web, en realidad ya sé lo que va a hacer, porque lo he visto visitar millones de sitios web antes. Y lamento decirlo, eres como un jugador de póquer, tienes esa manía. Analizando datos puedo decir lo que vas a hacer aún antes que lo hagas. Sé lo que te gusta. Sé quién eres. Incluso antes de mirar tu correo o tu teléfono.
Those are the kinds of things we can do with the data that we have. But I'm not actually here to talk about what we can do. I'm here to talk about what we should do. What's the right thing to do?
Ese es el tipo de cosas que podemos hacer con los datos que tenemos. Pero en realidad no estoy aquí para hablar de lo que podemos hacer. Estoy aquí para hablar de lo que debemos hacer. ¿Cuál es la acción correcta?
Now I see some puzzled looks like, "Why are you asking us what's the right thing to do? We're just building this stuff. Somebody else is using it." Fair enough. But it brings me back. I think about World War II -- some of our great technologists then, some of our great physicists, studying nuclear fission and fusion -- just nuclear stuff. We gather together these physicists in Los Alamos to see what they'll build. We want the people building the technology thinking about what we should be doing with the technology.
Veo algunas miradas desconcertadas como diciendo, "¿Por qué nos preguntas qué es lo correcto? Nosotros hacemos. Son otros los que la usan". Es cierto. Pero esto me lleva al pasado. Pienso en la Segunda Guerra Mundial -- algunos de nuestros grandes tecnólogos de entonces, algunos de los grandes físicos, estudiaban la fisión y la fusión nuclear -- cuestiones nucleares. Reunimos a estos físicos en Los Álamos para ver que construían. Queremos que la gente que desarrolla tecnología piense qué deberíamos hacer nosotros con ella.
So what should we be doing with that guy's data? Should we be collecting it, gathering it, so we can make his online experience better? So we can make money? So we can protect ourselves if he was up to no good? Or should we respect his privacy, protect his dignity and leave him alone? Which one is it? How should we figure it out?
Entonces, ¿qué deberíamos hacer con los datos de ese señor? ¿Deberíamos recolectar, reunir los datos, para mejorar su experiencia en línea? ¿Para ganar dinero? ¿Para protegernos nosotros mismos si no se comporta bien? ¿O deberíamos respetar su privacidad, proteger su dignidad y dejarlo en paz? ¿Qué hacemos? ¿Cómo debemos decidir?
I know: crowdsource. Let's crowdsource this. So to get people warmed up, let's start with an easy question -- something I'm sure everybody here has an opinion about: iPhone versus Android. Let's do a show of hands -- iPhone. Uh huh. Android. You'd think with a bunch of smart people we wouldn't be such suckers just for the pretty phones. (Laughter) Next question, a little bit harder. Should we be collecting all of that guy's data to make his experiences better and to protect ourselves in case he's up to no good? Or should we leave him alone? Collect his data. Leave him alone. You're safe. It's fine. (Laughter) Okay, last question -- harder question -- when trying to evaluate what we should do in this case, should we use a Kantian deontological moral framework, or should we use a Millian consequentialist one? Kant. Mill. Not as many votes. (Laughter) Yeah, that's a terrifying result. Terrifying, because we have stronger opinions about our hand-held devices than about the moral framework we should use to guide our decisions.
Ya sé: colaboración pública. Vamos a resolver esto juntos. Para entrar en calor, comencemos con una pregunta fácil -- algo sobre lo que estoy seguro que todos aquí tienen una opinión: iPhone versus Android. Levanten las manos por el iPhone. Ajá. Android. Uno pensaría que un grupo de gente inteligente o sucumbiría tan fácil ante unos lindos teléfonos. (Risas) Siguiente pregunta, un poco más difícil. ¿Deberíamos recolectar toda los datos de ese hombre para ofrecerle una mejor experiencia y para protegernos en caso de que trame algo malo? ¿O deberíamos dejarlo en paz? Recolectar sus datos. Dejarlo en paz. Estás a salvo. Está bien. (Risas) Bien, última pregunta -- más difícil -- Al tratar de evaluar lo que deberíamos hacer en este caso, ¿deberíamos usar un sistema moral deontológico kantiano, o un sistema consecuencionalista milliano? Kant. Mill. No hay tantos votos. (Risas) Sí, ese es un resultado aterrador. Es aterrador porque tenemos opiniones más firmes sobre nuestros aparatos portátiles que sobre el sistema moral que debería guiar nuestras decisiones.
How do we know what to do with all the power we have if we don't have a moral framework? We know more about mobile operating systems, but what we really need is a moral operating system. What's a moral operating system? We all know right and wrong, right? You feel good when you do something right, you feel bad when you do something wrong. Our parents teach us that: praise with the good, scold with the bad. But how do we figure out what's right and wrong? And from day to day, we have the techniques that we use. Maybe we just follow our gut. Maybe we take a vote -- we crowdsource. Or maybe we punt -- ask the legal department, see what they say. In other words, it's kind of random, kind of ad hoc, how we figure out what we should do. And maybe, if we want to be on surer footing, what we really want is a moral framework that will help guide us there, that will tell us what kinds of things are right and wrong in the first place, and how would we know in a given situation what to do.
¿Cómo sabemos qué hacer con todo el poder que tenemos si no tenemos un sistema moral? Sabemos más sobre los sistemas operativos móviles, pero lo que realmente necesitamos es un sistema operativo moral. ¿Qué es un sistema operativo moral? Todos sabemos lo que es correcto e incorrecto. Te sientes bien cuando haces algo correcto, te sientes mal cuando haces algo incorrecto. Nuestros padres nos enseñan que se alaba lo bueno y se regaña lo malo. Pero, ¿cómo podemos averiguar qué es lo correcto y lo incorrecto? Y, día a día, tenemos las técnicas que utilizamos. Tal vez solo seguimos nuestro instinto. Tal vez votamos --consultamos la opinión pública. O tal vez apostamos -- preguntamos al departamento legal, vemos lo que dicen. En otras palabras, es un poco aleatorio, improvisamos, la forma de averiguar lo que debemos hacer. Y, tal vez, si queremos sentirnos más seguros, lo que realmente queremos es un sistema moral que nos oriente, que nos diga en primer lugar que tipo de cosas están bien y mal, y cómo sabemos qué hacer en una situación dada.
So let's get a moral framework. We're numbers people, living by numbers. How can we use numbers as the basis for a moral framework? I know a guy who did exactly that. A brilliant guy -- he's been dead 2,500 years. Plato, that's right. Remember him -- old philosopher? You were sleeping during that class. And Plato, he had a lot of the same concerns that we did. He was worried about right and wrong. He wanted to know what is just. But he was worried that all we seem to be doing is trading opinions about this. He says something's just. She says something else is just. It's kind of convincing when he talks and when she talks too. I'm just going back and forth; I'm not getting anywhere. I don't want opinions; I want knowledge. I want to know the truth about justice -- like we have truths in math. In math, we know the objective facts. Take a number, any number -- two. Favorite number. I love that number. There are truths about two. If you've got two of something, you add two more, you get four. That's true no matter what thing you're talking about. It's an objective truth about the form of two, the abstract form. When you have two of anything -- two eyes, two ears, two noses, just two protrusions -- those all partake of the form of two. They all participate in the truths that two has. They all have two-ness in them. And therefore, it's not a matter of opinion.
Entonces tengamos un sistema moral. Somos seres que trabajamos con números, vivimos por los números. ¿Cómo podemos usar los números como base para un sistema moral? Conozco a un hombre que hizo exactamente eso, Un hombre brillante -- murió hace 2500 años. Platón, exacto. ¿Lo recuerdan? ¿un viejo filósofo? Se durmieron durante esa clase. Y Platón se planteó muchas de estas preocupaciones que tenemos. Se preocupaba por lo correcto y lo incorrecto. Quería saber qué era lo justo. Pero le preocupaba que todo lo que parecíamos hacer era intercambiar opiniones sobre el tema. Él dice que algo es lo justo. Ella dice que otra cosa es lo justo. Ambos suenan convincentes. Vamos y volvemos sin llegar a ningún lado. No quiero opiniones, quiero conocimiento. Quiero saber la verdad sobre la justicia -- tal como tenemos verdades en matemáticas. En matemáticas conocemos los hechos objetivos. Tomen un número, cualquier número -- el 2. Mi número favorito. Me encanta ese número. Hay verdades sobre el 2. Si tienen 2 de algo, y agregan 2 más, tienen 4. Eso es verdad sin importar qué estén hablando. Es una verdad objetiva sobre la forma del 2, la forma abstracta. Cuando se tiene 2 de cualquier cosa - 2 ojos, 2 oídos, 2 narices, 2 protuberancias -- todos ellos participan de la forma del 2. Todos participan de las verdades del 2. Todos tienen la dualidad. Y por lo tanto, no es una cuestión de opinión.
What if, Plato thought, ethics was like math? What if there were a pure form of justice? What if there are truths about justice, and you could just look around in this world and see which things participated, partook of that form of justice? Then you would know what was really just and what wasn't. It wouldn't be a matter of just opinion or just appearances. That's a stunning vision. I mean, think about that. How grand. How ambitious. That's as ambitious as we are. He wants to solve ethics. He wants objective truths. If you think that way, you have a Platonist moral framework.
Platón pensaba: ¿y si la ética fuese como la matemática? ¿Y si hubiera una forma pura de justicia? ¿Y si hay verdades acerca de la justicia, y si pudiéramos mirar el mundo y ver las cosas que la componen, que forman parte de la justicia? Entonces podría saberse lo que realmente es justo y lo que no. No sería una cuestión de simple opinión o apariencias. Esa es una visión asombrosa. Quiero decir, piénsenlo. Es magnífico y ambicioso. Tan ambicioso como nosotros. Él quiere resolver la ética. Quiere verdades objetivas. Si piensas de esa forma, tienes un sistema moral platónico.
If you don't think that way, well, you have a lot of company in the history of Western philosophy, because the tidy idea, you know, people criticized it. Aristotle, in particular, he was not amused. He thought it was impractical. Aristotle said, "We should seek only so much precision in each subject as that subject allows." Aristotle thought ethics wasn't a lot like math. He thought ethics was a matter of making decisions in the here-and-now using our best judgment to find the right path. If you think that, Plato's not your guy. But don't give up. Maybe there's another way that we can use numbers as the basis of our moral framework.
Si no piensas de esa forma, bien, tienes mucha compañía en la historia de la filosofía occidental, porque, ya saben, esta linda idea fue criticada. Aristóteles, en particular, no la compartía. Le resultaba poco práctico. Aristóteles dijo: "En cada asunto solo debemos buscar el nivel de precisión que ese asunto permite". Aristóteles pensaba que la ética no era como la matemática. Él pensaba que la ética es una cuestión de tomar decisiones aquí y ahora usando nuestro mejor juicio para encontrar el camino correcto. Si piensan eso, Platón no es la persona a seguir. Pero no se rindan. Tal vez hay otra manera de usar los números como base de nuestro sistema moral.
How about this: What if in any situation you could just calculate, look at the choices, measure out which one's better and know what to do? That sound familiar? That's a utilitarian moral framework. John Stuart Mill was a great advocate of this -- nice guy besides -- and only been dead 200 years. So basis of utilitarianism -- I'm sure you're familiar at least. The three people who voted for Mill before are familiar with this. But here's the way it works. What if morals, what if what makes something moral is just a matter of if it maximizes pleasure and minimizes pain? It does something intrinsic to the act. It's not like its relation to some abstract form. It's just a matter of the consequences. You just look at the consequences and see if, overall, it's for the good or for the worse. That would be simple. Then we know what to do.
¿Qué tal si ante cada situación simplemente pudieran calcular, mirar las opciones, medir cuál es mejor y saber qué hacer? ¿Les suena familiar? Ese es un sistema moral utilitarista. John Stuart Mill fue un gran defensor de esto -- además de un tipo genial -- y murió hace solo 200 años. Así, la base del utilitarismo -- Seguro que al menos están familiarizados. Las 3 personas que votaron por Mill antes están familiarizados con esto. Esto es así: ¿Qué pasa si la moral, lo que hace que algo sea moral, es solo una cuestión de maximizar el placer y minimizar el dolor? Se trata de algo intrínseco al acto. No se trata de una relación con alguna forma abstracta. Es sólo una cuestión de consecuencias. Buscamos sólo en las consecuencias y vemos si en el todo, son positivas o negativas. Eso sería simple. Entonces sabríamos que hacer.
Let's take an example. Suppose I go up and I say, "I'm going to take your phone." Not just because it rang earlier, but I'm going to take it because I made a little calculation. I thought, that guy looks suspicious. And what if he's been sending little messages to Bin Laden's hideout -- or whoever took over after Bin Laden -- and he's actually like a terrorist, a sleeper cell. I'm going to find that out, and when I find that out, I'm going to prevent a huge amount of damage that he could cause. That has a very high utility to prevent that damage. And compared to the little pain that it's going to cause -- because it's going to be embarrassing when I'm looking on his phone and seeing that he has a Farmville problem and that whole bit -- that's overwhelmed by the value of looking at the phone. If you feel that way, that's a utilitarian choice.
Pongamos un ejemplo. Supongamos que voy y digo, "Voy a tomar tu teléfono". No sólo porque sonó antes, sino que lo voy a tomar porque hice un pequeño cálculo. Pensé, ese tipo parece sospechoso. Y qué tal si ha estado enviando mensajes a la guarida de Bin Laden -- o quien haya reemplazado a Bin Laden - Y en realidad es un terrorista, una célula latente. Voy a averiguarlo, y cuando lo descubra, voy a evitar el enorme daño que podría causar. Eso va a ser muy útil para evitar ese daño. Y comparado con el pequeño dolor que va a causar -- porque va a ser vergonzoso cuando vea su teléfono móvil y vea que tiene un problema con Farmville y todo lo demás - eso es minimizado por el valor de mirar su teléfono. Si consideran ese camino, esa es una opción utilitarista.
But maybe you don't feel that way either. Maybe you think, it's his phone. It's wrong to take his phone because he's a person and he has rights and he has dignity, and we can't just interfere with that. He has autonomy. It doesn't matter what the calculations are. There are things that are intrinsically wrong -- like lying is wrong, like torturing innocent children is wrong. Kant was very good on this point, and he said it a little better than I'll say it. He said we should use our reason to figure out the rules by which we should guide our conduct, and then it is our duty to follow those rules. It's not a matter of calculation.
Pero tal vez tampoco consideren esa opción. Tal vez piensen, es su teléfono. No está bien tomar su teléfono, porque él es una persona y tiene derechos y dignidad, y simplemente no podemos interferir en eso. Él tiene autonomía. No importa cuáles sean los cálculos. Hay cosas que intrínsecamente están mal -- como mentir está mal. torturar a niños inocentes está mal. Kant era muy bueno en este punto, y planteaba esto un poco mejor de lo que yo lo haré. Decía que deberíamos usar nuestro razonamiento para decidir las reglas que deberían guiar nuestra conducta. Y luego es nuestro deber seguir esas reglas. No es una cuestión de cálculos.
So let's stop. We're right in the thick of it, this philosophical thicket. And this goes on for thousands of years, because these are hard questions, and I've only got 15 minutes. So let's cut to the chase. How should we be making our decisions? Is it Plato, is it Aristotle, is it Kant, is it Mill? What should we be doing? What's the answer? What's the formula that we can use in any situation to determine what we should do, whether we should use that guy's data or not? What's the formula? There's not a formula. There's not a simple answer.
Así que detengámonos. Estamos justo en el centro de esta maraña filosófica. Esto continuó durante miles de años, porque son preguntas difíciles, y solo tengo 15 minutos. Por lo tanto, vamos directo al grano. ¿Cómo debemos tomar nuestras decisiones? ¿De acuerdo a Platón, a Aristóteles, a Kant, a Mill? ¿Qué debemos hacer? ¿Cuál es la respuesta? ¿Cuál es la fórmula que podemos usar en cualquier situación para determinar qué debemos hacer, sea que debamos o no usar la información de ese hombre? ¿Cuál es la fórmula? No hay fórmula. No hay una respuesta simple.
Ethics is hard. Ethics requires thinking. And that's uncomfortable. I know; I spent a lot of my career in artificial intelligence, trying to build machines that could do some of this thinking for us, that could give us answers. But they can't. You can't just take human thinking and put it into a machine. We're the ones who have to do it. Happily, we're not machines, and we can do it. Not only can we think, we must. Hannah Arendt said, "The sad truth is that most evil done in this world is not done by people who choose to be evil. It arises from not thinking." That's what she called the "banality of evil." And the response to that is that we demand the exercise of thinking from every sane person.
La ética es algo difícil. Requiere reflexión. Y eso es incómodo. Lo sé; pasé gran parte de mi carrera en inteligencia artificial, tratando de construir máquinas que pudiesen pensar algunas de estas cuestiones por nosotros, que pudiesen darnos respuestas. Pero ellas no pueden. No se puede tomar el pensamiento humano y ponerlo dentro de una máquina. Somos nosotros quienes debemos hacerlo. Felizmente, no somos máquinas y podemos hacerlo. Y no sólo podemos pensar, debemos hacerlo. Hannah Arendt dijo: "La triste verdad es que el mayor daño hecho en este mundo no lo causan las personas que eligen ser malas. Surge de la falta de pensamiento". Es lo que ella llamaba la "banalidad del mal". Y la respuesta a eso es que demandamos el ejercicio del pensamiento de cada persona sana.
So let's do that. Let's think. In fact, let's start right now. Every person in this room do this: think of the last time you had a decision to make where you were worried to do the right thing, where you wondered, "What should I be doing?" Bring that to mind, and now reflect on that and say, "How did I come up that decision? What did I do? Did I follow my gut? Did I have somebody vote on it? Or did I punt to legal?" Or now we have a few more choices. "Did I evaluate what would be the highest pleasure like Mill would? Or like Kant, did I use reason to figure out what was intrinsically right?" Think about it. Really bring it to mind. This is important. It is so important we are going to spend 30 seconds of valuable TEDTalk time doing nothing but thinking about this. Are you ready? Go.
Así que hagámoslo. Pensemos. De hecho, empecemos ahora mismo. Cada persona de esta sala haga esto: piensen en la última vez que tuvieron que tomar una decisión donde estuvieron preocupados por hacer lo correcto, donde se preguntaron, "¿Qué debo hacer?" Recuerden ese momento. Y ahora reflexionen en eso y digan: "¿Cómo llegué a esa decisión? ¿Qué hice? ¿Seguí mi intuición? ¿Pedí la votación de alguien? ¿Pedí opinión legal?" O, ahora, tenemos algunas opciones más. "¿Evalué cuál sería el mayor de los placeres como lo haría Mill? O al igual que Kant, ¿usé la razón para decidir qué era intrínsecamente correcto?" Piensen en esto. Recuerden. Esto es importante. Es tan importante que vamos a usar 30 segundos del valioso tiempo de TED nada más que para pensar en esto. ¿Están listos? Vamos.
Stop. Good work. What you just did, that's the first step towards taking responsibility for what we should do with all of our power.
Paren. Buen trabajo. Lo que acaban de hacer, es el primer paso en el sentido de asumir responsabilidad por lo que debemos hacer con todo nuestro poder.
Now the next step -- try this. Go find a friend and explain to them how you made that decision. Not right now. Wait till I finish talking. Do it over lunch. And don't just find another technologist friend; find somebody different than you. Find an artist or a writer -- or, heaven forbid, find a philosopher and talk to them. In fact, find somebody from the humanities. Why? Because they think about problems differently than we do as technologists. Just a few days ago, right across the street from here, there was hundreds of people gathered together. It was technologists and humanists at that big BiblioTech Conference. And they gathered together because the technologists wanted to learn what it would be like to think from a humanities perspective. You have someone from Google talking to someone who does comparative literature. You're thinking about the relevance of 17th century French theater -- how does that bear upon venture capital? Well that's interesting. That's a different way of thinking. And when you think in that way, you become more sensitive to the human considerations, which are crucial to making ethical decisions.
Ahora el siguiente paso -- prueben esto. Busquen un amigo y explíquenle cómo tomaron esa decisión. Ahora no. Esperen el final de la charla. Durante el almuerzo. Y no lo hagan con otro amigo tecnólogo; encuentren alguien diferente a ustedes. Encuentren un artista o un escritor -- o, Dios nos libre, encuentren un filósofo y hablen con ellos. De hecho, encuentren alguien de las humanidades. ¿Por qué? Porque ellos piensan en los problemas de forma diferente a como lo hacemos los tecnólogos. Hace unos días, aquí en frente, al otro lado de la calle, había cientos de personas reunidas. Eran tecnólogos y humanistas en una conferencias sobre Bibliotecas Tecnológicas. Y ellos se reunieron porque los tecnólogos querían aprender cómo era pensar desde una perspectiva humanista. Hay alguien de Google hablando con alguien que hace literatura comparada. Están pensando sobre la relevancia del teatro francés del siglo XVII -- ¿cómo se relaciona eso con el capital de riesgo? Bien eso es interesante. Es una forma de pensar diferente. Y cuando piensan de esa forma, se vuelven más sensibles a las cuestionas humanas, lo cual es crucial para tomar decisiones éticas.
So imagine that right now you went and you found your musician friend. And you're telling him what we're talking about, about our whole data revolution and all this -- maybe even hum a few bars of our theme music. ♫ Dum ta da da dum dum ta da da dum ♫ Well, your musician friend will stop you and say, "You know, the theme music for your data revolution, that's an opera, that's Wagner. It's based on Norse legend. It's Gods and mythical creatures fighting over magical jewelry." That's interesting. Now it's also a beautiful opera, and we're moved by that opera. We're moved because it's about the battle between good and evil, about right and wrong. And we care about right and wrong. We care what happens in that opera. We care what happens in "Apocalypse Now." And we certainly care what happens with our technologies.
Entonces, imaginen que ahora mismo van y encuentran a su amigo músico. Y le cuentan lo que estuvimos hablando, sobre la revolución de la información y todo eso -- incluso tarareando algunas partes de nuestro tema: ♫ Dum ta da da dum dum ta da da dum ♫ Bueno, su amigo músico los detendrá y dirá: "Sabes, la música de fondo para tu revolución de la información, es una ópera, es Wagner. Se basa en la mitología nórdica. Son dioses y criaturas míticas luchando por joyas mágicas". Eso es interesante. También es una ópera hermosa. Y esa ópera nos emociona. Nos emociona porque es sobre la lucha entre el bien y el mal, sobre lo correcto y lo incorrecto. Y nos importa lo que lo correcto y lo incorrecto. Nos importa lo que pasa en la ópera. Nos importa lo que pasa en "Apocalipsis Now". Y sin duda que nos importa lo que pasa con nuestras tecnologías.
We have so much power today, it is up to us to figure out what to do, and that's the good news. We're the ones writing this opera. This is our movie. We figure out what will happen with this technology. We determine how this will all end.
Hoy tenemos mucho poder, depende de nosotros decidir qué hacer. Y esa es la buena noticia. Somos nosotros los que escribimos esta ópera. Es nuestra película. Nosotros decidimos lo que pasará con esta tecnología. Nosotros determinamos cómo terminará todo esto.
Thank you.
Gracias.
(Applause)
(Aplausos)