Power. That is the word that comes to mind. We're the new technologists. We have a lot of data, so we have a lot of power. How much power do we have? Scene from a movie: "Apocalypse Now" -- great movie. We've got to get our hero, Captain Willard, to the mouth of the Nung River so he can go pursue Colonel Kurtz. The way we're going to do this is fly him in and drop him off. So the scene: the sky is filled with this fleet of helicopters carrying him in. And there's this loud, thrilling music in the background, this wild music. ♫ Dum da ta da dum ♫ ♫ Dum da ta da dum ♫ ♫ Da ta da da ♫ That's a lot of power. That's the kind of power I feel in this room. That's the kind of power we have because of all of the data that we have.
Le pouvoir. C'est le mot qui vient à l'esprit. Nous sommes les nouveaux technologues. Nous avons beaucoup de données, donc nous avons beaucoup de pouvoir. Quelle quantité de pouvoir avons-nous ? Une scène du film "Apocalypse Now" -- un grand film. Nous devons amener notre héros, le capitaine Willard, à l'embouchure de la rivière Nung, pour qu'il puisse poursuivre le colonel Kurtz. Pour cela, nous allons le transporter en hélico et le déposer. Dans cette scène : le ciel est rempli de cette flotte d'hélicoptères qui le transportent. Il y a cette musique bruyante et palpitante en fond, cette musique effrénée. ♫ Dum da ta da dum ♫ ♫ Dum da ta da dum ♫ ♫ Da ta da da ♫ C'est un grand pouvoir. C'est le genre de pouvoir que je ressens dans cette pièce. C'est le genre de pouvoir que nous avons grâce à toutes les données que nous possédons.
Let's take an example. What can we do with just one person's data? What can we do with that guy's data? I can look at your financial records. I can tell if you pay your bills on time. I know if you're good to give a loan to. I can look at your medical records; I can see if your pump is still pumping -- see if you're good to offer insurance to. I can look at your clicking patterns. When you come to my website, I actually know what you're going to do already because I've seen you visit millions of websites before. And I'm sorry to tell you, you're like a poker player, you have a tell. I can tell with data analysis what you're going to do before you even do it. I know what you like. I know who you are, and that's even before I look at your mail or your phone.
Prenons un exemple. Que pouvons-nous faire avec les données d'une seule personne ? Que pouvons-nous faire avec les données de ce type ? Je peux regarder vos registres financiers. Je peux vous dire si vous payez vos factures à temps. Je sais alors si je peux vous faire un prêt. Je peux regarder votre dossier médical, je peux voir si votre cœur fonctionne bien -- voir si je peux vous proposer une assurance. Je peux regarder où vous cliquez sur Internet. Quand vous visitez mon site, je sais déjà ce que vous allez faire, parce que je vous ai vu visiter des millions de sites auparavant. Je suis désolé de vous dire, vous êtes comme un joueur de poker, vous avez des manies. Je peux dire grâce à l'analyse de données ce que vous allez faire avant même que vous ne le fassiez. Je sais ce que vous aimez. Je sais qui vous êtes. Et cela avant même que je regarde votre courrier ou votre téléphone.
Those are the kinds of things we can do with the data that we have. But I'm not actually here to talk about what we can do. I'm here to talk about what we should do. What's the right thing to do?
Ce sont le genre de choses que nous pouvons faire avec les données que nous avons. Mais je ne suis pas là pour parler de ce que nous pouvons faire. Je suis ici pour parler de ce que nous devrions faire. Quelle est la bonne chose à faire ?
Now I see some puzzled looks like, "Why are you asking us what's the right thing to do? We're just building this stuff. Somebody else is using it." Fair enough. But it brings me back. I think about World War II -- some of our great technologists then, some of our great physicists, studying nuclear fission and fusion -- just nuclear stuff. We gather together these physicists in Los Alamos to see what they'll build. We want the people building the technology thinking about what we should be doing with the technology.
Je vois des regards perplexes comme « Pourquoi nous demandez-vous quelle est la bonne chose à faire ? On ne fait que construire ce truc. Quelqu'un d'autre l'utilise. » Très bien. Mais ça me ramène en arrière. Je pense à la deuxième guerre mondiale -- certains de nos grands technologues de l'époque, certains de nos grands physiciens, qui étudiaient la fission et la fusion nucléaires -- juste des trucs nucléaires. Nous rassemblons ces physiciens ensemble à Los Alamos pour voir ce qu'ils vont construire. Nous voulons que les personnes qui construisent la technologie pensent à ce que nous devrions faire avec la technologie.
So what should we be doing with that guy's data? Should we be collecting it, gathering it, so we can make his online experience better? So we can make money? So we can protect ourselves if he was up to no good? Or should we respect his privacy, protect his dignity and leave him alone? Which one is it? How should we figure it out?
Que devrions-nous donc faire avec les données de ce type ? Devrions-nous les collecter, les rassembler, pour optimiser son surf sur Internet ? Pour faire de l'argent ? Pour que nous puissions nous protéger s'il a de mauvaises intentions ? Ou devrions-nous respecter son intimité, protéger sa dignité et le laisser tranquille ? Que fait-on ? Comment décidons-nous ?
I know: crowdsource. Let's crowdsource this. So to get people warmed up, let's start with an easy question -- something I'm sure everybody here has an opinion about: iPhone versus Android. Let's do a show of hands -- iPhone. Uh huh. Android. You'd think with a bunch of smart people we wouldn't be such suckers just for the pretty phones. (Laughter) Next question, a little bit harder. Should we be collecting all of that guy's data to make his experiences better and to protect ourselves in case he's up to no good? Or should we leave him alone? Collect his data. Leave him alone. You're safe. It's fine. (Laughter) Okay, last question -- harder question -- when trying to evaluate what we should do in this case, should we use a Kantian deontological moral framework, or should we use a Millian consequentialist one? Kant. Mill. Not as many votes. (Laughter) Yeah, that's a terrifying result. Terrifying, because we have stronger opinions about our hand-held devices than about the moral framework we should use to guide our decisions.
Je sais : la participation citoyenne. Faisons du crowdsourcing. Pour donner de l'entrain aux gens, commençons par une question facile -- une chose sur laquelle tout le monde ici a une idée, j'en suis sûr : iPhone contre Android. Levez vos mains pour l'iPhone. Uh huh. Android. Je pensais qu'une assemblée de gens intelligents ne succomberait pas si facilement aux jolis téléphones. (Rires) Question suivante. Un peu plus difficile. Devrions-nous collecter toutes les données de ce type pour optimiser son surf sur Internet et pour nous protéger au cas où il aurait de mauvaises intentions ? Ou devrions-nous le laisser tranquille ? Rassembler ses données. Le laisser tranquille. Vous êtes hors de danger, c'est bon. (Rires) Bien, dernière question -- plus difficile -- quand on essaye d'estimer ce que nous devrions faire dans cette situation, devrions-nous utiliser le système moral déontologique de Kant, ou bien le système moral conséquentialiste de Mill ? Kant. Mill. Pas autant de voix. (Rires) Oui, c'est un résultat terrifiant. Terrifiant, parce que nous avons des opinions plus fortes sur nos appareils téléphones que sur les systèmes moraux que nous devrions utiliser pour orienter nos décisions.
How do we know what to do with all the power we have if we don't have a moral framework? We know more about mobile operating systems, but what we really need is a moral operating system. What's a moral operating system? We all know right and wrong, right? You feel good when you do something right, you feel bad when you do something wrong. Our parents teach us that: praise with the good, scold with the bad. But how do we figure out what's right and wrong? And from day to day, we have the techniques that we use. Maybe we just follow our gut. Maybe we take a vote -- we crowdsource. Or maybe we punt -- ask the legal department, see what they say. In other words, it's kind of random, kind of ad hoc, how we figure out what we should do. And maybe, if we want to be on surer footing, what we really want is a moral framework that will help guide us there, that will tell us what kinds of things are right and wrong in the first place, and how would we know in a given situation what to do.
Que faire de tout le pouvoir que nous avons si nous n'avons pas de système moral ? Nous en savons davantage sur les systèmes d'exploitation de nos téléphones, alors que ce dont nous avons vraiment besoin est d'un système d'exploitation moral. Qu'est-ce qu'un système d'exploitation moral ? Nous connaissons tous le bien et le mal. Vous vous sentez bien quand vous faites quelque chose de juste, vous vous sentez mal quand vous faites le mal. Nos parents nous l'apprennent : louer le bien, réprimander le mal. Mais comment savoir ce qui est bien et ce qui est mal ? De jour en jour, nous utilisons des techniques. Peut-être que nous suivons simplement notre instinct. Peut-être que nous procédons à un vote -- le crowdsourcing. Ou peut-être que nous nous déchargeons -- nous demandons le service juridique, voir ce qu'ils en pensent. En d'autres mots, c'est plutôt aléatoire, c'est plutôt ad hoc, la façon dont nous décidons de ce que nous devrions faire. Peut-être que si nous voulons adopter une position plus sûre, ce que nous voulons vraiment est un système moral qui nous aidera à nous y orienter, qui nous dira qu'est-ce qui est bien et qu'est-ce qui est mal dès le départ, et comment savoir quoi faire dans une situation donnée.
So let's get a moral framework. We're numbers people, living by numbers. How can we use numbers as the basis for a moral framework? I know a guy who did exactly that. A brilliant guy -- he's been dead 2,500 years. Plato, that's right. Remember him -- old philosopher? You were sleeping during that class. And Plato, he had a lot of the same concerns that we did. He was worried about right and wrong. He wanted to know what is just. But he was worried that all we seem to be doing is trading opinions about this. He says something's just. She says something else is just. It's kind of convincing when he talks and when she talks too. I'm just going back and forth; I'm not getting anywhere. I don't want opinions; I want knowledge. I want to know the truth about justice -- like we have truths in math. In math, we know the objective facts. Take a number, any number -- two. Favorite number. I love that number. There are truths about two. If you've got two of something, you add two more, you get four. That's true no matter what thing you're talking about. It's an objective truth about the form of two, the abstract form. When you have two of anything -- two eyes, two ears, two noses, just two protrusions -- those all partake of the form of two. They all participate in the truths that two has. They all have two-ness in them. And therefore, it's not a matter of opinion.
Prenons donc un cadre moral. Nous vivons dans un monde de chiffres. Comment pouvons-nous utiliser les chiffres comme base d'un système moral ? Je connais quelqu'un qui a fait exactement cela, quelqu'un de brillant -- il est mort il y a 2 500 ans. Platon, c'est exact. Vous vous rappelez de lui -- le vieux philosophe ? Vous dormiez pendant les cours. Platon partageait beaucoup de nos préoccupations. Il se préoccupait du bien et du mal. Il voulait savoir ce qui était juste. Mais il s'inquiétait que tout ce que nous semblons faire, c'est échanger des opinions sur le sujet. Il me dit que quelque chose est juste. Elle me dit qu'autre chose est juste. Les deux sont plutôt convaincants quand ils parlent. Je fais des allers retours ; je n'avance pas. Je ne veux pas d'opinions, je veux de la connaissance. Je veux connaître la vérité sur la justice -- comme on connait les vérités mathématiques. En maths, on connait les faits concrets. Prenez un chiffre, n'importe lequel -- deux. Mon chiffre préféré. J'adore ce chiffre. Il y a des vérités sur le chiffre deux. Si vous avez une chose en deux exemplaires, vous en ajoutez deux, vous en obtenez quatre. C'est vrai pour n'importe quelle chose. c'est une vérité objective sur la forme du chiffre deux, la forme abstraite. Quand vous avez une chose en deux exemplaires -- deux yeux, deux oreilles, deux nez, juste deux éléments -- ils participent tous à la forme du chiffre deux. Ils participent aux vérités intrinsèques du chiffre deux. Il y a du chiffre deux en chacun d'eux. Par conséquent, ça ne dépend pas de l'opinion.
What if, Plato thought, ethics was like math? What if there were a pure form of justice? What if there are truths about justice, and you could just look around in this world and see which things participated, partook of that form of justice? Then you would know what was really just and what wasn't. It wouldn't be a matter of just opinion or just appearances. That's a stunning vision. I mean, think about that. How grand. How ambitious. That's as ambitious as we are. He wants to solve ethics. He wants objective truths. If you think that way, you have a Platonist moral framework.
Et si, Platon se disait, l'étique était comme les maths ? Et s'il y avait une forme pure de justice ? Et s'il y avait des vérités sur la justice, et que vous pouviez simplement regarder le monde et voir les choses qui y participent, qui prennent part à cette forme de justice ? Vous sauriez alors ce qui est vraiment juste et ce qui ne l'est pas. Ça ne dépendrait pas d'un simple jugement ou d'un simple aspect. C'est une vision stupéfiante. Je veux dire, pensez-y. C'est magnifique. C'est ambitieux. C'est aussi ambitieux que nous. Nous voulons résoudre les problèmes d'éthique. Nous voulons des vérités objectives. Si vous pensez de cette façon, vous avez un système moral platonicien.
If you don't think that way, well, you have a lot of company in the history of Western philosophy, because the tidy idea, you know, people criticized it. Aristotle, in particular, he was not amused. He thought it was impractical. Aristotle said, "We should seek only so much precision in each subject as that subject allows." Aristotle thought ethics wasn't a lot like math. He thought ethics was a matter of making decisions in the here-and-now using our best judgment to find the right path. If you think that, Plato's not your guy. But don't give up. Maybe there's another way that we can use numbers as the basis of our moral framework.
Si vous ne pensez pas de cette façon, eh bien, vous n'êtes pas seul dans l'histoire de la philosophie occidentale, parce que cette jolie idée -- vous savez, les gens l'ont critiquée. Aristote, en particulier, n'a pas apprécié. Il pensait que c'était infaisable en pratique. Aristote disait : « Nous ne devrions chercher qu'autant d'exactitude dans un sujet que celui-ci nous le permet. » Aristote pensait que l'éthique n'était pas vraiment comme les maths. Il pensait que l'éthique consistait à prendre des décision ici et maintenant en utilisant notre meilleur jugement pour trouver le droit chemin. Si vous pensez cela, Platon n'est pas votre homme. Mais n'abandonnez pas. Peut-être y a-t-il un autre moyen pour utiliser les nombres comme base de notre système moral.
How about this: What if in any situation you could just calculate, look at the choices, measure out which one's better and know what to do? That sound familiar? That's a utilitarian moral framework. John Stuart Mill was a great advocate of this -- nice guy besides -- and only been dead 200 years. So basis of utilitarianism -- I'm sure you're familiar at least. The three people who voted for Mill before are familiar with this. But here's the way it works. What if morals, what if what makes something moral is just a matter of if it maximizes pleasure and minimizes pain? It does something intrinsic to the act. It's not like its relation to some abstract form. It's just a matter of the consequences. You just look at the consequences and see if, overall, it's for the good or for the worse. That would be simple. Then we know what to do.
Que diriez-vous de ceci : et si dans n'importe quelle situation, vous pouviez simplement calculer, examiner les possibilités, évaluer laquelle est la meilleure et savoir quoi faire ? Cela vous dit quelque chose ? C'est un système moral utilitariste. John Stuart Mill en était un grand partisan -- un type bien par ailleurs -- et il n'est mort que depuis 200 ans. Donc les fondements de l'utilitarisme -- je suis sûr que vous les connaissez. Les trois personnes qui ont voté pour Mill tout à l'heure savent ce que c'est. Mais voilà comment ça fonctionne. Et si la morale, si ce qui rend quelque chose moral, n'était qu'un calcul de plaisir maximum et de douleur minimum ? C'est intrinsèque au fait. Ça n'a pas de rapport avec sa forme abstraite. C'est juste fonction des conséquences. Vous regardez simplement les conséquences, et vous voyez si, globalement, c'est pour le meilleur ou pour le pire. Ce serait simple. Nous saurions ensuite quoi faire.
Let's take an example. Suppose I go up and I say, "I'm going to take your phone." Not just because it rang earlier, but I'm going to take it because I made a little calculation. I thought, that guy looks suspicious. And what if he's been sending little messages to Bin Laden's hideout -- or whoever took over after Bin Laden -- and he's actually like a terrorist, a sleeper cell. I'm going to find that out, and when I find that out, I'm going to prevent a huge amount of damage that he could cause. That has a very high utility to prevent that damage. And compared to the little pain that it's going to cause -- because it's going to be embarrassing when I'm looking on his phone and seeing that he has a Farmville problem and that whole bit -- that's overwhelmed by the value of looking at the phone. If you feel that way, that's a utilitarian choice.
Prenons un exemple. Imaginez que je vienne et je dise : « Je vais vous prendre votre téléphone. » Pas parce qu'il a sonné tout à l'heure, mais parce que j'ai fait un petit calcul. Je pensais que ce type avait l'air suspect. Et s'il était en train d'envoyer des messages à la planque de Ben Laden -- ou de n'importe qui ayant pris la relève de Ben Laden -- c'est en fait un terroriste, une cellule dormante. Je vais m'en rendre compte, et quand ce sera fait, je vais éviter d'énormes dégâts qu'il pourrait causer. L'intérêt est très grand d'éviter les dégâts, comparé au moindre mal qu'il y aurait si je le gêne en regardant dans son téléphone pour découvrir qu'il ne faisait que jouer à Farmville -- c'est écrasé par l'utilité d'examiner son téléphone. Si vous pensez comme cela, c'est un choix utilitariste.
But maybe you don't feel that way either. Maybe you think, it's his phone. It's wrong to take his phone because he's a person and he has rights and he has dignity, and we can't just interfere with that. He has autonomy. It doesn't matter what the calculations are. There are things that are intrinsically wrong -- like lying is wrong, like torturing innocent children is wrong. Kant was very good on this point, and he said it a little better than I'll say it. He said we should use our reason to figure out the rules by which we should guide our conduct, and then it is our duty to follow those rules. It's not a matter of calculation.
Mais peut-être que vous ne pensez pas non plus comme ça. Peut-être que vous vous dites : c'est son téléphone. C'est mal de prendre son téléphone, parce que c'est un individu et il a des droits et il a une dignité, et nous ne pouvons pas interférer avec ça. Il est autonome. Peut importe les calculs. Ces choses sont intrinsèquement mauvaises -- comme mentir est mal, de même que torturer des enfants innocents est mal. Kant était vraiment bon sur ce sujet, et il le disait un peu mieux que je vais le dire. Il disait que nous devrions utiliser notre raison pour décider des règles selon lesquelles nous devrions orienter notre conduite. Il est ensuite de notre devoir de suivre ces règles. Ça n'a rien à voir avec des calculs.
So let's stop. We're right in the thick of it, this philosophical thicket. And this goes on for thousands of years, because these are hard questions, and I've only got 15 minutes. So let's cut to the chase. How should we be making our decisions? Is it Plato, is it Aristotle, is it Kant, is it Mill? What should we be doing? What's the answer? What's the formula that we can use in any situation to determine what we should do, whether we should use that guy's data or not? What's the formula? There's not a formula. There's not a simple answer.
Arrêtons-nous. Nous sommes au cœur de cet enchevêtrement philosophique. Et le débat perdure depuis des milliers d'années, parce que ce sont des questions difficiles, et je n'ai que 15 minutes. Alors allons droit au but. Comment devrions-nous prendre nos décisions ? Selon Platon, en accord avec Aristote, ou bien Kant, ou Mill ? Que devrions-nous faire ? Quelle est la réponse ? Quelle est la formule que nous pouvons utiliser dans n'importe quelle situation pour déterminer ce que nous devrions faire ? Si nous devrions utiliser les données de ce type ou pas ? Quelle est la formule ? Il n'y a pas de formule. Il n'y a pas de réponse simple.
Ethics is hard. Ethics requires thinking. And that's uncomfortable. I know; I spent a lot of my career in artificial intelligence, trying to build machines that could do some of this thinking for us, that could give us answers. But they can't. You can't just take human thinking and put it into a machine. We're the ones who have to do it. Happily, we're not machines, and we can do it. Not only can we think, we must. Hannah Arendt said, "The sad truth is that most evil done in this world is not done by people who choose to be evil. It arises from not thinking." That's what she called the "banality of evil." And the response to that is that we demand the exercise of thinking from every sane person.
L'éthique, c'est difficile. L'éthique exige une réflexion. C'est inconfortable. Je sais ; j'ai passé une grande partie de ma carrière dans l'intelligence artificielle, à essayer de construire des machines qui puissent réfléchir là-dessus pour nous, qui puissent nous donner des réponses. Mais elles ne le peuvent pas. Vous ne pouvez pas simplement prendre la pensée humaine et la mettre dans une machine. Nous devons le faire par nous-mêmes. Heureusement, nous ne sommes pas des machines, et nous pouvons le faire. Nous pouvons non seulement penser, mais nous le devons. Hannah Arendt disait : « La triste vérité est que la plupart du mal fait en ce monde n'est pas fait par des gens qui ont choisi de faire le mal. Il surgit de l'inexistence d'une réflexion. » C'est ce qu'elle appelait « la banalité du mal. » La réponse à cela est que nous réclamons l'exercice de pensée à toute personne sensée.
So let's do that. Let's think. In fact, let's start right now. Every person in this room do this: think of the last time you had a decision to make where you were worried to do the right thing, where you wondered, "What should I be doing?" Bring that to mind, and now reflect on that and say, "How did I come up that decision? What did I do? Did I follow my gut? Did I have somebody vote on it? Or did I punt to legal?" Or now we have a few more choices. "Did I evaluate what would be the highest pleasure like Mill would? Or like Kant, did I use reason to figure out what was intrinsically right?" Think about it. Really bring it to mind. This is important. It is so important we are going to spend 30 seconds of valuable TEDTalk time doing nothing but thinking about this. Are you ready? Go.
Faisons-donc cela. Pensons. En fait, commençons dès maintenant. Tout le monde dans la salle : pensez à la dernière fois que vous avez dû prendre une décision où vous étiez préoccupés de faire ce qui est juste, où vous vous êtes demandés : « Que devrais-je faire ? » Pensez à cela. Réfléchissez maintenant à cela et demandez-vous : « Comment ais-je pris cette décision ? Qu'est-ce que j'ai fait ? Est-ce que j'ai suivi mon instinct ? Est-ce que j'ai fait procéder à un vote ? Ou est-ce que j'ai fait appel au service juridique ? » Ou bien nous avons d'autres choix maintenant. « Est-ce que j'ai estimé ce qui procurerait le plus de plaisir, comme Mill l'aurait fait ? Ou comme Kant, ai-je utilisé ma raison pour décider de ce qui était intrinsèquement juste ? Pensez-y. Vraiment. C'est important. C'est si important que nous allons passer 30 précieuses secondes de mon intervention à TED à ne rien faire d'autre que d'y penser. Vous êtes prêts ? Allez-y.
Stop. Good work. What you just did, that's the first step towards taking responsibility for what we should do with all of our power.
Arrêtez. Bon travail. Ce que vous venez de faire, c'est le premier pas vers la prise de responsabilité concernant ce que nous devrions faire avec tout ce pouvoir.
Now the next step -- try this. Go find a friend and explain to them how you made that decision. Not right now. Wait till I finish talking. Do it over lunch. And don't just find another technologist friend; find somebody different than you. Find an artist or a writer -- or, heaven forbid, find a philosopher and talk to them. In fact, find somebody from the humanities. Why? Because they think about problems differently than we do as technologists. Just a few days ago, right across the street from here, there was hundreds of people gathered together. It was technologists and humanists at that big BiblioTech Conference. And they gathered together because the technologists wanted to learn what it would be like to think from a humanities perspective. You have someone from Google talking to someone who does comparative literature. You're thinking about the relevance of 17th century French theater -- how does that bear upon venture capital? Well that's interesting. That's a different way of thinking. And when you think in that way, you become more sensitive to the human considerations, which are crucial to making ethical decisions.
La prochaine étape : essayez ceci. Allez trouver un ami et expliquez-lui comment vous avez pris cette décision. Pas tout de suite. Attendez que j'ai terminé de parler. Faites-le au déjeuner. N'allez pas simplement trouver un autre ami technologue ; trouvez quelqu'un de différent. Trouvez un artiste ou un écrivain -- ou, Dieu vous en préserve, trouvez un philosophe et parlez leur. En fait, trouvez quelqu'un dans les sciences humaines. Pourquoi ? Parce qu'ils pensent aux problèmes d'une manière différente à nous les technologues. Il y a juste quelques jours, de l'autre côté de la rue ici, il y avait un rassemblement de centaines de personnes. C'était des technologues et des humanistes à la grande BiblioTech Conférence. Ils étaient rassemblés parce que les technologues voulaient apprendre ce que cela faisait de penser du point de vue des sciences sociales. Vous avez quelqu'un de chez Google qui parle à quelqu'un qui fait de la littérature comparée. Vous vous demandez quel est l'intérêt du théâtre français du 17ème siècle -- quel est le lien avec le capital-risque ? Eh bien, c'est intéressant. C'est une manière de penser différente. Quand vous pensez de cette façon, vous devenez plus sensible aux considérations humaines, ce qui est crucial pour prendre des décisions éthiques.
So imagine that right now you went and you found your musician friend. And you're telling him what we're talking about, about our whole data revolution and all this -- maybe even hum a few bars of our theme music. ♫ Dum ta da da dum dum ta da da dum ♫ Well, your musician friend will stop you and say, "You know, the theme music for your data revolution, that's an opera, that's Wagner. It's based on Norse legend. It's Gods and mythical creatures fighting over magical jewelry." That's interesting. Now it's also a beautiful opera, and we're moved by that opera. We're moved because it's about the battle between good and evil, about right and wrong. And we care about right and wrong. We care what happens in that opera. We care what happens in "Apocalypse Now." And we certainly care what happens with our technologies.
Imaginez maintenant que vous avez trouvé votre ami musicien. Vous lui racontez ce dont on parle, sur notre révolution des données et tout ça -- vous fredonnez peut-être quelques notes de notre thème musical. ♫ Dum ta da da dum dum ta da da dum ♫ Votre ami musicien va vous interrompre et vous dire : « Tu sais, le thème musical pour ta révolution des données, c'est un opéra, c'est Wagner. C'est basé sur une légende nordique. Ce sont des dieux et des créatures mythologiques qui se battent pour des bijoux magiques. » C'est intéressant. C'est aussi un magnifique opéra. Nous sommes émus par cet opéra. Nous sommes émus parce que c'est sur la bataille entre le bien et le mal, le juste et l'injuste. Et nous nous préoccupons du juste et de l'injuste. Nous nous soucions de ce qui se passe dans cet opéra. Nous nous soucions de ce qui se passe dans "Apocalypse Now". Et nous nous préoccupons certainement de ce qui se passe avec nos technologies.
We have so much power today, it is up to us to figure out what to do, and that's the good news. We're the ones writing this opera. This is our movie. We figure out what will happen with this technology. We determine how this will all end.
Nous avons tant de pouvoir aujourd'hui, ça ne dépend que de nous de savoir ce qu'on en fait. C'est la bonne nouvelle. Nous sommes ceux qui écrivent cet opéra. C'est notre film. Nous décidons ce qui va arriver avec cette technologie. Nous déterminons comment tout cela va finir.
Thank you.
Merci.
(Applause)
(Applaudissements)