Power. That is the word that comes to mind. We're the new technologists. We have a lot of data, so we have a lot of power. How much power do we have? Scene from a movie: "Apocalypse Now" -- great movie. We've got to get our hero, Captain Willard, to the mouth of the Nung River so he can go pursue Colonel Kurtz. The way we're going to do this is fly him in and drop him off. So the scene: the sky is filled with this fleet of helicopters carrying him in. And there's this loud, thrilling music in the background, this wild music. ♫ Dum da ta da dum ♫ ♫ Dum da ta da dum ♫ ♫ Da ta da da ♫ That's a lot of power. That's the kind of power I feel in this room. That's the kind of power we have because of all of the data that we have.
Putere. Acesta este cuvântul care îmi vine în minte. Suntem noii tehnologi. Avem multă informație, așadar avem multă putere. Cât de multă putere avem? Scenă dintr-un film: ”Apocalipsa acum” -- grozav film. Trebuie să îl aducem pe eroul nostru, căpitanul Willard, la gura râului Nung pentru a-l putea urmări pe col. Kurtz.. Modul în care vom face acest lucru este să-l aducem în zbor și să-l aducem acolo. Așadar scena: cerul este acoperit de o flotă de elicoptere ce îl transportă. Și este această muzică zgomotoasă, captivantă pe fundal, o muzică sălbatică. ♫ Dum da ta da dum ♫ ♫ Dum da ta da dum ♫ ♫ Da ta da da ♫ Asta înseamnă multă putere. Acesta este tipul de putere pe care îl simt în această încăpere. Acesta este tipul de putere pe care îl avem datorită tuturor informațiilor pe care le avem.
Let's take an example. What can we do with just one person's data? What can we do with that guy's data? I can look at your financial records. I can tell if you pay your bills on time. I know if you're good to give a loan to. I can look at your medical records; I can see if your pump is still pumping -- see if you're good to offer insurance to. I can look at your clicking patterns. When you come to my website, I actually know what you're going to do already because I've seen you visit millions of websites before. And I'm sorry to tell you, you're like a poker player, you have a tell. I can tell with data analysis what you're going to do before you even do it. I know what you like. I know who you are, and that's even before I look at your mail or your phone.
Să luăm un exemplu. Ce putem face cu datele unei singure persoane? Ce putem facem cu datele acelui tip? Pot să vă cercetez trecutul financiar. Pot să vă spun dacă plătiți facturile la timp. Știu dacă vă calificați pentru un împrumut . Pot să vă analizez istoria medicală, pot să aflu în ce stare vă este inima -- pentru a decide dacă merită să vă ofer asigurare. Pot să analizez modelul clicurilor. Când îmi vizitaţi website-ul, chiar ştiu deja ce o să faceţi, pentru că v-am mai văzut vizitând milioane de website-uri. Şi regret să vă spun, sunteţi ca un jucător de pocher, sunteţi transparent. Analizând informaţiile, vă pot spune ce urmează să faceţi înainte chiar de a acţiona. Ştiu ce vă place. Ştiu cine sunteţi. Şi asta chiar înainte de a vă vedea mail-ul sau telefonul.
Those are the kinds of things we can do with the data that we have. But I'm not actually here to talk about what we can do. I'm here to talk about what we should do. What's the right thing to do?
Astfel de lucruri putem face cu informaţiile pe care le avem. Dar nu sunt aici pentru a vă vorbi despre ce putem face. Sunt aici pentru a vorbi despre ce ar trebui să facem. Ce e bine să facem?
Now I see some puzzled looks like, "Why are you asking us what's the right thing to do? We're just building this stuff. Somebody else is using it." Fair enough. But it brings me back. I think about World War II -- some of our great technologists then, some of our great physicists, studying nuclear fission and fusion -- just nuclear stuff. We gather together these physicists in Los Alamos to see what they'll build. We want the people building the technology thinking about what we should be doing with the technology.
Acum văd unele priviri nedumerite de genul, "De ce ne întrebi ce e bine să facem? Noi doar fabricăm aceste lucruri. Alţii le folosesc." Corect. Dar, îmi provoacă amintiri. Mă gândesc la al Doilea Război Mondial - atunci, unii dintre cei mai buni tehnologi de-ai noștri, unii dintre cei mai buni fizicieni de-ai noştri, au studiat fisiunea şi fuziunea nucleară-- doar chestii nucleare. Îi reunim pe aceşti fizicieni în Los Alamos pentru a vedea ce au construit. Dorim ca persoanele care construiesc tehnologia să se gândească la ce ar trebui să facem cu tehnologia.
So what should we be doing with that guy's data? Should we be collecting it, gathering it, so we can make his online experience better? So we can make money? So we can protect ourselves if he was up to no good? Or should we respect his privacy, protect his dignity and leave him alone? Which one is it? How should we figure it out?
Deci ce ar trebui să facem cu informaţiile acelui tip? Ar trebui să le preluăm, să le adunăm, pentru a-i înbunătăţi experienţa online? Pentru ca să câştigăm bani? Pentru a ne putea apăra dacă se dovedeşte că nu are intenţii bune? Sau trebuie să-i respectăm intimitatea, să-i protejăm demnitatea şi să-l lăsăm în pace? Ce variantă să alegem? Cum ne dăm seama ce să facem?
I know: crowdsource. Let's crowdsource this. So to get people warmed up, let's start with an easy question -- something I'm sure everybody here has an opinion about: iPhone versus Android. Let's do a show of hands -- iPhone. Uh huh. Android. You'd think with a bunch of smart people we wouldn't be such suckers just for the pretty phones. (Laughter) Next question, a little bit harder. Should we be collecting all of that guy's data to make his experiences better and to protect ourselves in case he's up to no good? Or should we leave him alone? Collect his data. Leave him alone. You're safe. It's fine. (Laughter) Okay, last question -- harder question -- when trying to evaluate what we should do in this case, should we use a Kantian deontological moral framework, or should we use a Millian consequentialist one? Kant. Mill. Not as many votes. (Laughter) Yeah, that's a terrifying result. Terrifying, because we have stronger opinions about our hand-held devices than about the moral framework we should use to guide our decisions.
Ştiu: sondajul de opinie. Haideţi să-l aplicăm asupra acestui lucru. Ca să-i pregătim pe oameni, să începem cu o întrebare simplă-- despre un lucru asupra căruia sunt sigur că toată lumea are o opinie: IPhone versus Android. Să votăm -- pentru iPhone. Uh huh. Android. V-aţi gândi că un grup de oameni inteligenţi ca acesta nu ar fi interesat de asemenea aiureli folositoare telefoanelor frumoase. (Râsete) Următoarea întrebare, un pic mai dificilă. Trebuie să adunăm toate datele despre acel tip pentru a-i îmbunătăţi experienţa şi a ne proteja dacă se dovedeşte că nu are intenţii bune? Sau ar trebui să -l lăsăm în pace? Să-i adunăm datele. Să-l lăsăm în pace. Eşti în siguranţă. E în regulă. (Râsete) Ok, ultima întrebare -- întrebarea cea mai dificilă-- când încercăm să evaluăm ceea ce ar trebui să facem în acest caz, ar trebui să utilizăm un model moral deontologic kantian, sau ar trebui să utilizăm o teorie subsecventă milliană? Kant. Mill. Nu chiar atât de multe voturi. (Râsete) Da, e un rezultat terifiant. Terifiant, pentru că avem păreri mai puternice despre dispozitivele noastre manuale decât despre cadrul moral pe care ar trebui să-l folosim în luarea deciziilor.
How do we know what to do with all the power we have if we don't have a moral framework? We know more about mobile operating systems, but what we really need is a moral operating system. What's a moral operating system? We all know right and wrong, right? You feel good when you do something right, you feel bad when you do something wrong. Our parents teach us that: praise with the good, scold with the bad. But how do we figure out what's right and wrong? And from day to day, we have the techniques that we use. Maybe we just follow our gut. Maybe we take a vote -- we crowdsource. Or maybe we punt -- ask the legal department, see what they say. In other words, it's kind of random, kind of ad hoc, how we figure out what we should do. And maybe, if we want to be on surer footing, what we really want is a moral framework that will help guide us there, that will tell us what kinds of things are right and wrong in the first place, and how would we know in a given situation what to do.
Cum ştim să ne folosim de toată puterea pe care o avem dacă nu avem un cadru moral? Ştim mai mult despre sistemele de operare ale telefoanelor mobile, dar avem de fapt nevoie de un sistem de operare moral. Ce este un sistem de operare moral? Cu toţii cunoaştem binele şi răul . Vă simţiţi bine când faceţi un lucru bun vă simţiţi rău când faceţi un lucru rău. Părinţii nostri ne învaţă că lauda este pentru bine, mustrarea pentru rău. Dar cum distingem binele de rău? Pe zi ce trece, avem tehnici pe care le folosim. Poate ne urmăm instinctul. Poate votăm- facem un sondaj de opinie. Sau poate pariem- întrebaţi departamentul juridic, vedeţi ce spun ei. Cu alte cuvinte e aleatoriu, cam ad hoc, felul în care ne dăm seama ce ar trebui să facem. Şi poate, dacă vrem să fim mai siguri, ceea ce realmente vrem este un cadru moral care ne va ajuta să ajungem acolo, care ne va spune din start ce fel de lucruri sunt bune şi rele şi cum vom şti ce să facem într-o anumită situaţie.
So let's get a moral framework. We're numbers people, living by numbers. How can we use numbers as the basis for a moral framework? I know a guy who did exactly that. A brilliant guy -- he's been dead 2,500 years. Plato, that's right. Remember him -- old philosopher? You were sleeping during that class. And Plato, he had a lot of the same concerns that we did. He was worried about right and wrong. He wanted to know what is just. But he was worried that all we seem to be doing is trading opinions about this. He says something's just. She says something else is just. It's kind of convincing when he talks and when she talks too. I'm just going back and forth; I'm not getting anywhere. I don't want opinions; I want knowledge. I want to know the truth about justice -- like we have truths in math. In math, we know the objective facts. Take a number, any number -- two. Favorite number. I love that number. There are truths about two. If you've got two of something, you add two more, you get four. That's true no matter what thing you're talking about. It's an objective truth about the form of two, the abstract form. When you have two of anything -- two eyes, two ears, two noses, just two protrusions -- those all partake of the form of two. They all participate in the truths that two has. They all have two-ness in them. And therefore, it's not a matter of opinion.
Aşa că, haideţi să dobândim un cadru moral. Suntem un număr de oameni care se ghidează după numere. Cum putem folosi numerele ca bază pentru un cadru moral? Cunosc un tip care tocmai asta a făcut. Un tip extraordinar- care e mort de 2500 de ani. Platon, corect. Vi-l amintiţi - bătrânul filosof? Aţi dormit la acel curs. Şi Platon, a avut aceleaşi preocupări ca şi noi. S-a preocupat de ceea ce e bine şi rău. A vrut să ştie ce este corect. Dar a fost îngrijorat că tot ceea ce facem de fapt este să schimbăm opinii despre asta. El spune că ceva este corect. Ea spune că altceva este corect. E cam convingător ceea ce spune el şi, la fel, ceea ce spune ea. Merg înainte şi înapoi. Nu vreau păreri, vreau cunoaştere. Vreau să aflu adevărul despre dreptate - asemănător adevărului matematic. În matematică cunoaştem datele obiective. Luaţi un număr, orice număr - doi. Numărul favorit. Iubesc acest număr. Există adevăruri despre doi. Dacă aveţi două lucruri, mai adăugaţi două, aveţi patru. E adevărat indiferent despre ce lucru este vorba Este un adevăr obiectiv despre forma lui doi, forma abstractă. Când aveţi oricare două lucruri - doi ochi, două urechi, două nasuri, doar două proeminenţe - acestea toate fac parte din forma lui doi. Toate fac parte din adevărul lui doi. Toate au doi-ul în ele. De aceea nu este o chestiune de opinie.
What if, Plato thought, ethics was like math? What if there were a pure form of justice? What if there are truths about justice, and you could just look around in this world and see which things participated, partook of that form of justice? Then you would know what was really just and what wasn't. It wouldn't be a matter of just opinion or just appearances. That's a stunning vision. I mean, think about that. How grand. How ambitious. That's as ambitious as we are. He wants to solve ethics. He wants objective truths. If you think that way, you have a Platonist moral framework.
Ce ar fi, dacă Platon ar fi crezut că etica este ca matematica? Ce ar fi dacă ar exista o formă pură de dreptate? Ce ar fi dacă există adevăruri despre dreptate, şi puteţi arunca o privire acestei lumi şi să vedeţi care lucruri au participat, au împărtăşit acea formă de dreptate? Atunci aţi şti ce era cu adevărat corect şi ce nu. Nu ar fi doar o chestiune de opinie sau imagine. Este o viziune uluitoare. Vrea să spun, gândiţi-vă la asta. Ce măreţ. Ce ambiţios. Atât de ambiţioşi suntem. El vrea să rezolve probleme etice. El vrea adevăruri obiective. Dacă gândiţi astfel, aveţi un cadru moral platonician.
If you don't think that way, well, you have a lot of company in the history of Western philosophy, because the tidy idea, you know, people criticized it. Aristotle, in particular, he was not amused. He thought it was impractical. Aristotle said, "We should seek only so much precision in each subject as that subject allows." Aristotle thought ethics wasn't a lot like math. He thought ethics was a matter of making decisions in the here-and-now using our best judgment to find the right path. If you think that, Plato's not your guy. But don't give up. Maybe there's another way that we can use numbers as the basis of our moral framework.
Dacă nu gândiţi astfel, ei bine, aveţi mulţi colegi în istoria filosofiei occidentale, pentru că cea mai curată idee - ştiţi, este criticată de oameni. Aristotel, mai ales, nu a fost amuzat. A considerat că nu este practică. Aristotel a spus, "Ar trebui să căutăm numai atâta precizie în fiecare subiect câtă acel subiect ne permite." Aristotel credea că etica nu prea semăna cu matematica. Credea că etica ţine de luarea deciziilor aici şi acum folosindu-ne de raţionamentul cel mai bun pentru găsirea căii corecte. Dacă gândiţi aşa, Platon nu este omul vostru. Dar nu renunţaţi. Poate există o altă cale prin care putem folosi numerele ca bază a cadrului nostru moral.
How about this: What if in any situation you could just calculate, look at the choices, measure out which one's better and know what to do? That sound familiar? That's a utilitarian moral framework. John Stuart Mill was a great advocate of this -- nice guy besides -- and only been dead 200 years. So basis of utilitarianism -- I'm sure you're familiar at least. The three people who voted for Mill before are familiar with this. But here's the way it works. What if morals, what if what makes something moral is just a matter of if it maximizes pleasure and minimizes pain? It does something intrinsic to the act. It's not like its relation to some abstract form. It's just a matter of the consequences. You just look at the consequences and see if, overall, it's for the good or for the worse. That would be simple. Then we know what to do.
Ce ziceţi de asta: Ce ar fi ca în orice situaţie să puteţi calcula, analiza opţiunile, cântări care este cea mai bună şi să ştiţi ce să faceţi? Vă sună cunoscut? Este un cadru moral utilitarist. John Stuart Mill era un susţinător înfocat al acestuia - un tip de treabă de altfel - şi mort de 200 de ani. Deci bazele utilitarismului - sunt sigur că sunteţi cel puţin familiarizaţi. Cele trei persoane care au votat cu Mill înainte să se familiarizeze cu acesta. Dar iată cum funcţionează. Ce ar fi dacă morala, ce ar fi dacă ceea ce face un lucru moral este doar o chestiune de a-i maximiza plăcerea şi a minimiza durerea? Face ceva intrinsec actului. Nu se aseamănă cu relaţia sa cu o formă abstractă. E o chestiune legată de consecinţe. Vă uitaţi la consecinţe şi vedeţi dacă, în mare, este înspre bine sau înspre rău. Asta ar fi simplu. Atunci ştim ce să facem.
Let's take an example. Suppose I go up and I say, "I'm going to take your phone." Not just because it rang earlier, but I'm going to take it because I made a little calculation. I thought, that guy looks suspicious. And what if he's been sending little messages to Bin Laden's hideout -- or whoever took over after Bin Laden -- and he's actually like a terrorist, a sleeper cell. I'm going to find that out, and when I find that out, I'm going to prevent a huge amount of damage that he could cause. That has a very high utility to prevent that damage. And compared to the little pain that it's going to cause -- because it's going to be embarrassing when I'm looking on his phone and seeing that he has a Farmville problem and that whole bit -- that's overwhelmed by the value of looking at the phone. If you feel that way, that's a utilitarian choice.
Haideţi să luăm un exemplu. Să presupunem că mă trezesc şi vă spun, "Vă voi lua telefonul." Nu doar pentru că a sunat mai devreme, dar îl voi lua pentru că am calculat puţin. Mi s-a părut că acel tip arată suspect. Şi dacă transmite mesaje scurte ascunzătorii lui Bin Laden - sau celui care a preluat conducerea după Bin Laden - şi este de fapt un fel de terorist, o celulă. Voi afla acel lucru, şi când îl voi afla, voi preveni un număr mare de distrugeri pe care le-ar putea cauza. Aceasta are o utilitate crescută în prevenirea distrugerilor. Şi în comparaţie cu puţina durere pe care o va cauza - pentru că va fi jenant când mă voi uita în telefonul lui şi voi vedea că are o problemă legată de Farmville - este copleşitor din perspectiva valorii de a te uita la un telefon. Dacă asta simţiţi, aceasta este o alegere utilitaristă.
But maybe you don't feel that way either. Maybe you think, it's his phone. It's wrong to take his phone because he's a person and he has rights and he has dignity, and we can't just interfere with that. He has autonomy. It doesn't matter what the calculations are. There are things that are intrinsically wrong -- like lying is wrong, like torturing innocent children is wrong. Kant was very good on this point, and he said it a little better than I'll say it. He said we should use our reason to figure out the rules by which we should guide our conduct, and then it is our duty to follow those rules. It's not a matter of calculation.
Dar poate că nu sunteţi de acord nici cu asta. Poate vă gândiţi, este telefonul lui. E greşit să-i iau telefonul, pentru că e o persoană şi are drepturi şi demnitate, şi nu putem să ne amestecăm în asta. Are autonomie. Nu contează care sunt calculele. Există lucruri care sunt intrinsec greşite - cum ar fi minciuna care este rea, cum ar fi torturarea copiilor nevinovaţi, care este un lucru rău. Kant era foarte bun în această privinţă, iar el a spus-o puţin mai bine decât o voi spune eu. A spus că ar trebui să ne folosim raţiunea pentru a găsi regulile după care să ne ghidăm conduita. Şi apoi este datoria noastră să respectăm acele reguli. Nu este o chestiune de calcul.
So let's stop. We're right in the thick of it, this philosophical thicket. And this goes on for thousands of years, because these are hard questions, and I've only got 15 minutes. So let's cut to the chase. How should we be making our decisions? Is it Plato, is it Aristotle, is it Kant, is it Mill? What should we be doing? What's the answer? What's the formula that we can use in any situation to determine what we should do, whether we should use that guy's data or not? What's the formula? There's not a formula. There's not a simple answer.
Deci, să ne oprim. Avem dreptate în profunzime, această profunzime filosofică. Şi acest lucru se repetă de o mie de ani, pentru că acestea sunt întrebări dificile, şi eu am la dispoziţie doar 15 minute. Deci să trecem la subiect. Cum ar trebui să luăm deciziile? Ca Platon, Aristotel, Kant sau Mill? Ce ar trebui să facem? Care este răspunsul? Care este formula pe care o putem folosi în orice situaţie pentru a determina ceea ce trebuie să facem, ar trebui să folosim informaţiile acelui tip sau nu? Care este formula? Nu există formulă. Nu există un răspuns simplu.
Ethics is hard. Ethics requires thinking. And that's uncomfortable. I know; I spent a lot of my career in artificial intelligence, trying to build machines that could do some of this thinking for us, that could give us answers. But they can't. You can't just take human thinking and put it into a machine. We're the ones who have to do it. Happily, we're not machines, and we can do it. Not only can we think, we must. Hannah Arendt said, "The sad truth is that most evil done in this world is not done by people who choose to be evil. It arises from not thinking." That's what she called the "banality of evil." And the response to that is that we demand the exercise of thinking from every sane person.
Etica este grea. Etica presupune gândire. Şi acesta nu este un lucru confortabil. Ştiu, mi-am petrecut mult timp din carieră în inteligenţa artificială, încercând să construiesc maşini care ar putea să gândească pentru noi, care ar putea să ne ofere răspunsuri. Dar nu pot. Nu puteţi doar să luați gândirea umană şi să o puneți într-o maşină. Noi suntem cei care trebuie s-o facem. Din fericire, nu suntem maşini, şi putem s-o facem. Nu numai că putem raționa, dar trebuie să raționăm. Hannah Arendt a spus, "Tristul adevăr este că cea mai mare parte a răului făcut în această lume nu este făcut de oameni care aleg să fie răi. Provine din faptul că nu gândim." Asta numeşte ea "banalitatea răului." Şi răspunsul la asta este că cerem exercițiul gândirii fiecărei persoane normale.
So let's do that. Let's think. In fact, let's start right now. Every person in this room do this: think of the last time you had a decision to make where you were worried to do the right thing, where you wondered, "What should I be doing?" Bring that to mind, and now reflect on that and say, "How did I come up that decision? What did I do? Did I follow my gut? Did I have somebody vote on it? Or did I punt to legal?" Or now we have a few more choices. "Did I evaluate what would be the highest pleasure like Mill would? Or like Kant, did I use reason to figure out what was intrinsically right?" Think about it. Really bring it to mind. This is important. It is so important we are going to spend 30 seconds of valuable TEDTalk time doing nothing but thinking about this. Are you ready? Go.
Deci, haideți să facem asta. Haideți să gândim. De fapt, haideți să începem chiar acum. Fiecare persoană din această încăpere să facă asta: gândiți-vă la ultima dată când a trebuit să luați o decizie când a face lucru corect vă îngrijora, când v-ați întrebat, "Ce ar trebui să fac?" Aduceți-vă aminte. Şi acum reflectați la acel lucru şi spuneți, "Cum am ajuns la această decizie? Ce am făcut? Mi-am urmat instinctul? Am pus pe cineva să voteze decizia? Sau am mizat pe drept?" Acum avem puțin mai multe alegeri. "Am evaluat care ar fi cea mai mare plăcere cum ar fi făcut Mill? Sau asemenea lui Kant, am folosit rațiunea pentru a afla ceea ce intrinsec este bine? Gândiți-vă. Chiar amintiți-vă. Este important. Este atât de important încât vom folosi 30 de secunde prețioase din timpul TEDTalks nefăcând altceva decât gândindu-ne la asta. Sunteți pregătiți? Începeți.
Stop. Good work. What you just did, that's the first step towards taking responsibility for what we should do with all of our power.
Opriți-vă. Foarte bine. Ceea ce tocmai ați făcut este primul pas în asumarea responsabilității pentru ceea ce ar trebui să facem cu toată puterea noastră.
Now the next step -- try this. Go find a friend and explain to them how you made that decision. Not right now. Wait till I finish talking. Do it over lunch. And don't just find another technologist friend; find somebody different than you. Find an artist or a writer -- or, heaven forbid, find a philosopher and talk to them. In fact, find somebody from the humanities. Why? Because they think about problems differently than we do as technologists. Just a few days ago, right across the street from here, there was hundreds of people gathered together. It was technologists and humanists at that big BiblioTech Conference. And they gathered together because the technologists wanted to learn what it would be like to think from a humanities perspective. You have someone from Google talking to someone who does comparative literature. You're thinking about the relevance of 17th century French theater -- how does that bear upon venture capital? Well that's interesting. That's a different way of thinking. And when you think in that way, you become more sensitive to the human considerations, which are crucial to making ethical decisions.
Acum următorul pas - încercați asta. Găsiți-vă un prieten şi explicați-i cum ați luat decizia. Nu chiar acum. Aşteptați până termin conferința. Faceți-o la prânz. Şi nu vă găsiți un alt prieten tehnolog; găsiți pe cineva diferit de voi. Găsiți-vă un artist sau un scriitor - sau, pentru Dumnezeu, găsiți-vă un filosof şi vorbiți cu el. De fapt, găsiți pe cineva din ştiințele umane. De ce? Pentru că ei se gândesc la probleme diferit de noi tehnologii. Acum câteva zile, peste drum de noi, erau sute de oameni adunați. Erau tehnologi şi umanişti la acea mare Conferință BiblioTech. Şi s-au reunit pentru că tehnologii doreau să afle cum ar fi să gândeşti din perspectiva ştiințelor umaniste. Aveți pe cineva de pe Google care vorbeşte cu cineva care se ocupă cu literatura comparată. Vă gândiți la relevanța teatrului francez din secolul al-XVII-lea - cum afectează asta capitalul de risc? Ei bine, e interesant. E o altfel de gândire. Şi când gândeşti în acest fel devii mai sensibil la părerile oamenilor, care sunt cruciale în luarea deciziilor etice.
So imagine that right now you went and you found your musician friend. And you're telling him what we're talking about, about our whole data revolution and all this -- maybe even hum a few bars of our theme music. ♫ Dum ta da da dum dum ta da da dum ♫ Well, your musician friend will stop you and say, "You know, the theme music for your data revolution, that's an opera, that's Wagner. It's based on Norse legend. It's Gods and mythical creatures fighting over magical jewelry." That's interesting. Now it's also a beautiful opera, and we're moved by that opera. We're moved because it's about the battle between good and evil, about right and wrong. And we care about right and wrong. We care what happens in that opera. We care what happens in "Apocalypse Now." And we certainly care what happens with our technologies.
Deci, imaginaţi-vă că în acest moment aţi plecat şi v-aţi găsit prietenul muzician. Şi îi povestiţi discuţia noastră despre întreaga revoluţie a informaţiilor şi toate acestea - poate chiar îi fredonaţi câteva note ale temei noastre muzicale. ♫ Dum ta da da dum dum ta da da dum♫ Ei bine, prietenul vostru muzician o să vă oprească şi va spune, "Ştii, tema muzicală pentru revoluţia informaţiilor, e o operă, e Wagner. E bazată pe legenda lui Norse. E vorba de zei şi creaturi mitice care se luptă pentru bijuterii magice. Interesant. Este şi o operă frumoasă. Suntem mişcaţi de acea operă. Suntem mişcaţi pentru că are ca subiect lupta dintre bine şi rău, dreptatea şi nedreptatea. Şi suntem preocupaţi de dreptate şi nedreptate. Ne pasă de ceea ce se petrece în această operă. Ne pasă de ce se petrece în "Apocalipsa prezentului." Şi, cu siguranţă, ne pasă de ceea ce se întâmplă cu tehnologia noastră.
We have so much power today, it is up to us to figure out what to do, and that's the good news. We're the ones writing this opera. This is our movie. We figure out what will happen with this technology. We determine how this will all end.
Avem atât de multă putere astăzi, depinde de noi să descoperim ce să facem. Şi aceasta este vestea bună. Noi suntem cei care scriu această operă. Acesta este filmul nostru. Noi descoperim ce se va întâmpla cu această tehnologie. Noi determinăm cum se vor termina toate acestea.
Thank you.
Mulţumesc.
(Applause)
(Aplauze)