Power. That is the word that comes to mind. We're the new technologists. We have a lot of data, so we have a lot of power. How much power do we have? Scene from a movie: "Apocalypse Now" -- great movie. We've got to get our hero, Captain Willard, to the mouth of the Nung River so he can go pursue Colonel Kurtz. The way we're going to do this is fly him in and drop him off. So the scene: the sky is filled with this fleet of helicopters carrying him in. And there's this loud, thrilling music in the background, this wild music. ♫ Dum da ta da dum ♫ ♫ Dum da ta da dum ♫ ♫ Da ta da da ♫ That's a lot of power. That's the kind of power I feel in this room. That's the kind of power we have because of all of the data that we have.
Potere. Questa è la parola che viene in mente. Noi siamo i nuovi tecnologi. Abbiamo molti dati, quindi abbiamo molto potere. Quanto potere abbiamo? Scena di un film: "Apocalypse Now" - gran bel film. Dobbiamo portare il nostro eroe, il Capitan Willard, alla foce del fiume Nung così che possa seguire le tracce del Colonnello Kurtz. Riusciremo a farlo trasportandolo in volo e facendolo scendere. Eccoci alla scena: il cielo è gremito dalla flotta di elicotteri incaricati di trasportarlo. C'è questa musica ad alto volume ed avvincente di sottofondo, questa musica selvaggia. ♫ Dum da ta da dum ♫ ♫ Dum da ta da dum ♫ ♫ Da ta da da ♫ Molto potente. Questo è il tipo di potenza che percepisco in questa sala. Questo è il tipo di potere che abbiamo grazie a tutti i dati di cui disponiamo.
Let's take an example. What can we do with just one person's data? What can we do with that guy's data? I can look at your financial records. I can tell if you pay your bills on time. I know if you're good to give a loan to. I can look at your medical records; I can see if your pump is still pumping -- see if you're good to offer insurance to. I can look at your clicking patterns. When you come to my website, I actually know what you're going to do already because I've seen you visit millions of websites before. And I'm sorry to tell you, you're like a poker player, you have a tell. I can tell with data analysis what you're going to do before you even do it. I know what you like. I know who you are, and that's even before I look at your mail or your phone.
Facciamo un esempio. Cosa possiamo fare con i dati di una sola persona? Cosa possiamo fare con i dati di quel ragazzo? Posso guardare i tuoi estratti conto. Posso dirti se paghi le bollette in tempo. So se posso concederti un prestito. Posso dare un'occhiata ai tuoi referti medici, vedere se il tuo cuore batte ancora - vedere se è conveniente assicurarti. Posso vedere come visiti i siti Internet. Quando visiti il mio sito, so già esattamente cosa farai, perché ti ho visto visitare altri milioni di siti prima del mio. E mi dispiace dirtelo, sei come un giocatore di poker, lanci dei segnali. Grazie all'analisi dei dati posso predire cosa farai prima ancora che tu lo faccia. So cosa ti piace. So chi sei. E questo anche prima che io dia un'occhiata alla tua posta o al tuo telefono.
Those are the kinds of things we can do with the data that we have. But I'm not actually here to talk about what we can do. I'm here to talk about what we should do. What's the right thing to do?
Quelle sono le cose che siamo in grado di fare con i dati a nostra disposizione. Ma in realtà non sono qui per parlarvi di ciò che possiamo fare. Sono qui per parlarvi di ciò che dovremmo fare. Qual è la cosa giusta da fare?
Now I see some puzzled looks like, "Why are you asking us what's the right thing to do? We're just building this stuff. Somebody else is using it." Fair enough. But it brings me back. I think about World War II -- some of our great technologists then, some of our great physicists, studying nuclear fission and fusion -- just nuclear stuff. We gather together these physicists in Los Alamos to see what they'll build. We want the people building the technology thinking about what we should be doing with the technology.
Ora vedo degli sguardi interrogativi tipo: "Perchè chiedi a noi quale sia la cosa giusta da fare? Noi mettiamo solo insieme questa roba. Qualcun altro la sta usando." Mi sembra giusto. Ma questo mi fa ricordare... Penso alla Seconda Guerra Mondiale - alcuni dei nostri più grandi tecnologi di allora, alcuni dei nostri più grandi fisici, che studiavano la fissione e fusione nucleare - solo roba nucleare. Noi riuniamo insieme questi fisici a Los Alamos per vedere cosa costruiranno. Vogliamo che le persone che creano la tecnologia pensino anche a come dovremmo utilizzarla.
So what should we be doing with that guy's data? Should we be collecting it, gathering it, so we can make his online experience better? So we can make money? So we can protect ourselves if he was up to no good? Or should we respect his privacy, protect his dignity and leave him alone? Which one is it? How should we figure it out?
Per cui cosa dovremmo farci con i dati di quel ragazzo? Dovremmo raccoglierli, metterli insieme, così da migliorare il tempo che passa su Internet? Così poterci guadagnare? Così da poterci proteggere nel caso facesse qualcosa di male? O dovremmo rispettare la sua privacy, proteggere la sua dignità e lasciarlo in pace? Quale dovremmo scegliere? Come facciamo a deciderlo?
I know: crowdsource. Let's crowdsource this. So to get people warmed up, let's start with an easy question -- something I'm sure everybody here has an opinion about: iPhone versus Android. Let's do a show of hands -- iPhone. Uh huh. Android. You'd think with a bunch of smart people we wouldn't be such suckers just for the pretty phones. (Laughter) Next question, a little bit harder. Should we be collecting all of that guy's data to make his experiences better and to protect ourselves in case he's up to no good? Or should we leave him alone? Collect his data. Leave him alone. You're safe. It's fine. (Laughter) Okay, last question -- harder question -- when trying to evaluate what we should do in this case, should we use a Kantian deontological moral framework, or should we use a Millian consequentialist one? Kant. Mill. Not as many votes. (Laughter) Yeah, that's a terrifying result. Terrifying, because we have stronger opinions about our hand-held devices than about the moral framework we should use to guide our decisions.
Lo so: sentiamo il pubblico. Sentiamo il pubblico a riguardo. Perciò per mettervi a vostro agio, cominciamo con una domanda semplice - qualcosa su cui tutti qui hanno di certo un'opinione: iPhone oppure Android. Alzate le mani - iPhone. Uh uh. Android. Penserete che con delle persone intelligenti non ci faremmo trarre in inganno solo dai cellulari belli all'apparenza. (Risate) Ok, prossima domanda, un po' più difficile. Dovremmo raccogliere tutti i dati di quel ragazzo per migliorare il tempo che trascorre su Internet e proteggerci nel caso in cui avesse cattive intenzioni? O dovremmo lasciarlo in pace? Raccogliere i suoi dati. Lasciarlo in pace. Sei fuori pericolo. Va tutto bene. (Risate) Ok, ultima domanda - più difficile - quando proviamo a valutare cosa dovremmo fare in questo caso, dovremmo utilizzare una struttura morale ispirata alla deontologia kantiana, o dovremmo usarne una consequenzialistica milliana? Kant. Mill. Non altrettanti voti. (Risate) Sì, è un risultato spaventoso. Spaventoso perché abbiamo opinioni più chiare rispetto ai nostri cellulari che non per la struttura morale di riferimento che dovremmo utilizzare per guidare le nostre decisioni.
How do we know what to do with all the power we have if we don't have a moral framework? We know more about mobile operating systems, but what we really need is a moral operating system. What's a moral operating system? We all know right and wrong, right? You feel good when you do something right, you feel bad when you do something wrong. Our parents teach us that: praise with the good, scold with the bad. But how do we figure out what's right and wrong? And from day to day, we have the techniques that we use. Maybe we just follow our gut. Maybe we take a vote -- we crowdsource. Or maybe we punt -- ask the legal department, see what they say. In other words, it's kind of random, kind of ad hoc, how we figure out what we should do. And maybe, if we want to be on surer footing, what we really want is a moral framework that will help guide us there, that will tell us what kinds of things are right and wrong in the first place, and how would we know in a given situation what to do.
Come possiamo sapere che farne di tutto il potere che abbiamo se non abbiamo una struttura morale? Ne sappiamo di più dei sistemi operativi dei cellulari, ma ciò che davvero ci occorre è un sistema operativo morale. Che cos'è un sistema operativo morale? Tutti sappiamo cosa è giusto e cosa è sbagliato, vero? Ci si sente bene quando si fa qualcosa di buono, ci si sente in colpa quando si fa qualcosa di sbagliato. I nostri genitori ci insegnano a: lodare il giusto, rimproverare l'errore. Ma come facciamo a distinguere tra giusto e sbagliato? Di giorno in giorno, abbiamo delle tecniche che utilizziamo. Forse usiamo semplicemente il nostro intuito. Forse la mettiamo ai voti - l'opinione della maggioranza. O forse ci affidiamo alla legge - chiediamo all'ufficio legale e vediamo che ne pensano. In altre parole, è un po' casuale, un po' improvvisato, il modo in cui decidiamo cosa sia meglio fare. E forse, se vogliamo avere basi per agire più solide, ciò che davvero vogliamo è una struttura morale che ci aiuti e ci indirizzi, che per prima cosa ci dica cosa è giusto e cosa è sbagliato, e come fare a sapere come comportarci in una determinata situazione.
So let's get a moral framework. We're numbers people, living by numbers. How can we use numbers as the basis for a moral framework? I know a guy who did exactly that. A brilliant guy -- he's been dead 2,500 years. Plato, that's right. Remember him -- old philosopher? You were sleeping during that class. And Plato, he had a lot of the same concerns that we did. He was worried about right and wrong. He wanted to know what is just. But he was worried that all we seem to be doing is trading opinions about this. He says something's just. She says something else is just. It's kind of convincing when he talks and when she talks too. I'm just going back and forth; I'm not getting anywhere. I don't want opinions; I want knowledge. I want to know the truth about justice -- like we have truths in math. In math, we know the objective facts. Take a number, any number -- two. Favorite number. I love that number. There are truths about two. If you've got two of something, you add two more, you get four. That's true no matter what thing you're talking about. It's an objective truth about the form of two, the abstract form. When you have two of anything -- two eyes, two ears, two noses, just two protrusions -- those all partake of the form of two. They all participate in the truths that two has. They all have two-ness in them. And therefore, it's not a matter of opinion.
Allora troviamo una struttura morale di riferimento. Siamo persone che usano i numeri, che vivono con i numeri. Come possiamo usare i numeri come base per una struttura morale di riferimento? Conosco un ragazzo che ha fatto esattamente questo. Un ragazzo brillante - è morto da 2.500 anni. Platone, esatto. Ve lo ricordate - il vecchio filosofo? Stavate dormendo in quella lezione? Platone, anche lui si è interrogato su molte delle domande che ci siamo posti noi. Anche lui meditava su cosa è giusto e cosa è sbagliato. Voleva sapere cosa fosse giusto. Ma temeva che tutto ciò che facciamo non fosse altro che scambiarci opinioni a riguardo. Secondo lui questo è giusto. Secondo lei è giusta un'altra cosa. Lui è piuttosto convincente quando parla... ..ma anche lei! Vado avanti e indietro; non sto andando da nessuna parte. Non voglio opinioni, voglio conoscenza. Voglio sapere la verità riguardo alla giustizia - come le verità che abbiamo in matematica. In matematica, abbiamo i fatti oggettivi. Prendete un numero, un numero qualsiasi - 2. Il mio numero preferito. Amo quel numero. Ci sono delle verità sul 2. Se avete 2 unità di qualcosa, e gliene aggiungete altre 2, ottenete 4. È vero a prescindere da qualsiasi sia l'ambito di discussione. È una verità oggettiva sulla forma del 2, la forma astratta. Quando avete 2 unità di qualsiasi cosa -- 2 occhi, 2 orecchie, 2 nasi, solo 2 protuberanze - tutte prendono parte alla forma del 2. Tutte condividono le verità che ha il 2. Hanno la du-alità in loro. E quindi, non si tratta di opinioni.
What if, Plato thought, ethics was like math? What if there were a pure form of justice? What if there are truths about justice, and you could just look around in this world and see which things participated, partook of that form of justice? Then you would know what was really just and what wasn't. It wouldn't be a matter of just opinion or just appearances. That's a stunning vision. I mean, think about that. How grand. How ambitious. That's as ambitious as we are. He wants to solve ethics. He wants objective truths. If you think that way, you have a Platonist moral framework.
Platone pensò: e se l'etica fosse come la matematica? E se ci fosse una forma pura di giustizia? E se ci fossero delle verità sulla giustizia, e ci si potesse semplicemente guardare attorno in questo mondo per vedere quali cose hanno preso parte a tali verità, hanno condiviso quella forma di giustizia? A quel punto si saprebbe cosa era realmente giusto e cosa non lo era. Non sarebbe un problema di opinioni o di impressioni su ciò che è giusto. È una visione che lascia di stucco. Voglio dire, pensateci. Quant'è grandioso, ambizioso. Tanto ambizioso quanto lo siamo noi. Vuole risolvere l'etica. Vuole verità oggettive. Se la pensate in quel modo, avete una struttura morale platonica.
If you don't think that way, well, you have a lot of company in the history of Western philosophy, because the tidy idea, you know, people criticized it. Aristotle, in particular, he was not amused. He thought it was impractical. Aristotle said, "We should seek only so much precision in each subject as that subject allows." Aristotle thought ethics wasn't a lot like math. He thought ethics was a matter of making decisions in the here-and-now using our best judgment to find the right path. If you think that, Plato's not your guy. But don't give up. Maybe there's another way that we can use numbers as the basis of our moral framework.
Se non la pensate in quel modo, beh, avete molta compagnia nella storia della filosofia occidentale, perché questa notevole idea - sapete, la gente l'ha criticata. Aristotele, in particolare, non ne era entusiasta. La riteneva poco pratica. Aristotele diceva, "Dovremmo richiedere in ciascun campo tanta precisione quanta ne permette la natura dell'oggetto". Aristotele pensava che l'etica non fosse come la matematica. Pensava che l'etica fosse più una questione legata al prendere decisioni al momento, usando il nostro giudizio per capire la giusta direzione da prendere. Se la pensate così, Platone non fa per voi. Ma non arrendetevi. Forse esiste un altro modo grazie a cui possiamo usare i numeri come base per il nostro sistema di riferimento morale.
How about this: What if in any situation you could just calculate, look at the choices, measure out which one's better and know what to do? That sound familiar? That's a utilitarian moral framework. John Stuart Mill was a great advocate of this -- nice guy besides -- and only been dead 200 years. So basis of utilitarianism -- I'm sure you're familiar at least. The three people who voted for Mill before are familiar with this. But here's the way it works. What if morals, what if what makes something moral is just a matter of if it maximizes pleasure and minimizes pain? It does something intrinsic to the act. It's not like its relation to some abstract form. It's just a matter of the consequences. You just look at the consequences and see if, overall, it's for the good or for the worse. That would be simple. Then we know what to do.
Cosa ne dite di questo: come sarebbe se in ogni situazione poteste semplicemente prevedere, vagliare le possibilità, giudicare quale sia la migliore e sapere cosa fare? Vi suona familiare? Questo è un sistema di riferimento utilitaristico. John Stuart Mill ne è stato un gran difensore - oltre ad essere un bravo ragazzo - ed è morto solo 200 anni fa. Almeno con le basi dell'utilitarismo sono sicuro che abbiate familiarità: le tre persone che prima hanno votato per Mill ne hanno familiarità. Ma ecco come funziona. Come sarebbe se la moralità, ciò che rende qualcosa morale, fosse solo una questione di massimizzazione del piacere e minimizzazione del dolore? È qualcosa di intrinseco all'azione. Non è come la relazione che intrattiene con qualche forma astratta. È solo una questione di conseguenze. Vagliate solo le conseguenze e giudicate se, in generale, propende per il meglio o il peggio. Sarebbe semplice. A quel punto sappiamo cosa fare.
Let's take an example. Suppose I go up and I say, "I'm going to take your phone." Not just because it rang earlier, but I'm going to take it because I made a little calculation. I thought, that guy looks suspicious. And what if he's been sending little messages to Bin Laden's hideout -- or whoever took over after Bin Laden -- and he's actually like a terrorist, a sleeper cell. I'm going to find that out, and when I find that out, I'm going to prevent a huge amount of damage that he could cause. That has a very high utility to prevent that damage. And compared to the little pain that it's going to cause -- because it's going to be embarrassing when I'm looking on his phone and seeing that he has a Farmville problem and that whole bit -- that's overwhelmed by the value of looking at the phone. If you feel that way, that's a utilitarian choice.
Facciamo un esempio. Supponiamo che io me ne esca dicendo "Prenderò il tuo telefono." Non perché prima abbia squillato, ma lo prenderò perché ho fatto qualche piccola previsione. Ho pensato: "quel ragazzo ha un'aria sospetta. E se avesse mandato dei messaggini al nascondiglio di Bin Landen? - o chiunque abbia preso il posto di Bin Landen - e fosse davvero un terrorista, una cellula dormiente? Lo scoprirò, e quando l'avrò scoperto, impedirò il danno enorme che potrebbe causare". È davvero un gran vantaggio prevenire quel danno. E a paragone del piccolo dolore che la mia azione causerà - perché sarà imbarazzante quando andrò a sbirciare sul suo cellulare e vedrò che ha solo un problema con Farmville e altre cose del genere - quest'imbarazzo sarà superato dal valore che avrà avuto l'aver controllato il suo cellulare. Se la pensate in questo modo avete fatto una scelta utilitaristica.
But maybe you don't feel that way either. Maybe you think, it's his phone. It's wrong to take his phone because he's a person and he has rights and he has dignity, and we can't just interfere with that. He has autonomy. It doesn't matter what the calculations are. There are things that are intrinsically wrong -- like lying is wrong, like torturing innocent children is wrong. Kant was very good on this point, and he said it a little better than I'll say it. He said we should use our reason to figure out the rules by which we should guide our conduct, and then it is our duty to follow those rules. It's not a matter of calculation.
Ma forse non la pensate neanche in quel modo. Forse pensate: "è il suo cellulare. È sbagliato prendere il suo cellulare, perché è una persona e come tale ha i suoi diritti e la sua dignità, e noi semplicemente non possiamo interferire. Ha la propria autonomia. Non importa quali siano le previsioni: ci sono cose intrinsecamente sbagliate - così com'è sbagliato mentire, così com'è sbagliato torturare bambini innocenti". Kant era molto ferrato su questo punto e si è espresso un po' meglio di quanto lo farò io. Lui diceva che dovremmo usare la ragione per capire le regole su cui basare il nostro comportamento. E a quel punto è nostro obbligo morale attenerci a quelle regole. Non è una questione di previsione.
So let's stop. We're right in the thick of it, this philosophical thicket. And this goes on for thousands of years, because these are hard questions, and I've only got 15 minutes. So let's cut to the chase. How should we be making our decisions? Is it Plato, is it Aristotle, is it Kant, is it Mill? What should we be doing? What's the answer? What's the formula that we can use in any situation to determine what we should do, whether we should use that guy's data or not? What's the formula? There's not a formula. There's not a simple answer.
Fermiamoci un attimo. Siamo nel bel mezzo di questa coltre filosofica. E questo va avanti ormai da migliaia di anni, perché queste sono domande difficili, e io ho solo 15 minuti a disposizione. Andiamo dritti al dunque. In che modo dovremmo prendere le nostre decisioni? Dovremmo ragionare come Platone, Aristotele, Kant o Mill? Cosa dovremmo fare? Qual è la risposta? Qual è la formula che possiamo utilizzare in qualsiasi situazione per determinare cosa dovremmo fare, se è giusto utilizzare i dati di quel ragazzo o no? Qual è la formula? Non esiste una formula. Non esiste una risposta semplice.
Ethics is hard. Ethics requires thinking. And that's uncomfortable. I know; I spent a lot of my career in artificial intelligence, trying to build machines that could do some of this thinking for us, that could give us answers. But they can't. You can't just take human thinking and put it into a machine. We're the ones who have to do it. Happily, we're not machines, and we can do it. Not only can we think, we must. Hannah Arendt said, "The sad truth is that most evil done in this world is not done by people who choose to be evil. It arises from not thinking." That's what she called the "banality of evil." And the response to that is that we demand the exercise of thinking from every sane person.
L'etica è difficile. L'etica richiede riflessione. E ciò crea disagio. Lo so: ho passato gran parte della mia carriera occupandomi di intelligenza artificiale, provando a costruire macchine in grado di fare un po' di queste riflessioni per noi, in grado di darci delle risposte. Ma non possono. Semplicemente non si può prendere il pensiero umano e metterlo in una macchina. Siamo noi che dobbiamo pensare. La buona notizia è che non siamo macchine e possiamo farlo. Non solo possiamo pensare, ma dobbiamo. Hannah Arendt diceva, "La triste verità è che la maggior parte del male in questo mondo non è causato da persone che vogliono essere deliberatamente cattive. Nasce dal non pensare affatto". Questo è ciò che lei ha chiamato "la banalità del male". E in risposta a ciò pretendiamo che qualsiasi persona sana sfrutti la propria capacità di riflettere.
So let's do that. Let's think. In fact, let's start right now. Every person in this room do this: think of the last time you had a decision to make where you were worried to do the right thing, where you wondered, "What should I be doing?" Bring that to mind, and now reflect on that and say, "How did I come up that decision? What did I do? Did I follow my gut? Did I have somebody vote on it? Or did I punt to legal?" Or now we have a few more choices. "Did I evaluate what would be the highest pleasure like Mill would? Or like Kant, did I use reason to figure out what was intrinsically right?" Think about it. Really bring it to mind. This is important. It is so important we are going to spend 30 seconds of valuable TEDTalk time doing nothing but thinking about this. Are you ready? Go.
E allora facciamolo. Pensiamo. Anzi, iniziamo proprio adesso. Ognuno di voi qui presente faccia questo: pensate all'ultima volta che avete dovuto prendere una decisione per cui vi siete preoccupati di quale fosse la cosa giusta, e vi siete chiesti, "Cosa dovrei fare?" Fate riaffiorare questo ricordo. Adesso rifletteteci e rispondete, "Come sono giunto alla mia decisione? Cosa ho fatto? Ho seguito l'istinto? Ho fatto votare qualcuno? O mi sono attenuto alla legge?" Adesso abbiamo un po' più di scelta. "Ho valutato quale sarebbe stato il piacere maggiore come avrebbe fatto Mill? O come Kant, ho utilizzato la ragione per capire cosa fosse intrinsecamente giusto?" Pensateci. Davvero, fate uno sforzo di memoria. È importante. È così importante che perderemo ben 30 preziosi secondi del mio tempo qui a TEDTalk facendo nulla, se non pensare a questo. Siete pronti? Via.
Stop. Good work. What you just did, that's the first step towards taking responsibility for what we should do with all of our power.
Stop. Ottimo lavoro. Quello che avete appena fatto è il primo passo verso l'assunzione di responsabilità per ciò che dovremmo fare con tutto il nostro potere.
Now the next step -- try this. Go find a friend and explain to them how you made that decision. Not right now. Wait till I finish talking. Do it over lunch. And don't just find another technologist friend; find somebody different than you. Find an artist or a writer -- or, heaven forbid, find a philosopher and talk to them. In fact, find somebody from the humanities. Why? Because they think about problems differently than we do as technologists. Just a few days ago, right across the street from here, there was hundreds of people gathered together. It was technologists and humanists at that big BiblioTech Conference. And they gathered together because the technologists wanted to learn what it would be like to think from a humanities perspective. You have someone from Google talking to someone who does comparative literature. You're thinking about the relevance of 17th century French theater -- how does that bear upon venture capital? Well that's interesting. That's a different way of thinking. And when you think in that way, you become more sensitive to the human considerations, which are crucial to making ethical decisions.
Ecco il prossimo passo - provate a far questo. Andate da un amico e spiegategli come avete preso la vostra decisione. Non adesso. Aspettate la fine di questo intervento. Fatelo a pranzo. E non andate a parlare con qualche altro amico tecnologo; trovate qualcuno diverso da voi. Cercate un arista o uno scrittore - oppure, Dio ce ne scampi, trovate un filosofo e parlategli. Insomma, trovate qualcuno del settore umanistico. Perché? Perché il loro approccio ai problemi è diverso rispetto a quello di noi tecnologi. Proprio qualche giorno fa, proprio qui davanti, c'erano centinaia di persone radunate. Erano tecnologi e umanisti che partecipavano alla grande conferenza BiblioTech. E si sono riuniti tutti insieme perché i tecnologi volevano capire come sarebbe stato pensare da un punto di vista umanistico. Qualcuno che lavorava per Google parlava con qualcuno che studiava letteratura comparata. Pensate alla rilevanza del teatro francese del 17esimo secolo - come influisce sul capitale di rischio? Beh, è interessante. È un modo diverso di pensare. E quando ragionate in quel modo, diventate più sensibili alle considerazioni umane, che sono indispensabili per prendere decisioni etiche.
So imagine that right now you went and you found your musician friend. And you're telling him what we're talking about, about our whole data revolution and all this -- maybe even hum a few bars of our theme music. ♫ Dum ta da da dum dum ta da da dum ♫ Well, your musician friend will stop you and say, "You know, the theme music for your data revolution, that's an opera, that's Wagner. It's based on Norse legend. It's Gods and mythical creatures fighting over magical jewelry." That's interesting. Now it's also a beautiful opera, and we're moved by that opera. We're moved because it's about the battle between good and evil, about right and wrong. And we care about right and wrong. We care what happens in that opera. We care what happens in "Apocalypse Now." And we certainly care what happens with our technologies.
Immaginate che proprio questo momento voi uscite e trovate il vostro amico musicista. E mentre gli raccontate di cosa stiamo parlando, di tutta la nostra rivoluzione dei dati e via di seguito - potreste anche accennargli un paio di battute della nostra musica di sottofondo. ♫ Dum ta da da dum dum ta da da dum ♫ Beh, il vostro amico musicista vi interrompe e vi dice, "Sai, la musica per la vostra rivoluzione dei dati, è un'opera, è Wagner. È basata su una leggenda norrena. Parla di dei e creature mitiche che si battono per dei gioielli magici". Interessante. Adesso è anche una bella opera. E ci sentiamo commossi da quest'opera. Ci sentiamo commossi perché si tratta di una lotta tra il bene e il male, tra ciò che è giusto e ciò che è sbagliato. E a noi importa di ciò è giusto e ciò che è sbagliato. Ci importa di ciò che accade in quell'opera. Ci importa di ciò che accade in "Apocalypse Now". E sicuramente ci importa di ciò che accade con le tecnologie che usiamo.
We have so much power today, it is up to us to figure out what to do, and that's the good news. We're the ones writing this opera. This is our movie. We figure out what will happen with this technology. We determine how this will all end.
Abbiamo così tanto potere al giorno d'oggi, dipende esclusivamente da noi capire cosa farne. E qui arriva la buona notizia. Siamo noi a scrivere quest'opera. Questo è il nostro film. Siamo noi a decidere cosa ne sarà di questa tecnologia. Saremo noi a determinare il finale di tutto questo.
Thank you.
Grazie.
(Applause)
(Applausi)