Power. That is the word that comes to mind. We're the new technologists. We have a lot of data, so we have a lot of power. How much power do we have? Scene from a movie: "Apocalypse Now" -- great movie. We've got to get our hero, Captain Willard, to the mouth of the Nung River so he can go pursue Colonel Kurtz. The way we're going to do this is fly him in and drop him off. So the scene: the sky is filled with this fleet of helicopters carrying him in. And there's this loud, thrilling music in the background, this wild music. ♫ Dum da ta da dum ♫ ♫ Dum da ta da dum ♫ ♫ Da ta da da ♫ That's a lot of power. That's the kind of power I feel in this room. That's the kind of power we have because of all of the data that we have.
Makt. Det er ordet jeg kommer å tenke på. Vi er de nye teknologene. Vi har mye data, så vi har mye makt. Hvor mye makt har vi? Scene fra en film: "Apocalypse Now" -- storartet film. Vi må sende vår helt, Kapt. Willard, til munningen av Nung-floden slik at han kan forfølge Oberst Kurtz. Måten vi skal gjøre det på er å fly ham inn og slippe ham ut. Så, scenen: himmelen er fylt med denne flåten av helikoptre som tar ham inn. Og det er den der høye, spennende musikken i bakgrunnen, vill musikk. ♫ Dum da ta da dum ♫ ♫ Dum da ta da dum ♫ ♫ Da ta da da ♫ Det er mye makt. Det er den typen makt jeg kjenner i dette rommet. Det er den typen makt vi har gjennom all den data som vi har.
Let's take an example. What can we do with just one person's data? What can we do with that guy's data? I can look at your financial records. I can tell if you pay your bills on time. I know if you're good to give a loan to. I can look at your medical records; I can see if your pump is still pumping -- see if you're good to offer insurance to. I can look at your clicking patterns. When you come to my website, I actually know what you're going to do already because I've seen you visit millions of websites before. And I'm sorry to tell you, you're like a poker player, you have a tell. I can tell with data analysis what you're going to do before you even do it. I know what you like. I know who you are, and that's even before I look at your mail or your phone.
La oss ta et eksempel. Hva vi kan gjøre med kun en persons data? Hva kan vi gjøre med den fyrens data? Jeg kan se på dine finanser. Jeg kan si om du betaler dine regninger i tide. Jeg vet om du er verdt å innvilge lån til. Jeg kan se på din medisinske journal, jeg kan se om pumpen din fortsatt pumper -- se om du er verdt å tilby forsikring til. Jeg kan se på ditt klikkemønster. Når du kommer inn på min webside, kan jeg faktisk vite hva du har tenkt å gjøre allerede, for jeg har sett deg besøke milliontalls websider tidligere. Og jeg beklager å si det, du er som en pokerspiller, du avslører deg. Jeg kan med dataanalyse si hva du kommer til å gjøre før du faktisk gjør det. Jeg vet hva du liker. Jeg vet hvem du er. Og det er til og med før jeg kikker på dine e-poster eller din telefon.
Those are the kinds of things we can do with the data that we have. But I'm not actually here to talk about what we can do. I'm here to talk about what we should do. What's the right thing to do?
Det er slike ting vi kan gjøre med det datamateriell vi har. Men, jeg er egentlig ikke her for å prate om hva vi kan gjøre. Jeg er her for å prate om hva vi burde gjøre. Hva er det riktige å gjøre?
Now I see some puzzled looks like, "Why are you asking us what's the right thing to do? We're just building this stuff. Somebody else is using it." Fair enough. But it brings me back. I think about World War II -- some of our great technologists then, some of our great physicists, studying nuclear fission and fusion -- just nuclear stuff. We gather together these physicists in Los Alamos to see what they'll build. We want the people building the technology thinking about what we should be doing with the technology.
Nå ser jeg noen rådville uttrykk som, "Hvorfor spør du oss om hva som er det riktige å gjøre? Vi bygger jo bare tingene. Noen andre bruker dem. Sant nok. Men det bringer meg tilbake. Jeg tenker på andre verdenskrigen -- noen av våre fantastiske teknologer da, noen av våre fantastiske fysikere, som studerte kjernefysisk fisjon og fusjon -- bare kjernefysiske ting. Vi samler sammen disse fysikerne i Los Alamos for å se hva de kan bygge. Vi vil at menneskene som bygger teknologien skal tenke på hva vi burde gjøre med teknologien.
So what should we be doing with that guy's data? Should we be collecting it, gathering it, so we can make his online experience better? So we can make money? So we can protect ourselves if he was up to no good? Or should we respect his privacy, protect his dignity and leave him alone? Which one is it? How should we figure it out?
Så hva burde vi gjøre med den fyrens data? Burde vi samle det inn, registrere det, slik at vi kan gjøre hans opplevelse online bedre. Slik at vi kan tjene penger? Slik at vi kan beskytte oss selv hvis han var ute etter å gjøre ugagn. Eller, burde vi respektere hans privatliv, beskytte hans verdighet og la ham være i fred? Hvilken er det? Hvordan finner vi det ut?
I know: crowdsource. Let's crowdsource this. So to get people warmed up, let's start with an easy question -- something I'm sure everybody here has an opinion about: iPhone versus Android. Let's do a show of hands -- iPhone. Uh huh. Android. You'd think with a bunch of smart people we wouldn't be such suckers just for the pretty phones. (Laughter) Next question, a little bit harder. Should we be collecting all of that guy's data to make his experiences better and to protect ourselves in case he's up to no good? Or should we leave him alone? Collect his data. Leave him alone. You're safe. It's fine. (Laughter) Okay, last question -- harder question -- when trying to evaluate what we should do in this case, should we use a Kantian deontological moral framework, or should we use a Millian consequentialist one? Kant. Mill. Not as many votes. (Laughter) Yeah, that's a terrifying result. Terrifying, because we have stronger opinions about our hand-held devices than about the moral framework we should use to guide our decisions.
Jeg vet: avstemning. La oss stemme på dette. Så, som oppvarming, la oss starte med et lett spørsmål -- noe jeg er sikker på at alle her har en mening om: iPhone versus Android. Strekk opp handa -- iPhone. Aha. Android. Man skulle tro, med en masse smarte mennesker, at vi ikke bare var svake for de fineste telefonene. (Latter) Neste spørsmål, littegrann vanskeligere. Burde vi samle inn alt av den fyrens data for å gjøre hans opplevelse bedre og for å beskytte oss selv hvis han er uærlig? Eller burde vi la ham være i fred? Samle inn data. La ham være i fred. Dere er sikker. Det går bra. (Latter) Ok, siste spørsmål -- vanskeligere spørsmål -- når man skal evaluere hva man burde gjøre i dette tilfellet, burde vi bruke et Kantiansk deontologisk moralsk rammeverk, eller burde vi bruke et Mill-konsekvensialistisk? Kant. Mill. Ikke like mange stemmer. (Latter) Ja, det er et skremmende resultat. Skremmende fordi vi har sterkere meninger om våre håndholdte enheter enn om vårt moralske rammeverk vi burde bruke for å veilede våre beslutninger.
How do we know what to do with all the power we have if we don't have a moral framework? We know more about mobile operating systems, but what we really need is a moral operating system. What's a moral operating system? We all know right and wrong, right? You feel good when you do something right, you feel bad when you do something wrong. Our parents teach us that: praise with the good, scold with the bad. But how do we figure out what's right and wrong? And from day to day, we have the techniques that we use. Maybe we just follow our gut. Maybe we take a vote -- we crowdsource. Or maybe we punt -- ask the legal department, see what they say. In other words, it's kind of random, kind of ad hoc, how we figure out what we should do. And maybe, if we want to be on surer footing, what we really want is a moral framework that will help guide us there, that will tell us what kinds of things are right and wrong in the first place, and how would we know in a given situation what to do.
Hvordan vet vi hva vi skal gjøre med all den makt vi har hvis vi ikke har et moralsk rammeverk? Vi vet mer om mobile operativsystem, men hva vi egentlig trenger er et moralsk operativsystem. Hva er et moralsk operativsystem? Vi kjenner alle riktig og galt, ikke sant. Det føles bra når du gjør noe riktig, det føles dårlig når du gjør noe galt. Våre foreldre lær oss: ros med det gode, ris med det gale. Men hvordan finner vi ut hva som er rett og galt? Og fra dag til dag, vi har teknikkene vi bruker. Kanskje vi bare følger magefølelsen. Kanskje vi stemmer -- vi tar en avstemning. Eller vi tar sjansen -- spør jussavdelingen, ser hva de sier. Med andre ord, det er ganske tilfeldig, ganske ad hoc, hvordan vi finner ut hva vi burde gjøre. Og kanskje, hvis vi vil være på sikrere grunn, hva vi egentlig vil ha er et moralsk rammeverk som kan guide oss dit, som forteller oss hvilke ting som er rette og gale i utgangspunktet, og hvordan vi skal kunne vite i enhver situasjon hva vi skal gjøre.
So let's get a moral framework. We're numbers people, living by numbers. How can we use numbers as the basis for a moral framework? I know a guy who did exactly that. A brilliant guy -- he's been dead 2,500 years. Plato, that's right. Remember him -- old philosopher? You were sleeping during that class. And Plato, he had a lot of the same concerns that we did. He was worried about right and wrong. He wanted to know what is just. But he was worried that all we seem to be doing is trading opinions about this. He says something's just. She says something else is just. It's kind of convincing when he talks and when she talks too. I'm just going back and forth; I'm not getting anywhere. I don't want opinions; I want knowledge. I want to know the truth about justice -- like we have truths in math. In math, we know the objective facts. Take a number, any number -- two. Favorite number. I love that number. There are truths about two. If you've got two of something, you add two more, you get four. That's true no matter what thing you're talking about. It's an objective truth about the form of two, the abstract form. When you have two of anything -- two eyes, two ears, two noses, just two protrusions -- those all partake of the form of two. They all participate in the truths that two has. They all have two-ness in them. And therefore, it's not a matter of opinion.
Så la oss skaffe oss et moralsk rammeverk. Vi er siffer-mennesker, vi lever av tall. Hvordan kan vi bruke tall som basis for et moralsk rammeverk? Jeg kjenner en fyr som gjorde nøyaktig det, En genial fyr -- han har vært død i 2500 år. Platon, det stemmer. Husker dere ham -- gammel filosof? Dere sov i den timen. Og Platon, han hadde mange av de samme bekymringene som vi hadde. Han var bekymret over rett og galt. Han ville vite hva som er rettferdig. Men han var bekymret over at alt vi så ut til å gjøre var å utbytte synspunkter om dette. Han sier at noe er rettferdig. Hun sier at noe annet er rettferdig. Det er ganske overbevisende når han snakker og når hun snakker også. Jeg går bare frem og tilbake; jeg kommer ingen vei. Jeg vil ikke ha synspunkter, jeg vil ha kunnskap. Jeg vil ha sannheten om rettferdighet -- som vi har sannheter i matematikk. Innenfor matematikk vet vi objektive fakta. Ta et tall, hvilket som helst -- to. Favorittall. Jeg elsker det tallet. Det finnes sannheter om to. Hvis du har to av noe, du legger til to til, så får du fire. Det er sant uansett hva slags ting du snakker om. Det er en objektiv sannhet om formen av to, den abstrakte formen. Når du har to av noe -- to øyer, to ører, to neser, bare to utspring -- de tar alle formen av to. De er alle med i sannheten som to har. De har alle en to-het i seg. Og derfor er det ikke et spørsmål om synspunkter.
What if, Plato thought, ethics was like math? What if there were a pure form of justice? What if there are truths about justice, and you could just look around in this world and see which things participated, partook of that form of justice? Then you would know what was really just and what wasn't. It wouldn't be a matter of just opinion or just appearances. That's a stunning vision. I mean, think about that. How grand. How ambitious. That's as ambitious as we are. He wants to solve ethics. He wants objective truths. If you think that way, you have a Platonist moral framework.
Enn hvis, tenkte Platon, etikk var som matematikk? Enn hvis det fantes en ren form for rettferdighet? Enn hvis det finnes sannheter om rettferdighet, og du bare kan se deg rundt i verden og se hvilke ting som tilhørte, var en del av den formen for rettferdighet? Da hadde du visst hva som virkelig var rettferdig og hva som ikke var det. Det hadde ikke blitt et spørsmål om bare synspunkter eller fremtreden. Det er en oppsiktsvekkende visjon. Jeg mener, tenk på det. Så flott. Så ambisiøst. Det er så ambisiøse vi er. Han vil løse etikken. Han ønsker objektiv sannhet. Hvis du tenker på den måten. har du et platonsk moralsk rammeverk.
If you don't think that way, well, you have a lot of company in the history of Western philosophy, because the tidy idea, you know, people criticized it. Aristotle, in particular, he was not amused. He thought it was impractical. Aristotle said, "We should seek only so much precision in each subject as that subject allows." Aristotle thought ethics wasn't a lot like math. He thought ethics was a matter of making decisions in the here-and-now using our best judgment to find the right path. If you think that, Plato's not your guy. But don't give up. Maybe there's another way that we can use numbers as the basis of our moral framework.
Hvis du ikke tenker på den måten, vel, da har du mye selskap fra vestens historiske filosofi, siden en så ryddig idé -- du vet, folk kritiserte den. Aristoteles, spesielt, han var ikke fornøyd. Han mente det var upraktisk. Aristoteles sa, "Vi burde søke kun så mye presisjon i ethvert emne, som det emnet tillater." Aristoteles mente etikk ikke var som matematikk. Han mente etikk var et spørsmål om å ta beslutning i øyeblikket gjennom å bruke vårt beste skjønn for å finne den rette veien. Hvis du tenker sånn er ikke Platon din type. Men ikke gi opp. Kanskje finnes det en annen måte vi kan bruke tall på som en basis for vårt moralske rammeverk.
How about this: What if in any situation you could just calculate, look at the choices, measure out which one's better and know what to do? That sound familiar? That's a utilitarian moral framework. John Stuart Mill was a great advocate of this -- nice guy besides -- and only been dead 200 years. So basis of utilitarianism -- I'm sure you're familiar at least. The three people who voted for Mill before are familiar with this. But here's the way it works. What if morals, what if what makes something moral is just a matter of if it maximizes pleasure and minimizes pain? It does something intrinsic to the act. It's not like its relation to some abstract form. It's just a matter of the consequences. You just look at the consequences and see if, overall, it's for the good or for the worse. That would be simple. Then we know what to do.
Hva med dette: Enn hvis du, i enhver situasjon, kunne beregne, se på valgmulighetene, måle opp hvilken som er bedre og vite hva man skal gjøre? Høres dette kjent ut? Det er et utilitaristisk moralsk rammeverk. John Stuart Mill var en stor advokat for dette -- hyggelig fyr foresten -- og har kun vær død i 200 år. Så grunnleggende utilitarisme -- det er sikkert litt kjent. De tre personene som stemte for Mill tidligere kjenner til dette. Men her er måten det fungerer på. Enn hvis moral, enn hvis det som gjør noe moralsk, bare er et spørsmål om hvorvidt det maksimerer nytelse og minimerer smerte? Det tilfører noe inneboende til handlingen. Det er ikke dens relasjon til noen abstrakt form. Det er bare et spørsmål om konsekvenser. Du ser på konsekvensene og ser om de, overordnet, gjør det bedre eller verre. Det hadde vært enkelt. Da vet vi hva vi skal gjøre.
Let's take an example. Suppose I go up and I say, "I'm going to take your phone." Not just because it rang earlier, but I'm going to take it because I made a little calculation. I thought, that guy looks suspicious. And what if he's been sending little messages to Bin Laden's hideout -- or whoever took over after Bin Laden -- and he's actually like a terrorist, a sleeper cell. I'm going to find that out, and when I find that out, I'm going to prevent a huge amount of damage that he could cause. That has a very high utility to prevent that damage. And compared to the little pain that it's going to cause -- because it's going to be embarrassing when I'm looking on his phone and seeing that he has a Farmville problem and that whole bit -- that's overwhelmed by the value of looking at the phone. If you feel that way, that's a utilitarian choice.
La oss ta et eksempel. La oss si at jeg går opp og sier, "Jeg tenker å ta din telefon." Ikke bare fordi den ringte tidligere, men jeg tenker ta den fordi jeg har gjort et lite regnestykke. Jeg tenkte, den fyren ser mistenkelig ut. Og hva om han har sendt noen små meldinger til Bin Ladens gjemmested -- eller hvem som nå tok over etter Bin Laden -- og han er faktisk som en terrorist, en 'hvilende'. Jeg skal finne det ut, og når jeg har funnet det ut, så skal jeg forhindre en enorm mengde skader som han kunne ha skapt. Det har en veldig høy nytteverdi å forhindre den skaden. Og sammenlignet med den lille smerten det kommer å forårsake -- fordi det kommer til å bli pinlig når jeg ser på telefonen hans og ser at han har et Farmville-problem og alt det der -- det blir overgått av verdien av å se på den telefonen. Hvis du føler det på den måten, så er det et utilitaristisk valg
But maybe you don't feel that way either. Maybe you think, it's his phone. It's wrong to take his phone because he's a person and he has rights and he has dignity, and we can't just interfere with that. He has autonomy. It doesn't matter what the calculations are. There are things that are intrinsically wrong -- like lying is wrong, like torturing innocent children is wrong. Kant was very good on this point, and he said it a little better than I'll say it. He said we should use our reason to figure out the rules by which we should guide our conduct, and then it is our duty to follow those rules. It's not a matter of calculation.
Men kanskje føler du det ikke på den måten heller. Kanskje tenker du, det er hans telefon. Det er galt å ta hans telefon, fordi han er en person og han har rettigheter og han har verdighet, og vi kan ikke bare forstyrre det. Han har autonomi. Det spiller ingen rolle hva regnestykket er. Det finnes ting som er grunnlegende galt -- slik som å lyve er galt, som å torturere uskyldige barn er galt. Kant var veldig bra på det punktet, og han sa det litt bedre enn jeg sier det. Han sa at vi skulle bruke vårt fornuft til å finne ut de reglene som skal styre vår adferd. Og da er det vår plikt å følge disse reglene. Det er ikke et spørsmål om beregning.
So let's stop. We're right in the thick of it, this philosophical thicket. And this goes on for thousands of years, because these are hard questions, and I've only got 15 minutes. So let's cut to the chase. How should we be making our decisions? Is it Plato, is it Aristotle, is it Kant, is it Mill? What should we be doing? What's the answer? What's the formula that we can use in any situation to determine what we should do, whether we should use that guy's data or not? What's the formula? There's not a formula. There's not a simple answer.
Så la oss stoppe. Vi er midt i smørøyet her, i dette filosofiske kaoset. Og dette fortsetter i tusenvis av år, fordi dette er vanskelige spørsmål, og jeg har bare 15 minutter. Så la oss komme til saken. Hvordan burde vi ta våre beslutninger? Er det Platon, er det Aristoteles, er det Kant, er det Mill? Hva burde vi gjøre? Hva er svaret? Hva er formelen som vi kan bruke i enhver situasjon for å avgjøre hva vi burde gjøre, hvis vi burde bruke denne fyrens data eller ikke? Hva er formelen? Det finnes ingen formel. Det finnes ikke et enkelt svar.
Ethics is hard. Ethics requires thinking. And that's uncomfortable. I know; I spent a lot of my career in artificial intelligence, trying to build machines that could do some of this thinking for us, that could give us answers. But they can't. You can't just take human thinking and put it into a machine. We're the ones who have to do it. Happily, we're not machines, and we can do it. Not only can we think, we must. Hannah Arendt said, "The sad truth is that most evil done in this world is not done by people who choose to be evil. It arises from not thinking." That's what she called the "banality of evil." And the response to that is that we demand the exercise of thinking from every sane person.
Etikk er vanskelig. Etikk krever tenkning. Og det er ukomfortabelt. Jeg vet; Jeg tilbragte mye av min karriere innenfor kunstig intelligens, og forsøkte bygge maskiner som kunne gjøre noe av denne tenkningen for oss, som kunne gi oss svar. Men det kan de ikke. Du kan ikke bare ta menneskelig tenkning og putte den inn i en maskin. Det er vi som må gjøre det. Heldigvis, vi er ikke maskiner, og vi kan gjøre det. Ikke bare kan vi tenke, vi må. Hannah Arendt sa, "Den triste sannheten er at den verste ondskapen i denne verden ikke kommer fra mennesker som velger å være onde. Den kommer fra å ikke tenke." Det er hva hun kaller "ondskapens banalitet." Og responsen på det er at vi krever øvelse i å tenke fra enhver fornuftig person.
So let's do that. Let's think. In fact, let's start right now. Every person in this room do this: think of the last time you had a decision to make where you were worried to do the right thing, where you wondered, "What should I be doing?" Bring that to mind, and now reflect on that and say, "How did I come up that decision? What did I do? Did I follow my gut? Did I have somebody vote on it? Or did I punt to legal?" Or now we have a few more choices. "Did I evaluate what would be the highest pleasure like Mill would? Or like Kant, did I use reason to figure out what was intrinsically right?" Think about it. Really bring it to mind. This is important. It is so important we are going to spend 30 seconds of valuable TEDTalk time doing nothing but thinking about this. Are you ready? Go.
Så la oss gjøre det. La oss tenke. Faktisk, la oss starte akkurat nå. Alle personer i dette rommet gjør følgende: tenk på den siste gangen dere skulle ta en beslutning hvor dere var bekymret over å gjøre det riktige, hvor dere lurte på, "Hva burde jeg gjøre?" Ha det i tankene. Og nå reflekter rundt det og si, "Hvordan kom jeg frem til den beslutningen? Hva gjorde jeg? Fulgte jeg magefølelsen? Fikk jeg noen til å stemme om det? Eller tok jeg sjansen på rettssystemet? Eller nå har vi noen fler muligheter. "Vurderte jeg hva som hadde gitt den høyeste nytelsen som Mill hadde gjort? Eller som Kant, brukte jeg fornuftet for å finne ut hva som var grunnleggende riktig?" Tenk på det. Virkelig ha det i tankene. Dette er viktig. Det er så viktig at vi skal bruke 30 sekunder av verdifull TEDTalk-tid og ikke gjøre noe annet enn å tenke på det. Er dere klare? Nå.
Stop. Good work. What you just did, that's the first step towards taking responsibility for what we should do with all of our power.
Stopp. Bra jobba. Hva dere nettopp gjorde, er det første trinnet mot å ta ansvar for hva vi burde gjøre med all vår makt.
Now the next step -- try this. Go find a friend and explain to them how you made that decision. Not right now. Wait till I finish talking. Do it over lunch. And don't just find another technologist friend; find somebody different than you. Find an artist or a writer -- or, heaven forbid, find a philosopher and talk to them. In fact, find somebody from the humanities. Why? Because they think about problems differently than we do as technologists. Just a few days ago, right across the street from here, there was hundreds of people gathered together. It was technologists and humanists at that big BiblioTech Conference. And they gathered together because the technologists wanted to learn what it would be like to think from a humanities perspective. You have someone from Google talking to someone who does comparative literature. You're thinking about the relevance of 17th century French theater -- how does that bear upon venture capital? Well that's interesting. That's a different way of thinking. And when you think in that way, you become more sensitive to the human considerations, which are crucial to making ethical decisions.
Nå til neste trinn -- prøv dette. Let opp en venn og forklar for dem hvordan du tok den beslutningen. Ikke akkurat nå. Vent til jeg har snakket ferdig. Gjør det i lunsjen. Og finn ikke bare en annen teknologvenn; finn noen som er annerledes enn du. Finn en artist eller en forfatter -- eller, Gud forby, finn en filosof og snakk med dem. Forresten, finn noen fra humaniora. Hvorfor? Fordi de tenker på problem annerledes enn vi gjør som teknologer. For bare et par dager siden, rett over gaten herfra, var det hundrevis av mennesker sammen. Det var teknologer og humanister på den der BiblioTech-konferansen. Og de samlet seg sammen fordi teknologene ville lære seg hvordan det ville være å tenke fra et humanistisk perspektiv. Du har noen fra Google som snakker med noen som gjør komparativ litteratur. Du tenker på relevansen av fransk teater fra 1600-tallet -- hvordan innvirker det på risikokapital? Vel, det er interessant. Det er en annen måte å tenke på. Og når du tenker på den måten, blir du mer følsom for menneskelige hensyn, som er avgjørende for å ta etiske beslutninger.
So imagine that right now you went and you found your musician friend. And you're telling him what we're talking about, about our whole data revolution and all this -- maybe even hum a few bars of our theme music. ♫ Dum ta da da dum dum ta da da dum ♫ Well, your musician friend will stop you and say, "You know, the theme music for your data revolution, that's an opera, that's Wagner. It's based on Norse legend. It's Gods and mythical creatures fighting over magical jewelry." That's interesting. Now it's also a beautiful opera, and we're moved by that opera. We're moved because it's about the battle between good and evil, about right and wrong. And we care about right and wrong. We care what happens in that opera. We care what happens in "Apocalypse Now." And we certainly care what happens with our technologies.
Så forestill deg akkurat nå du gikk og du fant en musikkvenn. Og du forteller ham hva vi snakker om, om hele vår datarevolusjon og alt dette -- kanskje til og med nynner noen strofer fra vår temasang. ♫ Dum ta da da dum dum ta da da dum ♫ Vel, din musikkvenn vill stoppe deg og si, "Du vet, den temasangen for din datarevolusjon, det er en opera, det er Wagner. Den er basert på Norrøn legende. Det er guder og mytiske skapninger som sloss over magiske smykker." Det er interessant. Nå er det også en vakker opera. Og vi blir rørt av den operaen Vi blir rørt fordi det handler om kampen mellom godt og ondt, om rett og galt. Og vi bryr oss om rett og galt. Vi bryr oss om hva som skjer i den operaen. Vi bryr oss om hva som skjer i "Apocalypse Now." Og vi bryr oss virkelig om hva som skjer med vår teknologi.
We have so much power today, it is up to us to figure out what to do, and that's the good news. We're the ones writing this opera. This is our movie. We figure out what will happen with this technology. We determine how this will all end.
Vi har så mye makt i dag, at det er opp til oss å finne ut hva vi skal gjøre. Og det er de gode nyhetene. Vi er de som skriver den her operaen. Dette er vår film. Vi finner ut hva som skal skje med denne teknologien. Vi bestemmer hvordan dette vil ende.
Thank you.
Tusen takk.
(Applause)
(Applaus)