Macht. Das ist das Wort, das einem in den Sinn kommt. Wir sind die neuen Technologen. Wir haben viele Daten, also haben wir viel Macht. Wieviel Macht haben wir? Eine Szene aus dem Film "Apocalypse Now" – toller Film. Wir müssen unseren Helden, Captain Willard, zur Mündung des Nung River kriegen, damit er Colonel Kurtz verfolgen kann. Wir werden das tun, indem wir ihn hinfliegen und abwerfen. Also, die Szene: am Himmel die Helikopterflotte, die ihn hinbringt. Und da ist diese laute, mitreissende Musik im Hintergrund, diese wilde Musik. ♫ Dum da ta da dum ♫ ♫ Dum da ta da dum ♫ ♫ Da ta da da ♫ Das ist viel Macht. Das ist die Art von Macht, die ich in diesem Raum spüre. Es ist die Art von Macht, die wir haben infolge all der Daten, die wir haben.
Power. That is the word that comes to mind. We're the new technologists. We have a lot of data, so we have a lot of power. How much power do we have? Scene from a movie: "Apocalypse Now" -- great movie. We've got to get our hero, Captain Willard, to the mouth of the Nung River so he can go pursue Colonel Kurtz. The way we're going to do this is fly him in and drop him off. So the scene: the sky is filled with this fleet of helicopters carrying him in. And there's this loud, thrilling music in the background, this wild music. ♫ Dum da ta da dum ♫ ♫ Dum da ta da dum ♫ ♫ Da ta da da ♫ That's a lot of power. That's the kind of power I feel in this room. That's the kind of power we have because of all of the data that we have.
Lassen Sie uns ein Beispiel anschauen. Was können wir mit den Daten einer einzelnen Person machen? Was können wir mit den Daten dieses Mannes hier tun? Ich kann mir Ihre Finanzbelege ansehen. Ich kann sagen, ob Sie Ihre Rechnungen pünktlich bezahlen. Ich weiss, ob man Ihnen ein Darlehen geben sollte. Ich kann Ihre medizinische Akte einsehen, ob Ihre Pumpe noch pumpt – sehen, ob wir Sie versichern sollten. Ich kann mir Ihre Klickmuster ansehen. Wenn Sie meine Website besuchen, dann weiss ich schon, was Sie tun werden, weil ich Sie zuvor Millionen von Websites habe besuchen sehen. Und es tut mir Leid, Ihnen zu sagen, Sie sind wie ein Pokerspieler, Sie haben sich verraten. Anhand der Datenanalyse kann ich sagen, was Sie tun werden, bevor Sie es überhaupt tun. Ich weiss, was Sie mögen. Ich weiss, wer Sie sind. Sogar noch bevor ich Ihre Post ansehe oder Ihr Telefon.
Let's take an example. What can we do with just one person's data? What can we do with that guy's data? I can look at your financial records. I can tell if you pay your bills on time. I know if you're good to give a loan to. I can look at your medical records; I can see if your pump is still pumping -- see if you're good to offer insurance to. I can look at your clicking patterns. When you come to my website, I actually know what you're going to do already because I've seen you visit millions of websites before. And I'm sorry to tell you, you're like a poker player, you have a tell. I can tell with data analysis what you're going to do before you even do it. I know what you like. I know who you are, and that's even before I look at your mail or your phone.
All diese Dinge können wir tun mit den Daten, die wir haben. Aber ich bin nicht wirklich hier, um darüber zu sprechen, was wir tun können. Ich bin hier, um darüber zu sprechen, was wir tun sollten. Was ist das Richtige?
Those are the kinds of things we can do with the data that we have. But I'm not actually here to talk about what we can do. I'm here to talk about what we should do. What's the right thing to do?
Ich sehe einige verwirrte Blicke, wie, "Wieso fragen Sie uns, was das Richtige zu tun ist Wir bauen diese Dinge ja nur, jemand anders benutzt es." Schön und gut. Aber das bringt mich zurück zu vorhin. Ich denke an den zweiten Weltkriegt – einige unserer grossen Technologen damals, einige unserer grossartigen Physiker, die Kernspaltung und -fusion untersuchten – nukleares Zeug halt. Wir versammeln diese Physiker in Los Alamos, um zu sehen, was sie bauen. Wir wollen, dass die Menschen, welche die Technologie erschaffen, darüber nachdenken, was wir mit der Technologie tun sollten.
Now I see some puzzled looks like, "Why are you asking us what's the right thing to do? We're just building this stuff. Somebody else is using it." Fair enough. But it brings me back. I think about World War II -- some of our great technologists then, some of our great physicists, studying nuclear fission and fusion -- just nuclear stuff. We gather together these physicists in Los Alamos to see what they'll build. We want the people building the technology thinking about what we should be doing with the technology.
Was also sollten wir mit den Daten dieses Mannes tun? Sollten wir sie sammeln, so dass wir sein Online-Erlebnis besser machen können? So dass wir damit Geld verdienen können? So dass wir uns vor ihm schützen können, wenn er Übles im Schilde führte? Oder sollten wir seine Privatsphäre respektieren, seine Würde schützen und ihn in Ruhe lassen? Was ist das Richtige? Wie sollten wir das rausfinden?
So what should we be doing with that guy's data? Should we be collecting it, gathering it, so we can make his online experience better? So we can make money? So we can protect ourselves if he was up to no good? Or should we respect his privacy, protect his dignity and leave him alone? Which one is it? How should we figure it out?
Ich weiss: Crowdsourcing. Lassen Sie uns das gemeinsam klären. Um uns alle aufzuwärmen, fangen wir mit einer einfachen Frage an – etwas, wozu sicher jeder hier eine Meinung hat. iPhone gegen Android. Zeigen Sie mir Ihre Hände – iPhone. Uh huh. Android. Man würde meinen, ein Haufen kluger Leute wie wir würde nicht wie die Trottel den hübschen Handys hinterherrennen. (Gelächter) Nächste Frage, ein bisschen schwieriger. Sollten wir all die Daten dieses Mannes sammeln, um sein Erlebnis besser zu machen und uns zu schützen, falls er Schlechtes vor hat? Oder sollten wir ihn in Ruhe lassen? Seine Daten sammeln. Ihn in Ruhe lassen. Sie sind sicher, alles ist gut. (Gelächter) Ok, letzte Frage – schwierigere Frage – wenn wir versuchen herauszufinden, was wir in diesem Fall tun sollten, sollten wir einen deontologischen moralischen Massstab nach Kant anlegen oder die Konsequentialitätslogik nach Mill? Kant. Mill. Nicht so viele Stimmen. (Gelächter) Ja, das ist ein erschreckendes Resultat. Erschreckend, weil wir eine gefestigtere Meinung über unsere Smartphones haben, als über unseren moralischen Masstab, den wir als Richtlinie für unsere Entscheidungen verwenden sollten.
I know: crowdsource. Let's crowdsource this. So to get people warmed up, let's start with an easy question -- something I'm sure everybody here has an opinion about: iPhone versus Android. Let's do a show of hands -- iPhone. Uh huh. Android. You'd think with a bunch of smart people we wouldn't be such suckers just for the pretty phones. (Laughter) Next question, a little bit harder. Should we be collecting all of that guy's data to make his experiences better and to protect ourselves in case he's up to no good? Or should we leave him alone? Collect his data. Leave him alone. You're safe. It's fine. (Laughter) Okay, last question -- harder question -- when trying to evaluate what we should do in this case, should we use a Kantian deontological moral framework, or should we use a Millian consequentialist one? Kant. Mill. Not as many votes. (Laughter) Yeah, that's a terrifying result. Terrifying, because we have stronger opinions about our hand-held devices than about the moral framework we should use to guide our decisions.
Woher wissen wir, was wir mit unserer Macht anfangen sollen, wenn wir keinen moralischen Masstab haben? Wir wissen mehr über mobile Betriebssysteme, aber was wir wirklich brauchen, ist ein moralisches Betriebssystem. Was ist ein moralisches Betriebssystem? Wir alle kennen richtig und falsch, nicht wahr. Man fühlt sich gut, wenn man das Richtige tut, man fühlt sich schlecht, wenn man das Falsche tut. Unsere Eltern lehren uns: das Gute loben, das Böse schelten. Aber wie finden wir heraus, was richtig und was falsch ist? Jeden Tag folgen wir bestimmten Techniken, die wir verwenden. Vielleicht folgen wir einfach unserem Bauch. Vielleicht machen wir eine Abstimmung – lassen die Menge entscheiden. Oder wir weichen aus – fragen die Rechtsabteilung und sehen, was die sagen. In anderen Worten, es ist ziemlich zufällig, sozusagen fallweise, wie wir herausfinden, was wir tun sollten. Und vielleicht, wenn wir einen sichereren Stand haben wollen, möchten wir wirklich einen moralischen Massstab haben, der uns dahin führt, der uns erst einmal sagt, welche Dinge richtig oder falsch sind und der uns wissen lässt, was in einer bestimmten Situation zu tun ist.
How do we know what to do with all the power we have if we don't have a moral framework? We know more about mobile operating systems, but what we really need is a moral operating system. What's a moral operating system? We all know right and wrong, right? You feel good when you do something right, you feel bad when you do something wrong. Our parents teach us that: praise with the good, scold with the bad. But how do we figure out what's right and wrong? And from day to day, we have the techniques that we use. Maybe we just follow our gut. Maybe we take a vote -- we crowdsource. Or maybe we punt -- ask the legal department, see what they say. In other words, it's kind of random, kind of ad hoc, how we figure out what we should do. And maybe, if we want to be on surer footing, what we really want is a moral framework that will help guide us there, that will tell us what kinds of things are right and wrong in the first place, and how would we know in a given situation what to do.
Also lassen Sie uns einen moralischen Massstab finden. Wir sind Zahlenleute, wir leben nach Zahlen. Wie können wir Zahlen als Basis für unseren moralischen Masstab verwenden? Ich kenne jemanden, der genau das getan hat. Ein brillianter Typ – er ist schon seit 2500 Jahren tot. Plato, genau. Erinnern Sie sich – alter Philosoph? Sie haben in dieser Schulstunde geschlafen. Und Plato hatte oft dieselben Sorgen wie wir. Er sorgte sich um richtig und falsch. Er wollte wissen, was gerecht ist. Aber er war beunruhigt darüber, dass wir darüber nur Meinungen auszutauschen scheinen. Er sagt, etwas ist gerecht. Sie sagt, etwas anderes ist gerecht. Beide sind ziemlich überzeugend. Ich gehe hin und her, ich komme nirgends an. Ich will keine Meinungen, ich will Wissen. Ich will die Wahrheit über Gerechtigkeit wissen – so wie wir Wahrheiten in der Mathematik haben. In der Mathematik kennen wir die objektiven Fakten. Nehmen Sie irgendeine Zahl – zwei. Lieblingszahl. Ich liebe diese Zahl. Es gibt Wahrheiten über die Zwei. Wenn man zwei von etwas hat, und man zwei dazu gibt, bekommt man vier. Das ist wahr, egal worüber man spricht. Es ist eine objektive Wahrheit über die Form der Zwei, die abstrakte Form. Wenn man zwei von irgendwas hat – zwei Augen, Ohren, Nasen, zwei Bandscheibenleiden – all diese Dinge nehmen an der Form der Zwei teil. Sie sind ein Teil der Wahrheiten, die die Zwei hat. Sie haben alle Zwei-heit in sich. Und deshalb ist das keine Meinungsfrage.
So let's get a moral framework. We're numbers people, living by numbers. How can we use numbers as the basis for a moral framework? I know a guy who did exactly that. A brilliant guy -- he's been dead 2,500 years. Plato, that's right. Remember him -- old philosopher? You were sleeping during that class. And Plato, he had a lot of the same concerns that we did. He was worried about right and wrong. He wanted to know what is just. But he was worried that all we seem to be doing is trading opinions about this. He says something's just. She says something else is just. It's kind of convincing when he talks and when she talks too. I'm just going back and forth; I'm not getting anywhere. I don't want opinions; I want knowledge. I want to know the truth about justice -- like we have truths in math. In math, we know the objective facts. Take a number, any number -- two. Favorite number. I love that number. There are truths about two. If you've got two of something, you add two more, you get four. That's true no matter what thing you're talking about. It's an objective truth about the form of two, the abstract form. When you have two of anything -- two eyes, two ears, two noses, just two protrusions -- those all partake of the form of two. They all participate in the truths that two has. They all have two-ness in them. And therefore, it's not a matter of opinion.
Plato dachte also, was wäre, wenn Ethik wie Mathematik wäre? Was, wenn es eine reine Form von Gerechtigkeit gäbe? Was, wenn es Wahrheiten über Gerechtigkeit gibt und man sich einfach in der Welt umsehen könnte und sehen, welche Dinge an dieser Form von Gerechtigkeit teilhalben? Dann wüsste man, was wirklich gerecht wäre und was nicht. Es wäre dann keine Frage von Meinung oder gerechter Erscheinung. Das ist eine umwerfende Vision. Ich meine, denken Sie darüber nach. Wie grossartig, wie ehrgeizig. So ehrgeizig, wie wir sind. Er will die Ethik lösen. Er will objektive Wahrheiten. Wenn man so darüber nachdenkt, hat man einen moralischen Massstab nach Plato.
What if, Plato thought, ethics was like math? What if there were a pure form of justice? What if there are truths about justice, and you could just look around in this world and see which things participated, partook of that form of justice? Then you would know what was really just and what wasn't. It wouldn't be a matter of just opinion or just appearances. That's a stunning vision. I mean, think about that. How grand. How ambitious. That's as ambitious as we are. He wants to solve ethics. He wants objective truths. If you think that way, you have a Platonist moral framework.
Wenn man nicht so denkt, nun, dann hat man viel Gesellschaft in der Geschichte der westlichen Philosophie, denn diese ordentliche Idee – wissen Sie, sie wurde kritisiert. Besonders Aristoteles war nicht erfreut. Er fand das sehr unpraktisch. Aristoteles sagte, "Wir sollten nur soviel Präzision in jedem Thema suchen, wie es dieses Thema erlaubt." Aristoteles fand, Ethik sei überhaupt nicht wie Mathematik. Er dachte, Ethik sei eine Frage von Entscheidungen im Hier und Jetzt, unter Verwendung unseres besten Urteilsvermögens um den richtigen Weg zu finden. Wenn Sie das denken, ist Plato nicht Ihr Mann. Aber geben Sie nicht auf. Vielleicht gibt es einen anderen Weg, wie wir Zahlen als Grundlage für unseren moralischen Massstab verwenden können.
If you don't think that way, well, you have a lot of company in the history of Western philosophy, because the tidy idea, you know, people criticized it. Aristotle, in particular, he was not amused. He thought it was impractical. Aristotle said, "We should seek only so much precision in each subject as that subject allows." Aristotle thought ethics wasn't a lot like math. He thought ethics was a matter of making decisions in the here-and-now using our best judgment to find the right path. If you think that, Plato's not your guy. But don't give up. Maybe there's another way that we can use numbers as the basis of our moral framework.
Wie wäre es damit: Was, wenn man in jeder Situation einfach rechnen könnte, sich die Wahlmöglichkeiten ansehen, messen, welche die bessere ist und wissen, was tun? Klingt das vertraut? Das ist ein utilitaristischer moralischer Massstab. John Stuart Mill war ein grosser Verfechter davon – ein guter Mann übrigens – und erst seit 200 Jahren tot. Die Grundlage des Utilitarianismus – ich bin sicher, damit sind Sie zumindest vertraut. Die drei Leute, die vorhin für Mill gestimmt haben, sind damit vertraut. Aber so funktioniert es. Was, wenn die Moral, das was etwas moralisch macht, nur eine Frage davon ist, ob es Vergnügen maximiert und Schmerz minimiert? Es fügt der Tat etwas intrinsisches hinzu. Es ist nicht wie ihre Beziehung zu einer abstrakten Form. Es ist eine Frage der Konsequenzen. Man sieht sich die Konsequenzen an und ob es, über alles gesehen, zum Guten oder zum Schlechten ist. Das wäre einfach. Dann wüssten wir, was zu tun ist.
How about this: What if in any situation you could just calculate, look at the choices, measure out which one's better and know what to do? That sound familiar? That's a utilitarian moral framework. John Stuart Mill was a great advocate of this -- nice guy besides -- and only been dead 200 years. So basis of utilitarianism -- I'm sure you're familiar at least. The three people who voted for Mill before are familiar with this. But here's the way it works. What if morals, what if what makes something moral is just a matter of if it maximizes pleasure and minimizes pain? It does something intrinsic to the act. It's not like its relation to some abstract form. It's just a matter of the consequences. You just look at the consequences and see if, overall, it's for the good or for the worse. That would be simple. Then we know what to do.
Lassen Sie uns ein Beispiel machen. Nehmen wir an, ich gehe hier hoch und ich sage, "Ich nehme jetzt Ihr Telefon." Nicht, weil es vorhin geklingelt hat, ich nehme es, weil ich eine kleine Berechnung gemacht habe. Ich dachte mir, dieser Typ sieht verdächtig aus. Und was, wenn er Nachrichten an Bin Ladens Versteck geschickt hat – oder an wen auch immer, der nach Bin Laden übernommen hat – und er ist tatsächlich sowas wie ein Terrorist, eine Schläferzelle. Ich werde das herausfinden, und wenn ich es herausfinde, werde ich eine grosse Menge Schaden verhindern, den er anrichten könnte. Es hat einen sehr hohen Nutzen, diesen Schaden zu verhindern. Und verglichen mit dem kleinen Schmerz, den es verursachen wird – denn es wird unangenehm sein, wenn ich mir sein Telefon ansehe und sehe dass er ein Farmville-Problem und all das hat – das wird überstrahlt vom Wert, sich das Telefon anzusehen. Wenn Sie so fühlen, ist das eine utiliaristische Wahl.
Let's take an example. Suppose I go up and I say, "I'm going to take your phone." Not just because it rang earlier, but I'm going to take it because I made a little calculation. I thought, that guy looks suspicious. And what if he's been sending little messages to Bin Laden's hideout -- or whoever took over after Bin Laden -- and he's actually like a terrorist, a sleeper cell. I'm going to find that out, and when I find that out, I'm going to prevent a huge amount of damage that he could cause. That has a very high utility to prevent that damage. And compared to the little pain that it's going to cause -- because it's going to be embarrassing when I'm looking on his phone and seeing that he has a Farmville problem and that whole bit -- that's overwhelmed by the value of looking at the phone. If you feel that way, that's a utilitarian choice.
Aber vielleicht fühlen Sie auch nicht so. Vielleicht denken Sie, es ist sein Telefon. Es ist falsch, sein Telefon zu nehmen, denn er ist eine Person und er hat Rechte und seine Würde, und wir können das nicht einfach beeinträchtigen. Er ist autonom. Es spielt keine Rolle, wie die Berechnungen sind. Es gibt Dinge, die intrinsisch falsch sind – wie es falsch ist, zu lügen oder unschuldige Kinder zu quälen. Kant war in diesem Punkt sehr gut, und er sagte es ein bisschen besser, als ich es sagen werde. Er sagte, wir sollten unsere Vernunft benutzen, um die Regeln herauszufinden, die unser Verhalten bestimmen. Und dann ist es unsere Pflicht, diesen Regeln zu folgen. Es ist keine Frage von Berechnung.
But maybe you don't feel that way either. Maybe you think, it's his phone. It's wrong to take his phone because he's a person and he has rights and he has dignity, and we can't just interfere with that. He has autonomy. It doesn't matter what the calculations are. There are things that are intrinsically wrong -- like lying is wrong, like torturing innocent children is wrong. Kant was very good on this point, and he said it a little better than I'll say it. He said we should use our reason to figure out the rules by which we should guide our conduct, and then it is our duty to follow those rules. It's not a matter of calculation.
Also lassen Sie uns aufhören. Wir sind mitten drin in diesem philosophischen Gewühl. Und das geht schon seit Tausenden von Jahren so, denn das sind schwierige Fragen und ich habe nur 15 Minuten. Also lassen Sie uns auf den Punkt kommen. Wie sollten wir unsere Entscheidungen treffen? ist es Plato, Aristoteles, Kant oder Mill? Was sollten wir tun? Was ist die Antwort? Was ist die Formel, die wir in jeder Situation benutzen können, um festzulegen, was wir tun sollten, ob wir die Daten dieses Mannes verwenden sollten oder nicht? Was ist die Formel' Es gibt keine Formel. Es gibt keine einfache Antwort.
So let's stop. We're right in the thick of it, this philosophical thicket. And this goes on for thousands of years, because these are hard questions, and I've only got 15 minutes. So let's cut to the chase. How should we be making our decisions? Is it Plato, is it Aristotle, is it Kant, is it Mill? What should we be doing? What's the answer? What's the formula that we can use in any situation to determine what we should do, whether we should use that guy's data or not? What's the formula? There's not a formula. There's not a simple answer.
Ethik ist schwierig. Ethik verlangt Denkarbeit. Und das ist unbequem. Ich weiss, ich habe einen grossen Teil meiner Karriere damit verbracht, mich mit künstlicher Intelligenz zu beschäftigen, zu versuchen, Maschinen zu bauen, die etwas von dieser Arbeit für uns tun könnten, die uns Antworten geben könnten. Aber sie können es nicht. Man kann nicht einfach menschliches Denken nehmen, und es in eine Maschine stecken. Wir sind diejenigen, die es tun müssen. Glücklicherweise sind wir keine Maschinen. Wir können nicht nur denken, wir müssen. Hannah Arendt sagte, "Die traurige Wahrheit ist, dass das meiste Böse, was auf dieser Welt getan wird, nicht von Menschen getan wird, die sich dazu entscheiden, schlecht zu sein. Es kommt dadurch, dass sie nicht nachdenken." Das ist es, was wir die "Banalität des Bösen" nennen. Und die Antwort darauf ist, dass wir Übung im Denken verlangen von jeder normalen Person.
Ethics is hard. Ethics requires thinking. And that's uncomfortable. I know; I spent a lot of my career in artificial intelligence, trying to build machines that could do some of this thinking for us, that could give us answers. But they can't. You can't just take human thinking and put it into a machine. We're the ones who have to do it. Happily, we're not machines, and we can do it. Not only can we think, we must. Hannah Arendt said, "The sad truth is that most evil done in this world is not done by people who choose to be evil. It arises from not thinking." That's what she called the "banality of evil." And the response to that is that we demand the exercise of thinking from every sane person.
Also lassen Sie uns das tun. Lassen Sie uns nachdenken. Lassen Sie uns jetzt gleich damit anfange. Jede Person in diesem Raum tut das folgende: denken Sie an das letzte Mal, als Sie eine Entscheidung treffen mussten und sich darum sorgten, das Richtige zu tun, wo Sie sich gefragt haben, "Was sollte ich tun?" Rufen Sie sich das in Erinnerung. Und jetzt reflektieren Sie das und sagen sich, "Wie kam ich zu meiner Entscheidung?" Was habe ich getan? Habe ich auf meinen Bauch gehört? Habe ich jemanden abstimmen lassen? Oder habe ich es auf den Rechtsdienst abgeschoben? Jetzt haben wir noch einige Möglichkeiten mehr. "Habe ich untersucht, was das meiste Vergnügen zur Folge hat, wie Mill es tun würde? Oder habe ich wie Kant meine Vernunft benutzt, um herauszufinden, was intrinsisch richtig ist?" Denken Sie darüber nach. Rufen Sie es sich richtig in Erinnerung. Das ist wichtig. Es ist so wichtig, dass wir 30 Sekunden wertvoller TEDTalk-Zeit darauf verwenden werden, nichts anderes zu tun, als darüber nachzudenken. Sind Sie bereit? Los.
So let's do that. Let's think. In fact, let's start right now. Every person in this room do this: think of the last time you had a decision to make where you were worried to do the right thing, where you wondered, "What should I be doing?" Bring that to mind, and now reflect on that and say, "How did I come up that decision? What did I do? Did I follow my gut? Did I have somebody vote on it? Or did I punt to legal?" Or now we have a few more choices. "Did I evaluate what would be the highest pleasure like Mill would? Or like Kant, did I use reason to figure out what was intrinsically right?" Think about it. Really bring it to mind. This is important. It is so important we are going to spend 30 seconds of valuable TEDTalk time doing nothing but thinking about this. Are you ready? Go.
Stopp. Gute Arbeit. Was Sie gerade getan haben, ist der erste Schritt dazu, Verantwortung dafür zu übernehmen, was wir mit all unserer Macht tun sollten.
Stop. Good work. What you just did, that's the first step towards taking responsibility for what we should do with all of our power.
Jetzt der nächste Schritt – versuchen Sie das. Gehen Sie zu einem Freund und erklären Sie ihm, wie Sie diese Entscheidung gefällt haben. Nicht jetzt. Warten Sie, bis ich fertig gesprochen habe. Tun Sie es in der Mittagspause. Und finden Sie nicht einfach einen anderen Freund aus der Technologie, finden Sie jemanden, der anders ist als Sie. Finden Sie einen Künstler oder einen Autoren – oder, Gott bewahre, finden Sie einen Philosophen und sprechen Sie mit ihm. Tatsächlich sollten Sie einen Geisteswissenschaftler finden. Warum? Weil sie anders über Probleme nachdenken, als wir das als Technologen tun. Vor einigen Tagen waren hier auf der anderen Strassenseite Hunderte von Menschen versammelt. Es gab Technologen und Geisteswissenschaftler an dieser grossen BiblioTech Konferenz. Sie kamen zusammen, weil die Technologen lernen wollten, wie es wäre, aus einer geisteswissenschaftlichen Perspektive zu denken. Da hat man dann jemanden von Google, im Gespräch mit jemandem der Literaturvergleiche macht. Man denkt über die Relevant des Französischen Theaters im 17. Jahrhundert nach – wie kommt das gegen Venture Kapital an? Das ist interessant. Das ist eine andere Art zu denken. Wenn man auf diese Weise nachdenkt, wird man sensibler für menschliche Überlegungen, die entscheidend für ethische Entscheidungen sind.
Now the next step -- try this. Go find a friend and explain to them how you made that decision. Not right now. Wait till I finish talking. Do it over lunch. And don't just find another technologist friend; find somebody different than you. Find an artist or a writer -- or, heaven forbid, find a philosopher and talk to them. In fact, find somebody from the humanities. Why? Because they think about problems differently than we do as technologists. Just a few days ago, right across the street from here, there was hundreds of people gathered together. It was technologists and humanists at that big BiblioTech Conference. And they gathered together because the technologists wanted to learn what it would be like to think from a humanities perspective. You have someone from Google talking to someone who does comparative literature. You're thinking about the relevance of 17th century French theater -- how does that bear upon venture capital? Well that's interesting. That's a different way of thinking. And when you think in that way, you become more sensitive to the human considerations, which are crucial to making ethical decisions.
Stellen Sie sich vor, dass Sie genau jetzt losgegangen sind und Ihren Musikerfreund getroffen haben. Sie erzählen ihm, worüber wir hier sprechen, über unsere ganze Datenrevolution und all das – vielleicht summen Sie sogar ein paar Takte unserer Titelmusik. ♫ Dum ta da da dum dum ta da da dum ♫ Ihr Musikerfreund wird Sie stoppen und sagen, "Weisst Du, diese Titelmusik für Eure Datenrevolution, das ist eine Oper, das ist Wagner. Sie basiert auf einer nordischen Legende. Es geht um Götter und mystische Kreaturen, die um magische Juwelen kämpfen." Das ist interessant. Es ist auch eine wunderschöne Oper. Und die Oper bewegt uns. Wir sind bewegt, weil es um die Schlacht geht zwischen Gut und Böse, zwischen Richtig und Falsch. Richtig und Falsch sind wichtig für uns. Was in dieser Oper geschieht, ist wichtig für uns. Was in "Apocalypse Now" geschieht, ist wichtig für uns. Und auf jeden Fall ist es wichtig für uns, was mit unseren Technologien geschieht.
So imagine that right now you went and you found your musician friend. And you're telling him what we're talking about, about our whole data revolution and all this -- maybe even hum a few bars of our theme music. ♫ Dum ta da da dum dum ta da da dum ♫ Well, your musician friend will stop you and say, "You know, the theme music for your data revolution, that's an opera, that's Wagner. It's based on Norse legend. It's Gods and mythical creatures fighting over magical jewelry." That's interesting. Now it's also a beautiful opera, and we're moved by that opera. We're moved because it's about the battle between good and evil, about right and wrong. And we care about right and wrong. We care what happens in that opera. We care what happens in "Apocalypse Now." And we certainly care what happens with our technologies.
Wir haben heute soviel Macht, es liegt an uns, herauszufinden, was zu tun ist. Und das sind gute Neuigkeiten. Wir sind diejenigen, die die Oper schreiben. Das ist unser Film. WIr finden heraus, was mit dieser Technologie geschieht. Wir legen fest, wie das alles enden wird.
We have so much power today, it is up to us to figure out what to do, and that's the good news. We're the ones writing this opera. This is our movie. We figure out what will happen with this technology. We determine how this will all end.
Dankeschön.
Thank you.
(Applaus)
(Applause)