Zukunftstechnologie geht immer mit zwei Aspekten einher: Verheißung und unbeabsichtigte Folgen. Diese Folgen will ich erkunden. Bevor wir dazu kommen, wie uns Zukunftstechnik vielleicht beeinträchtigt, möchte ich Zeit darauf verwenden, die unbeabsichtigten Folgen der aktuellen Technologien zu erkunden, nämlich Soziale Medien. Soziale Medien waren vor wenigen Jahren die Technologien des zukünftigen Ich. Jetzt sind sie einfach Sie. Soziale Medien sollten uns auf eine Weise verbinden, die wir uns nie vorstellen konnten. Die Propheten lagen richtig. Diese drei Mädchen sprechen miteinander, ohne das peinliche Unbehagen aufgrund von Augenkontakt.
Future tech always comes with two things: promise and unintended consequences. And it's those consequences that I want to explore. And before we get to how future tech may affect us, I'd like to spend a little time exploring the unintended consequences of some of our recent tech, namely, social media. Social media, a few short years ago, was the tech of future you. Now it just is you. Social media was supposed to bring us together in ways we could never imagine. And the predictors were correct. These three girls are talking to one another without the awkward discomfort of eye contact.
(Lachen)
(Laughter)
Das nenne ich Fortschritt.
I call that advancement.
Wir sollten in einen kommunikativen Tsunami geraten, wie ihn die Welt noch nicht erlebt hat. Das passierte. So wie das.
We were supposed to be caught up in a communication tsunami, the likes of which the world has never seen. And that did happen. And so did this.
(Singt) Eines dieser Dinge ist nicht wie das andere.
(Sings) One of these things is not like the other.
(Spricht) Schauen Sie das Bild an. Wählten Sie den Kerl mit dem Buch, lagen Sie falsch, oder wie ein bestimmter Präsident gesagt hätte: "Faaalsch!"
(Speaks) Now, look at this picture. If you picked the guy with the book, you’re wrong -- or, as a certain president would say, "Wrong!"
(Lachen)
(Laughter)
Drei dieser Kerle lesen eindeutig und der Kerl am Ende hört Musik und spielt "Candy Crush".
Clearly, three of these guys are reading, and one guy, on the end, is listening to music and playing "Candy Crush."
(Lachen)
(Laughter)
Sind wir also mehr vernetzt oder sind wir nur stärker mit unseren Geräten vernetzt? Soziale Medien sollten uns auf einen echten Marktplatz stellen, wo wir uns mit herausfordernden Ideen und Debatten befruchten könnten. Stattdessen bekamen wir Trolle. Das ist ein echter Tweet, den ich erhielt. "Chuck, niemand will deine dummen, schlecht informierten, politischen Ansichten hören! Ich hoffe, du bekommst Lepar und stirbst. In Liebe, Vater"
So are we more connected, or are we just more connected to our devices? Social media was supposed to place us in a veritable town square, where we could engage one another with challenging ideas and debates. And instead what we got were trolls. This is an actual tweet that I received. "Chuck, no one wants to hear your stupid, ill-informed political views! I hope you get leprosy and die. Love, Dad" (Laughter)
(Lachen)
Das Großartige an diesem Tweet ist bei genauer Betrachtung,
Now, the great thing about that tweet if you look at it,
dass er nicht so schlimm wie bei anderen Trollen ist, weil er mir "Lepar" statt "Lepra" wünschte, und "Lepar" ist gar nicht gefährlich.
just like most trolls, it's not that bad, because he wished "leporsy" on me instead of "leprosy," and "leporsy" is not dangerous at all.
(Lachen)
(Laughter)
(Applaus)
(Applause)
Zusammen mit Trollen bekamen wir eine völlig neue Art, Jugendliche zu foltern -- das Internet-Mobbing. Ein Konzept, das meine 75-jährige Mutter einfach nicht zu begreifen scheint.
Along with trolls, we got a brand new way of torturing teenagers -- cyberbullying. A concept that my 75-year-old mother just can't seem to wrap her head around.
"Äh, schlugen sie ihn?"
"So, uh, did they hit him?"
"Nein, Mutti, sie schlugen ihn nicht."
"No, Mom, they didn't hit him."
"Nahmen sie sein Geld?"
"Did they take his money?"
"Nein, Mutti, nicht sein Geld."
"No, Mom, they didn't take his money."
"Drückten sie sein Gesicht ins Klo?"
"Did they put his face in the toilet?"
"Nein, Mutti, das taten sie nicht."
"No, Mom, they didn't --"
"Was machten sie denn?"
"Well, what did they do?"
"Sie griffen ihn im Internet an."
"They attacked him on the internet."
"Griffen ihn im Internet an?"
"Attacked him on the internet?"
(Lachen)
(Laughter)
"Warum stellt man nicht einfach das Internet ab?"
"Well, why don't you just turn off the internet?"
(Lachen)
(Laughter)
"Deine ganze Generation ist ein Haufen Schwächlinge."
"Your whole generation is a bunch of wussies."
(Lachen)
(Laughter)
Irgendwie hat sie recht.
She's got a point.
(Lachen)
(Laughter)
Irgendwie hat sie recht.
She's got a point.
Ich will gar nicht davon sprechen, was Soziale Medien mit dem Dating anstellten. Ich war auf Grindr bis ich merkte, dass es keine Sandwich-App war.
And I don't even want to talk about what social media has done to dating. I was on Grindr until I found out it wasn't a sandwich app. (Laughter)
(Lachen)
Ich kann Ihnen gar nichts über Tinder erzählen, außer der Tatsache, dass Sie leider falsch liegen, wenn Sie meinen, es gäbe eine Grenze für das Ausmaß von anonymen Sex auf diesem Planeten.
And I can't even tell you about Tinder, except for the fact that if you think there is a limit to the amount of anonymous sex we can have on this planet, you are sadly mistaken.
(Lachen)
(Laughter)
Und was jetzt? Steigen wir gleich ein und nennen die Knüller. Fahrerlose Autos. Etwas, das es bereits seit Jahren gibt, nur ohne Computerunterstützung.
So where do we go from here? Well, let's just jump right in and play the hits. Driverless cars. Something that has already been around for many years, just without the assistance of computers.
(Lachen)
(Laughter)
(Applaus) Denn seit Jahren fahren wir, während wir SMS schreiben, Make-up auftragen, uns rasieren, lesen, -- tatsächlich lesen -- das wäre ich.
(Applause) Because for years, we have been driving while texting, putting on makeup, shaving, reading -- actually reading -- that would be me.
(Lachen)
(Laughter)
Wenn man fahrerlose Autos teilt, werden die meisten Leute außerdem keines mehr besitzen, wodurch die Zulassungsstelle verschwindet. Die Kfz-Zulassungsstelle -- ich weiß, was sie jetzt sagen: "Der Typ kann hier nicht für die Zulassungsstelle plädieren." Ich weiß nicht, wie es Ihnen geht, aber ich will nicht in einer Welt leben, wo mich hartes fluoreszierendes Licht, endlose Schlangen, schreckliche Formulare zum Ausfüllen und unzufriedene, herzlose Bürokraten erinnern, dass ich verdammt glücklich bin, nicht dort zu arbeiten.
The other thing is that since driverless cars will be shared, most people won't own cars, and that means the DMV will go away. The DMV -- I know what you're saying right now. "There's no way this guy is going to stand up here and make a case for the DMV." Well, I don't know about you, but I do not want to live in a world where harsh fluorescent lights, endless lines, terrible forms to fill out and disaffected, soulless bureaucrats remind me that I am pretty damn lucky not to work here.
(Lachen)
(Laughter)
Das ist die echte Dienstleistung, die sie erbringen. Die Kfz-Zulassungsstelle: Gehen Sie zur Zulassungsverlängerung, bleiben Sie für die Genugtuung zu wissen, dass Sie einige ziemlich gute Lebensentscheidungen trafen.
That is the real service they provide. The DMV: come for the registration renewal, stay for the satisfaction of knowing you made some pretty good life choices. (Laughter)
(Lachen)
Niemand wird in der Zukunft Eigentümer eines Autos sein. Jugendliche werden keinen Platz zum Rummachen haben. Sie wissen also, was das heißt: Sie mieten fahrerlose Autos, um genau das zu tun. Ich will nicht in ein Auto steigen und die Frage stellen: "Warum riecht dieses Auto nach Unbeholfenheit, Scheitern und Scham?"
Nobody will own their car in the future, and that means teenagers will not have a place to make out. So you know what that means. That means they will order driverless cars to do just that. I do not want to step into a vehicle and ask the question: "Why does this car smell like awkwardness, failure and shame?"
(Lachen)
(Laughter)
Würde ich diese Fragen stellen wollen, ginge ich in mein Schlafzimmer.
If I want to ask that question, I'll walk into my own bedroom.
(Lachen)
(Laughter)
Worauf können wir uns sonst noch freuen? Richtig, künstliche Intelligenz. Künstliche Intelligenz, ja. Sie wissen, es gab eine Zeit, als künstliche Intelligenz ein Witz war. Ich meine, buchstäblich ein Witz, den man auf Cocktail-Partys hörte, wenn es jemand in einer Unterhaltung ansprach: "Künstliche Intelligenz. Die einzige echte künstliche Intelligenz ist unser amerikanischer Kongress. Ha, ha, ha, ha, ha." Das ist nicht mehr lustig.
So what else do we have to look forward to? That's right, artificial intelligence. Artificial intelligence, yes. You know, there was a time when artificial intelligence was a joke. I mean, literally a quip that you would hear at a cocktail party when somebody would bring it up in conversation: "Artificial intelligence. The only real artificial intelligence is our American Congress. Ha, ha, ha, ha, ha." Well, it's not funny anymore.
(Lachen)
(Laughter)
Stephen Hawking, Elon Musk und Bill Gates äußerten sich alle offiziell und drückten ihre schweren Vorbehalte gegenüber künstlicher Intelligenz aus. Das ist so als kämen Jesus, Moses und Mohammed zusammen und sagten: "Leute, Leute, -- hier ist etwas, woran wir alle glauben können."
Stephen Hawking, Elon Musk and Bill Gates have all gone on record expressing grave reservations about artificial intelligence. That's like Jesus, Moses and Muhammad coming together and saying, "Guy, guys -- here's something we can all believe in."
(Lachen)
(Laughter)
Alles, was ich sage, ist, dass Sie dem vielleicht zustimmen können. Wir bringen Maschinen tatsächlich das Denken bei, unser Verhalten zu verstehen, sich selbst zu verteidigen und sogar zu täuschen. Was könnte da schon schief gehen?
You might want to go with that, is all I'm saying. We are actually teaching machines how to think, how to understand our behavior, how to defend themselves and even practice deception. What could possibly go wrong?
(Lachen)
(Laughter)
Eines ist sicher: Die Schöpfung hasst immer ihren Schöpfer. Okay? Die Titanen erhoben sich gegen die Götter; Luzifer gegen Jehova. Jeder mit jugendlichen Kindern hat diese Worte schon gehört: "Ich hasse dich und du zerstörst mein Leben! Ich hasse dich!" Jetzt stellen Sie sich dieses Gefühl vor, nur mit einer Maschine, die Sie überlisten kann und schwer bewaffnet ist.
The one thing that's for sure: the creation always despises its creator. OK? The Titans rose up against the gods; Lucifer against Jehovah. And anybody who has a teenager has heard these words: "I hate you and you're ruining my life! I hate you!" Now just imagine that sentiment with a machine that can outthink you and is heavily armed.
(Lachen)
(Laughter)
Das Ergebnis? Allerdings!
The result? Absolutely.
(Lachen)
(Laughter)
Vor der Perfektionierung künstlicher Intelligenz müssen wir künstliche Gefühle zur Perfektion bringen. Auf die Art können wir Robotern oder Maschinen beibringen, wie sie uns bedingungslos lieben, sodass sie, wenn sie merken, dass das einzige echte Problem dieses Planeten wir selbst sind, uns nicht zerstören, was übrigens total logisch wäre, sondern bewundernswert finden --
What we need to do before we perfect artificial intelligence is perfect artificial emotions. That way, we can teach the robots or machines how to love us unconditionally, so that when they figure out that the only real problem on this planet is us, instead of destroying us -- which, by the way, is totally logical -- they will find us adorable --
(Lachen)
(Laughter)
wie Baby-Kacka.
like baby poop.
(Lachen)
(Laughter)
"Oh mein Gott, ich liebe es einfach, wie ihr gerade den Planeten zerstört. Ich kann euch nicht böse sein. Ihr seid so süß! Ihr seid so süß!"
"Oh my god, I just love the way you just destroyed the planet. I can't stay mad at you, you're so cute! You're so cute!"
(Lachen)
(Laughter)
Ich kann darüber nicht sprechen, ohne Roboter einzubeziehen. Okay? Erinnern Sie sich, als Sie Roboter für cool hielten? Ich erinnere mich daran, bis ich feststellte, dass sie jeden Arbeitsplatz einnehmen würden: vom Lieferboten bis zum Herzchirurgen. Eines enttäuscht bei Robotik sehr, der heilige Gral der Robotik, der noch nicht errungen wurde. Ich spreche von der Roboter-Freundin, dem Traum eines einsamen Computerfreaks in einem fensterlosen Keller, der eines Tages schwor: "Ich werde meine Schöpfung heiraten". In der Tat ist eine Bewegung aus Angst vor Ausbeutung im Gange, um das Vorhaben zu unterbinden. Ich für meinen Teil bin gegen diese Bewegung. Wir sollten Roboter-Freundinnen haben. Ich glaube einfach, sie sollten mit feministischen Benimmregeln und künstlicher Intelligenz aufwarten, sodass sie einen Blick auf den Kerl werfen und sagen kann: "Ich bin zu gut für dich. Ich verlasse dich."
Can't talk about this without talking about robotics. OK? Remember when you thought robotics were cool? I remember when I thought robotics were cool, until I figured out that they were going to take everybody's place, from the delivery guy down to the heart surgeon. The one thing, though, that is very disappointing about robotics is the holy grail of robotics, and it hasn't even happened. I'm talking about the robot girlfriend, the dream of one lonely geek in a windowless basement who vowed one day: "I am going to marry my creation." And there actually is a movement underway to stop this from happening, for fear of exploitation. And I, for one, am against that movement. I believe we should have robot girlfriends. I just believe that they should come with a feminist protocol and artificial intelligence, so she can take one look at that guy and go, "I am too good for you. I'm leaving."
(Lachen)
(Laughter)
(Applaus)
(Applause)
Abschließend muss ich über Biotechnologie sprechen. Ein Gebiet der Wissenschaft, das verheißt, Krankheit zu heilen, bevor sie ausbricht, uns hilft länger, erfüllter und gesünder zu leben. Verbindet man das mit implantierbaren Geräten, blickt man auf die nächste Verkörperung der menschlichen Evolution. Das klingt alles großartig, bis man herausfindet, worauf es tatsächlich hinausläuft. Zu einem Punkt: Designer-Babys. Egal wo man auf der Welt ist, oder zu welcher Ethnie man gehört, werden Babys nur noch so aussehen.
And finally, I have to talk about bioengineering, an area of science that promises to end disease before it even begins, to help us live longer, fuller, healthier lives. And when you couple that with implantable hardware, you are looking at the next incarnation of human evolution. And all of that sounds great, until you figure out where it's really going. One place: designer babies, where, no matter where you are on the globe or what your ethnicity, babies will end up looking like that.
(Lachen)
(Laughter)
Der Junge ist überrascht, weil er gerade merkte, dass beide Elternteile schwarz sind.
That boy is surprised because he just found out both his parents are black.
(Lachen)
(Laughter)
Können Sie sich ihn in 20 Jahren auf einer Cocktail-Party vorstellen? "Ja, meine Eltern sind schwarz. Ich meine, es ist manchmal ein wenig heikel, aber Sie sollten meine Bonität sehen. Sehr beeindruckend."
Can you imagine him at a cocktail party in 20 years? "Yeah, both my parents are black. I mean, it's a little awkward at times, but you should see my credit rating. Impressive, very impressive."
(Lachen)
(Laughter)
Das alles erscheint beängstigend, und jeder in diesem Raum weiß, das es das nicht ist. Technologie ist nicht beängstigend. Ist sie niemals gewesen und wird sie nie sein. Wir sind beängstigend und was wir mit Technologie anstellen. Ermöglichen wir ihr, unsere Menschlichkeit freizulegen, unser wahres Selbst zu zeigen, und die Tatsache zu untermauern, dass wir tatsächlich der Hüter unseres Bruders sind? Oder ermöglichen wir ihr, unsere tiefsten, dunkelsten Dämonen zu offenbaren?
Now, all of this seems scary, and everybody in this room knows that it isn't. Technology isn't scary. Never has been and it never will be. What's scary is us and what we will do with technology. Will we allow it to expose our humanity, showing our true selves and reinforcing the fact that we are indeed our brother's keeper? Or will we allow it to reveal our deepest, darkest demons?
Die eigentliche Frage ist nicht, ob Technik beängstigend ist oder nicht. Die eigentliche Frage ist: Wie menschlich sind Sie?
The true question is not whether or not technology is scary. The true question is: How human are you?
Danke.
Thank you.
(Applaus)
(Applause)