Mark Zuckerberg wurde von einem Journalisten zum News Feed bei Facebook befragt. Der Journalist fragte ihn, "Warum ist er so wichtig?" Und Zuckerberg sagte, "Ein Eichhörnchen, das in Ihrem Vorgarten stirbt kann für Sie jetzt gerade relevanter sein als sterbende Menschen in Afrika." Und ich möchte darüber sprechen wie ein Internet aussähe, das auf dieser Auffassung von Relevanz basiert.
Mark Zuckerberg, a journalist was asking him a question about the news feed. And the journalist was asking him, "Why is this so important?" And Zuckerberg said, "A squirrel dying in your front yard may be more relevant to your interests right now than people dying in Africa." And I want to talk about what a Web based on that idea of relevance might look like.
Während meiner Jugend in einer sehr ländlichen Gegend in Maine war das Internet für mich etwas völlig anderes. Es war eine Verbindung zur Welt. Etwas, das uns alle miteinander verbinden würde. Und ich war sicher, dass es großartig für die Demokratie sein würde und für unsere Gesellschaft. Aber es gibt eine Verschiebung darin wie Informationen online fließen, und zwar eine unsichtbare. Und wenn wir nicht aufpassen, könnte sie ein echtes Problem werden. Mir ist sie zuerst an einem Ort aufgefallen, an dem ich viel Zeit verbringe -- meiner Facebook-Seite. Ich bin politisch progressiv -- überraschenderweise -- aber ich habe mich immer bemüht, Konservativen zu begegnen. Ich mag es, zu hören worüber sie nachdenken; Ich mag es, zu sehen was sie verlinken; Ich mag es, ein-zwei Dinge zu lernen. Also war ich überrascht, als ich eines Tages gemerkt habe dass die Konservativen aus meinen Facebook-Neuigkeiten verschwunden waren. Wie sich herausstellte hatte Facebook registriert, auf welche Links ich klickte, und hatte festgestellt, dass ich mehr auf die Links meiner liberalen Freunde klickte als auf die meiner konservativen Freunde. Und ohne dass ich gefragt wurde wurden sie aussortiert. Sie verschwanden.
So when I was growing up in a really rural area in Maine, the Internet meant something very different to me. It meant a connection to the world. It meant something that would connect us all together. And I was sure that it was going to be great for democracy and for our society. But there's this shift in how information is flowing online, and it's invisible. And if we don't pay attention to it, it could be a real problem. So I first noticed this in a place I spend a lot of time -- my Facebook page. I'm progressive, politically -- big surprise -- but I've always gone out of my way to meet conservatives. I like hearing what they're thinking about; I like seeing what they link to; I like learning a thing or two. And so I was surprised when I noticed one day that the conservatives had disappeared from my Facebook feed. And what it turned out was going on was that Facebook was looking at which links I clicked on, and it was noticing that, actually, I was clicking more on my liberal friends' links than on my conservative friends' links. And without consulting me about it, it had edited them out. They disappeared.
Facebook ist nicht der einzige Ort an dem das Netz auf diese unsichtbare, algorithmische Weise redigiert wird. Google macht das gleiche. Wenn ich nach etwas suche, und Sie nach etwas suchen, jetzt gerade, genau gleichzeitig, können wir sehr unterschiedliche Ergebnisse bekommen. Sogar wenn man ausgeloggt ist, hat mir ein Spezialist gesagt, gibt es noch 57 Signale die Google berücksichtigt -- von der Art des Computers über den Browser, den man benutzt bis zum eigenen Standort -- die benutzt werden um die Ergebnisse zu personalisieren. Denken sie mal drüber nach: es gibt kein Standard-Google mehr. Und das komische daran ist, dass es kaum sichtbar ist. Man sieht nicht, wie unterschiedlich die eigenen Suchtreffer von denen der anderen sind.
So Facebook isn't the only place that's doing this kind of invisible, algorithmic editing of the Web. Google's doing it too. If I search for something, and you search for something, even right now at the very same time, we may get very different search results. Even if you're logged out, one engineer told me, there are 57 signals that Google looks at -- everything from what kind of computer you're on to what kind of browser you're using to where you're located -- that it uses to personally tailor your query results. Think about it for a second: there is no standard Google anymore. And you know, the funny thing about this is that it's hard to see. You can't see how different your search results are from anyone else's.
Aber vor ein paar Wochen habe ich ein paar Freunde gebeten, "Ägypten" zu googlen und mir Screenshots der Ergebnisse zu schicken. Hier ist der Screenshot meines Freundes Scott. Und hier ist der von meinem Freund Daniel. Wenn man sie nebeneinander stellt, muss man noch nicht mal die Links lesen um zu sehen, wie unterschiedlich die beiden Seiten sind. Aber wenn man die Links liest, ist es schon bemerkenswert. Daniel hat auf seiner ersten Trefferseite überhaupt nichts über die Proteste in Ägypten bekommen. Scott's Ergebnisse waren voll davon. Und das war zu dieser Zeit die Nachricht des Tages. So unterschiedlich werden die Ergebnisse jetzt.
But a couple of weeks ago, I asked a bunch of friends to Google "Egypt" and to send me screen shots of what they got. So here's my friend Scott's screen shot. And here's my friend Daniel's screen shot. When you put them side-by-side, you don't even have to read the links to see how different these two pages are. But when you do read the links, it's really quite remarkable. Daniel didn't get anything about the protests in Egypt at all in his first page of Google results. Scott's results were full of them. And this was the big story of the day at that time. That's how different these results are becoming.
Und es geht nicht nur um Google und Facebook. Das ist etwas, das das ganze Internet durchzieht. Es gibt eine ganze Menge Firmen, die diese Art von Personalisierung machen. Yahoo News, die größte Nachrichtenseite im Internet, ist schon personalisiert -- verschiedene Menschen bekommen verschiedene Dinge. Huffington Post, die Washington Post, die New York Times -- sie flirten alle irgendwie mit Personalisierung. Und das bringt uns sehr schnell zu einer Welt in der das Internet uns das zeigt, wovon es denkt, dass wir es sehen wollen, aber nicht zwangsläufig, was wir sehen sollten. Eric Schmidt hat gesagt, "Es wird für die Menschen schwierig werden, etwas zu sehen oder zu konsumieren, das nicht in irgendeiner Weise auf sie zugeschnitten ist."
So it's not just Google and Facebook either. This is something that's sweeping the Web. There are a whole host of companies that are doing this kind of personalization. Yahoo News, the biggest news site on the Internet, is now personalized -- different people get different things. Huffington Post, the Washington Post, the New York Times -- all flirting with personalization in various ways. And this moves us very quickly toward a world in which the Internet is showing us what it thinks we want to see, but not necessarily what we need to see. As Eric Schmidt said, "It will be very hard for people to watch or consume something that has not in some sense been tailored for them."
Und ich glaube, dass das ein Problem ist. Ich glaube, wenn man all diese Filter zusammen nimmt, all diese Algorithmen, dann bekommt man, was ich eine "Filterblase" nenne. Ihre Filterblase ist Ihr ganz persönliches einzigartiges Informationsuniversum, in dem Sie online leben. Und was in Ihrer Filterblase ist, hängt davon ab, wer Sie sind und was Sie tun. Aber Sie bestimmen nicht, was hineinkommt. Und, noch wichtiger, Sie sehen nie, was aussortiert wird. Eines der Probleme der Filterblase wurde von Forschern bei Netflix entdeckt. Sie schauten sich die Film-Bestelllisten dort an, und ihnen fiel etwas komisches auf, das wohl schon viele von uns kennen, nämlich dass manche Filme sofort nach oben auf die Liste kommen und ab zu uns nach Hause. Sie kommen neu oben auf die Liste, und sofort geht es los. "Iron Man" geht sofort raus, und bei "Waiting for Superman" kann es ziemlich lange dauern.
So I do think this is a problem. And I think, if you take all of these filters together, you take all these algorithms, you get what I call a filter bubble. And your filter bubble is your own personal, unique universe of information that you live in online. And what's in your filter bubble depends on who you are, and it depends on what you do. But the thing is that you don't decide what gets in. And more importantly, you don't actually see what gets edited out. So one of the problems with the filter bubble was discovered by some researchers at Netflix. And they were looking at the Netflix queues, and they noticed something kind of funny that a lot of us probably have noticed, which is there are some movies that just sort of zip right up and out to our houses. They enter the queue, they just zip right out. So "Iron Man" zips right out, and "Waiting for Superman" can wait for a really long time.
Was sie herausgefunden haben ist, dass in unseren Netflix-Wartelisten ein epischer Kampf stattfindet -- zwischen unserem zukünftigen, anspruchsvolleren Ich und unserem impulsiveren, gegenwärtigen Ich. Sie wissen ja, wir möchten alle jemand sein der "Rashomon" gesehen hat, aber jetzt gerade wollen wir "Ace Ventura" zum vierten Mal anschauen. (Gelächter) Die beste Zusammenstellung für uns wäre von allem etwas. Ein kleines bißchen Justin Bieber und ein kleines bißchen Afghanistan. Etwas Informations-Gemüse, und ein wenig Informations-Nachtisch. Und die Herausforderung für algorithmische Filter, diese personalisierten Filter, ist, dass sie diese Balance umkippen, weil sie vor allem danach gehen, worauf man zuerst klickt. Und statt einer ausgewogenen Informationsdiät findet man sich am Ende inmitten von Informations-Junk Food wieder.
What they discovered was that in our Netflix queues there's this epic struggle going on between our future aspirational selves and our more impulsive present selves. You know we all want to be someone who has watched "Rashomon," but right now we want to watch "Ace Ventura" for the fourth time. (Laughter) So the best editing gives us a bit of both. It gives us a little bit of Justin Bieber and a little bit of Afghanistan. It gives us some information vegetables; it gives us some information dessert. And the challenge with these kinds of algorithmic filters, these personalized filters, is that, because they're mainly looking at what you click on first, it can throw off that balance. And instead of a balanced information diet, you can end up surrounded by information junk food.
Was das heißen könnte ist, dass wir die Sache mit dem Internet vielleicht falsch verstanden haben. In einer Sendergesellschaft -- so geht der Gründungsmythos -- in einer Sendergesellschaft gab es Torwächter, die Redakteure, die den Informationsfluss kontrolliert haben. Und dann kam das Internet und hat sie aus dem Weg gefegt, und uns allen ermöglicht, uns miteinander zu verbinden, und es war wunderbar. Aber das ist nicht, was gerade passiert. Was wir erleben ist eher eine Übergabe der Fackel von menschlichen Torwächtern an die Algorithmen. Nur dass den Algorithmen noch keine Ethik eingebaut wurde, wie sie die Redakteure haben. Wenn also Algorithmen die Welt für uns kuratieren, wenn sie entscheiden, was wir zu sehen bekommen und was nicht, dann müssen wir sicherstellen, dass sie nicht nur nach Relevanz auswählen. Wir müssen garantieren, dass sie uns auch Dinge zeigen, die unbequem oder herausfordernd oder wichtig sind -- so wie das TED tut -- andere Sichtweisen.
What this suggests is actually that we may have the story about the Internet wrong. In a broadcast society -- this is how the founding mythology goes -- in a broadcast society, there were these gatekeepers, the editors, and they controlled the flows of information. And along came the Internet and it swept them out of the way, and it allowed all of us to connect together, and it was awesome. But that's not actually what's happening right now. What we're seeing is more of a passing of the torch from human gatekeepers to algorithmic ones. And the thing is that the algorithms don't yet have the kind of embedded ethics that the editors did. So if algorithms are going to curate the world for us, if they're going to decide what we get to see and what we don't get to see, then we need to make sure that they're not just keyed to relevance. We need to make sure that they also show us things that are uncomfortable or challenging or important -- this is what TED does -- other points of view.
Und an diesem Punkt waren wir ja schon einmal, als Gesellschaft. Im Jahre 1915 haben sich die Zeitungen nicht gerade verausgabt um ihrer bürgerlichen Verantwortung nachzukommen. Dann hat man bemerkt dass sie eine sehr wichtige Funktion hatten. Dass eine funktionierende Demokratie gar nicht möglich war ohne einen guten Informationsfluss für die Bürger. Dass die Zeitungen mit ihrer Filterwirkung von entscheidender Bedeutung waren -- und dann entwickelte sich eine journalistische Ethik. Die war nicht perfekt, aber sie hat uns durch das letzte Jahrhundert gebracht. Und jetzt sind wir mit dem Internet wieder im Jahr 1915. Und die neuen Torwächter müssen in den Code, den sie schreiben, diese Verantwortung für uns mit einbauen.
And the thing is, we've actually been here before as a society. In 1915, it's not like newspapers were sweating a lot about their civic responsibilities. Then people noticed that they were doing something really important. That, in fact, you couldn't have a functioning democracy if citizens didn't get a good flow of information, that the newspapers were critical because they were acting as the filter, and then journalistic ethics developed. It wasn't perfect, but it got us through the last century. And so now, we're kind of back in 1915 on the Web. And we need the new gatekeepers to encode that kind of responsibility into the code that they're writing.
Ich weiß, dass hier viele Leute von Facebook und von Google sind -- Larry und Sergey -- Leute, die das Netz in seiner heutigen Form mitgebaut haben, und dafür bin ich dankbar. Aber wir müssen wirklich sicherstellen, dass diese Algorithmen einen Sinn für öffentliches Leben, für bürgerliche Verantwortung einprogrammiert haben. Wir müssen dafür sorgen, dass sie transparent genug sind, so dass wir die Regeln sehen können, die bestimmen, was durch unsere Filter kommt. Und Ihr müsst uns Kontrolle darüber geben, so dass wir entscheiden können was durchkommen soll und was nicht. Denn ich glaube dass wir das Internet wirklich so brauchen wie wir es uns erträumt haben. Es soll uns alle miteinander verbinden. Es soll uns an neue Ideen heranführen und an neue Leute und fremde Perspektiven. Und das wird nicht geschehen, wenn wir alle isoliert werden, in einem vereinzelten Netz.
I know that there are a lot of people here from Facebook and from Google -- Larry and Sergey -- people who have helped build the Web as it is, and I'm grateful for that. But we really need you to make sure that these algorithms have encoded in them a sense of the public life, a sense of civic responsibility. We need you to make sure that they're transparent enough that we can see what the rules are that determine what gets through our filters. And we need you to give us some control so that we can decide what gets through and what doesn't. Because I think we really need the Internet to be that thing that we all dreamed of it being. We need it to connect us all together. We need it to introduce us to new ideas and new people and different perspectives. And it's not going to do that if it leaves us all isolated in a Web of one.
Danke.
Thank you.
(Applaus)
(Applause)