Mark Zuckerberg, a journalist was asking him a question about the news feed. And the journalist was asking him, "Why is this so important?" And Zuckerberg said, "A squirrel dying in your front yard may be more relevant to your interests right now than people dying in Africa." And I want to talk about what a Web based on that idea of relevance might look like.
Mark Zuckerberg, en journalist spurte ham et spørsmål om nyhetsstrømmen. Og det journalisten spurte var, "Hvorfor er dette så viktig?" Og Zuckerberg svarte, "Et ekorn som dør i din hage kan være mer relevant for dine interesser akkurat nå enn at folk dør i Afrika." Og jeg vil snakke om hvordan et Internett basert på den idéen om relevanse kan se ut.
So when I was growing up in a really rural area in Maine, the Internet meant something very different to me. It meant a connection to the world. It meant something that would connect us all together. And I was sure that it was going to be great for democracy and for our society. But there's this shift in how information is flowing online, and it's invisible. And if we don't pay attention to it, it could be a real problem. So I first noticed this in a place I spend a lot of time -- my Facebook page. I'm progressive, politically -- big surprise -- but I've always gone out of my way to meet conservatives. I like hearing what they're thinking about; I like seeing what they link to; I like learning a thing or two. And so I was surprised when I noticed one day that the conservatives had disappeared from my Facebook feed. And what it turned out was going on was that Facebook was looking at which links I clicked on, and it was noticing that, actually, I was clicking more on my liberal friends' links than on my conservative friends' links. And without consulting me about it, it had edited them out. They disappeared.
Da jeg vokste opp i et virkelig øde område i Maine, betydde Internett noe veldig annet for meg. Det betydde en forbindelse til verden. Det betydde noe som ville koble oss alle sammen. Og jeg var sikker på at det kom til å være flott for demokratiet og for vårt samfunn. Men det er denne endringen i hvordan informasjon beveger seg på nettet, og den er usynlig. Og hvis vi ikke holder øye med den, kan det bli et virkelig problem. Først la jeg merke til dette på et sted der jeg tilbringer mye tid – Facebook-siden min. Politisk er jeg progressiv – stor overraskelse – men jeg har alltid gjort mitt beste for å treffe konservative. Jeg liker å høre hva de tenker på; jeg liker å se hva de linker til; jeg liker å lære en ting eller to. Så jeg ble overrasket da jeg en dag oppdaget at de konservative hadde forsvunnet fra nyhetsstrømmen min på Facebook. Og det som viste seg å være årsaken var at Facebook registrerte hvilke lenker jeg klikket på, og la merke til at jeg faktisk klikket mer på mine liberale venners lenker enn mine konservative venners lenker. Og uten å rådføre seg med meg om det, filtrerte de dem ut. De forsvant.
So Facebook isn't the only place that's doing this kind of invisible, algorithmic editing of the Web. Google's doing it too. If I search for something, and you search for something, even right now at the very same time, we may get very different search results. Even if you're logged out, one engineer told me, there are 57 signals that Google looks at -- everything from what kind of computer you're on to what kind of browser you're using to where you're located -- that it uses to personally tailor your query results. Think about it for a second: there is no standard Google anymore. And you know, the funny thing about this is that it's hard to see. You can't see how different your search results are from anyone else's.
Facebook er ikke de eneste som driver med denne usynlige, algoritmiske filtreringen av Internett. Google gjør det også. Hvis jeg søker etter noe og du søker etter noe, selv akkurat nå på nøyaktig samme tidspunkt, kan vi få veldig forskjellige resultater. Selv når du er logget ut, fortalte en utvikler meg, er det 57 signaler som Google ser på – alt fra hva slags datamaskin du bruker, til hvilken nettleser du bruker, til hvor du befinner deg – som blir brukt til å personlig skreddersy dine søkeresultater. Tenk på det et øyeblikk: det er ingen standard Google lengre. Og du vet, det rare med dette er at det er vanskelig å se. Du kan ikke se hvor annerledes dine søkeresultater er i forhold til alle andre sine.
But a couple of weeks ago, I asked a bunch of friends to Google "Egypt" and to send me screen shots of what they got. So here's my friend Scott's screen shot. And here's my friend Daniel's screen shot. When you put them side-by-side, you don't even have to read the links to see how different these two pages are. But when you do read the links, it's really quite remarkable. Daniel didn't get anything about the protests in Egypt at all in his first page of Google results. Scott's results were full of them. And this was the big story of the day at that time. That's how different these results are becoming.
Men for et par uker siden, spurte jeg en gruppe venner om å Google "Egypt" og sende meg skjermbilder av resultatene sine. Her er min venn Scott sitt skjermbilde. Og her er min venn Daniel sitt skjermbilde. Når du plasserer dem side om side, trenger du ikke en gang lese lenkene for å se hvor forskjellig disse to sidene er. Men når du leser lenkene, er det faktisk veldig oppsiktsvekkende. Daniel fikk ikke noen treff om protestene i Egypt på sin første side med Google-resultater. Scott sine resultater var fulle av dem. Og dette var den store nyhetssaken på dette tidspunktet. Det er såpass forskjellig disse resultatene er i ferd med å bli.
So it's not just Google and Facebook either. This is something that's sweeping the Web. There are a whole host of companies that are doing this kind of personalization. Yahoo News, the biggest news site on the Internet, is now personalized -- different people get different things. Huffington Post, the Washington Post, the New York Times -- all flirting with personalization in various ways. And this moves us very quickly toward a world in which the Internet is showing us what it thinks we want to see, but not necessarily what we need to see. As Eric Schmidt said, "It will be very hard for people to watch or consume something that has not in some sense been tailored for them."
Dette gjelder ikke bare Google og Facebook heller. Dette er en trend som går igjen på Internett. Det er en hel rekke av bedrifter som bedriver denne type personalisering. Yahoo News, den største nyhetssiden på Internett, er nå personalisert – forskjellige folk ser forskjellige ting. Huffington Post, the Washington Post, the New York Times – alle flørter med personalisering på forskjellige måter. Og det beveger oss veldig raskt mot en verden der Internett viser oss hva det tror vi ønsker å se, men ikke nødvendigvis det vi trenger å se. Som Eric Schmidt sa, "Det kommer til å bli veldig vanskelig for folk å se eller konsumere noe som ikke på noen måte er blitt skreddersydd til dem."
So I do think this is a problem. And I think, if you take all of these filters together, you take all these algorithms, you get what I call a filter bubble. And your filter bubble is your own personal, unique universe of information that you live in online. And what's in your filter bubble depends on who you are, and it depends on what you do. But the thing is that you don't decide what gets in. And more importantly, you don't actually see what gets edited out. So one of the problems with the filter bubble was discovered by some researchers at Netflix. And they were looking at the Netflix queues, and they noticed something kind of funny that a lot of us probably have noticed, which is there are some movies that just sort of zip right up and out to our houses. They enter the queue, they just zip right out. So "Iron Man" zips right out, and "Waiting for Superman" can wait for a really long time.
Jeg syntes at dette er et problem. Og jeg tror at dersom du kombinerer alle disse filtrene, alle disse algoritmene, så får du det jeg kaller en filterboble. Din filterboble er ditt eget personlige, unike univers av informasjon som du lever i på nettet. Hva som finnes i din filterboble kommer an på hvem du er og det kommer an på hva du gjør. Men greia er at du får ikke bestemme hva som får komme inn. Og enda viktigere, du får faktisk ikke se hva som blir filtrert ut. Så et av problemene med filterboblen ble oppdaget av noen forskere hos Netflix. De så på Netflix-køen, og la merke til noe litt rart som mange av oss antakeligvis har lagt merke til, nemlig at det er noen filmer som bare sklir til topps og sendes direkte ut. De kommer inn i køen og sklir rett til topps. Så "Iron Man" sklir rett til topps, og "Waiting for Superman" kan vente veldig lenge.
What they discovered was that in our Netflix queues there's this epic struggle going on between our future aspirational selves and our more impulsive present selves. You know we all want to be someone who has watched "Rashomon," but right now we want to watch "Ace Ventura" for the fourth time. (Laughter) So the best editing gives us a bit of both. It gives us a little bit of Justin Bieber and a little bit of Afghanistan. It gives us some information vegetables; it gives us some information dessert. And the challenge with these kinds of algorithmic filters, these personalized filters, is that, because they're mainly looking at what you click on first, it can throw off that balance. And instead of a balanced information diet, you can end up surrounded by information junk food.
Det de oppdaget var at i vår Netflix-kø foregår det en storslått kamp mellom vår fremtidige ambisiøse selv og vår mer impulsive nåværende selv. Dere vet at vi alle ønsker å være en som har sett "Rashomon," men akkurat nå vil vi heller se "Ace Ventura" for fjerde gang. (Latter) Så det beste filteret gir oss litt av begge deler. Det gir oss en liten bit av Justin Bieber og en liten bit av Afghanistan. Det gir oss noe informasjon om grønnsaker; det gir oss noe informasjon om dessert. Og utfordringen med denne type algoritmiske filtre, disse personaliserte filtrene, er at, fordi de hovedsakelig ser på hva du klikker på først, kan de sette denne balansen ute av spill. Og i stedet for en balansert informasjonsdiett kan du ende opp omringet av informasjonssøppelmat.
What this suggests is actually that we may have the story about the Internet wrong. In a broadcast society -- this is how the founding mythology goes -- in a broadcast society, there were these gatekeepers, the editors, and they controlled the flows of information. And along came the Internet and it swept them out of the way, and it allowed all of us to connect together, and it was awesome. But that's not actually what's happening right now. What we're seeing is more of a passing of the torch from human gatekeepers to algorithmic ones. And the thing is that the algorithms don't yet have the kind of embedded ethics that the editors did. So if algorithms are going to curate the world for us, if they're going to decide what we get to see and what we don't get to see, then we need to make sure that they're not just keyed to relevance. We need to make sure that they also show us things that are uncomfortable or challenging or important -- this is what TED does -- other points of view.
Det dette antyder er at vi faktisk kan ha fått historien om Internett feil. I et kringkastingssamfunn – dette er slik grunnleggingsmytologien går – I et kringkastingssamfunn, der var det disse portvaktene, redaktørene, og de kontrollerte informasjonsflyten. Og så kom Internett på banen og feide dem ut av veien, og det tillot oss alle å koble oss sammen, og det var fantastisk. Men det er ikke akkurat det som skjer nå. Det vi ser er snarere en videreføring av ansvaret vekk fra menneskelige portvakter til algoritmiske. Og greia er at algoritmer ikke enda har den formen for innebygd etikk som redaktørene hadde. Så hvis algoritmer skal håndplukke verden for oss, hvis de skal få bestemme hva vi får se og hva vi ikke får se, da er vi nødt til å sørge for at de ikke kun er knyttet til relevans. Vi må sørge for at de også viser oss ting som er ubehagelig eller utfordrende eller viktig – det er dette TED gjør – andre synspunkter.
And the thing is, we've actually been here before as a society. In 1915, it's not like newspapers were sweating a lot about their civic responsibilities. Then people noticed that they were doing something really important. That, in fact, you couldn't have a functioning democracy if citizens didn't get a good flow of information, that the newspapers were critical because they were acting as the filter, and then journalistic ethics developed. It wasn't perfect, but it got us through the last century. And so now, we're kind of back in 1915 on the Web. And we need the new gatekeepers to encode that kind of responsibility into the code that they're writing.
Det spesielle er at vi faktisk har vært i denne situasjonen før som et samfunn. I 1915 hadde ikke akkurat avisene et anstrengt forhold til sitt samfunnsansvar. Så la folk merke til at de gjorde noe veldig viktig. At man faktisk ikke kunne ha et fungerende demokrati hvis borgerne ikke fikk en god strøm av informasjon, at avisene var viktige fordi de opptrådte som filteret, og så ble journalistisk etikk utviklet. Det var ikke perfekt, men det fikk oss gjennom det forrige århundret. Så nå, er vi på en måte tilbake i 1915 på Internett. Og vi trenger de nye portvaktene til å hardkode et slikt ansvar inn i koden de skriver.
I know that there are a lot of people here from Facebook and from Google -- Larry and Sergey -- people who have helped build the Web as it is, and I'm grateful for that. But we really need you to make sure that these algorithms have encoded in them a sense of the public life, a sense of civic responsibility. We need you to make sure that they're transparent enough that we can see what the rules are that determine what gets through our filters. And we need you to give us some control so that we can decide what gets through and what doesn't. Because I think we really need the Internet to be that thing that we all dreamed of it being. We need it to connect us all together. We need it to introduce us to new ideas and new people and different perspectives. And it's not going to do that if it leaves us all isolated in a Web of one.
Jeg vet at det er mange mennesker her fra Facebook og fra Google – Larry og Sergey – mennesker som har hjulpet med å bygge Internett slik det er, og jeg er takknemlig for det. Men vi trenger virkelig at dere sørger for at disse algoritmene har kodet inn i seg en oppfatning av det offentlige liv, en forstand for et samfunnsansvar. Vi trenger at dere sørger for at de er såpass åpne slik at vi kan se hva reglene er for å avgjøre hva som kommer gjennom våre filtre. Og vi trenger at dere gir oss noe kontroll så vi kan få bestemme hva som kommer gjennom og hva som stoppes. Fordi jeg tror at vi virkelig trenger at Internett blir den tingen vi alle drømte at det skulle bli. Vi trenger at det kobler oss alle sammen. Vi trenger det for å introdusere oss for nye idéer og nye mennesker og forskjellige perspektiver. Og det kommer ikke til å gjøre det om det etterlater oss alle isolert i et nett av en.
Thank you.
Takk.
(Applause)
(Applaus)