Mark Zuckerberg, a journalist was asking him a question about the news feed. And the journalist was asking him, "Why is this so important?" And Zuckerberg said, "A squirrel dying in your front yard may be more relevant to your interests right now than people dying in Africa." And I want to talk about what a Web based on that idea of relevance might look like.
Um jornalista entrevistava Mark Zuckerberg, sobre o "feed" de notícias. e o jornalista perguntou-lhe: "Porque é que isso é tão importante?" Ao que Zuckerberg respondeu: "Um esquilo a morrer no nosso quintal "pode ser mais relevante para os nossos interesses neste momento "do que pessoas a morrer em África." Eu quero falar sobre como será o aspeto de uma web baseada nesta ideia de relevância.
So when I was growing up in a really rural area in Maine, the Internet meant something very different to me. It meant a connection to the world. It meant something that would connect us all together. And I was sure that it was going to be great for democracy and for our society. But there's this shift in how information is flowing online, and it's invisible. And if we don't pay attention to it, it could be a real problem. So I first noticed this in a place I spend a lot of time -- my Facebook page. I'm progressive, politically -- big surprise -- but I've always gone out of my way to meet conservatives. I like hearing what they're thinking about; I like seeing what they link to; I like learning a thing or two. And so I was surprised when I noticed one day that the conservatives had disappeared from my Facebook feed. And what it turned out was going on was that Facebook was looking at which links I clicked on, and it was noticing that, actually, I was clicking more on my liberal friends' links than on my conservative friends' links. And without consulting me about it, it had edited them out. They disappeared.
À medida que fui crescendo numa zona rural em Maine a Internet significava uma coisa muito diferente para mim. Significava uma ligação ao mundo. Era uma coisa que nos ligaria a todos. E eu tinha a certeza que seria ótimo para a democracia e para a nossa sociedade. Mas houve uma mudança na forma como as informações circulam online, e são invisíveis. Se não lhe prestarmos atenção, poderá ser um grande problema. Reparei nisto pela primeira vez num local onde passo muito tempo, a minha página do Facebook. Sou progressista, politicamente — grande surpresa — mas sempre me esforcei para conhecer conservadores. Gosto de saber em que estão a pensar. Gosto de ver em que ligações clicam. Gosto de saber uma ou duas coisas. Fiquei surpreendido quando um dia reparei que os conservadores tinham desaparecido do meu "feed" de notícias do Facebook. O que realmente se passava era que o Facebook andava a ver em que ligações eu clicava, e reparou que eu clicava mais nas ligações dos meus amigos liberais do que nos de amigos conservadores. E sem sequer me consultar sobre isso, acabou por filtrá-los. Desapareceram.
So Facebook isn't the only place that's doing this kind of invisible, algorithmic editing of the Web. Google's doing it too. If I search for something, and you search for something, even right now at the very same time, we may get very different search results. Even if you're logged out, one engineer told me, there are 57 signals that Google looks at -- everything from what kind of computer you're on to what kind of browser you're using to where you're located -- that it uses to personally tailor your query results. Think about it for a second: there is no standard Google anymore. And you know, the funny thing about this is that it's hard to see. You can't see how different your search results are from anyone else's.
O Facebook não é o único sítio a fazer este tipo de edição da web — invisível, algorítmica. O Google também o faz. Se eu pesquisar qualquer coisa e vocês também o fizerem, mesmo agora, exatamente ao mesmo tempo, é possível que obtenhamos resultados de pesquisa muito diferentes. Mesmo que estejam desligados — disse-me um engenheiro — há 57 sinais para os quais a Google olha — tudo, desde o tipo de computador em que nos encontramos até que tipo de navegador utilizamos até onde nos encontramos — e os utiliza para personalizar os nossos resultados de pesquisa. Pensem nisto por instantes. Já não há um Google igual para todos. A piada disto está no facto de que é difícil de se ver. Não temos a noção de que os nossos resultados são diferentes dos de qualquer outra pessoa.
But a couple of weeks ago, I asked a bunch of friends to Google "Egypt" and to send me screen shots of what they got. So here's my friend Scott's screen shot. And here's my friend Daniel's screen shot. When you put them side-by-side, you don't even have to read the links to see how different these two pages are. But when you do read the links, it's really quite remarkable. Daniel didn't get anything about the protests in Egypt at all in his first page of Google results. Scott's results were full of them. And this was the big story of the day at that time. That's how different these results are becoming.
Aqui há umas semanas, pedi a uns quantos amigos que pesquisassem "Egito" no Google e me mandassem uma imagem do seu ecrã com os resultados da pesquisa. Esta é a imagem do meu amigo Scott. E esta é a imagem do meu amigo Daniel. Quando as pomos lado a lado, não precisamos de ler os resultados para ver quão diferentes são estas duas páginas. Mas quando lemos os resultados, é de facto bastante notável. O Daniel não obteve absolutamente nada sobre os protestos no Egito na sua primeira página de resultados no Google. Os resultados do Scott estavam cheios deles. Na altura, esta era a grande notícia do dia. Isto é o quão diferente estão a ficar estes resultados.
So it's not just Google and Facebook either. This is something that's sweeping the Web. There are a whole host of companies that are doing this kind of personalization. Yahoo News, the biggest news site on the Internet, is now personalized -- different people get different things. Huffington Post, the Washington Post, the New York Times -- all flirting with personalization in various ways. And this moves us very quickly toward a world in which the Internet is showing us what it thinks we want to see, but not necessarily what we need to see. As Eric Schmidt said, "It will be very hard for people to watch or consume something that has not in some sense been tailored for them."
Isto não é apenas no Google e no Facebook. Isto é uma coisa que está a varrer a web. Há uma série de empresas que estão a fazer este tipo de personalização. A Yahoo News, o maior site de notícias na Internet, é agora personalizado — pessoas diferentes obtêm resultados diferentes. O Huffington Post, o Washington Post, o New York Times — todos a namoriscar a personalização de diferentes maneiras. Isto leva-nos muito rapidamente na direção de um mundo em que a Internet nos mostra o que ela acha que nós queremos ver, mas não necessariamente aquilo que temos de ver. Como disse Eric Schmidt: "Será muito difícil fazer com que as pessoas vejam ou adquiram algo "que não foi de alguma forma feito para elas."
So I do think this is a problem. And I think, if you take all of these filters together, you take all these algorithms, you get what I call a filter bubble. And your filter bubble is your own personal, unique universe of information that you live in online. And what's in your filter bubble depends on who you are, and it depends on what you do. But the thing is that you don't decide what gets in. And more importantly, you don't actually see what gets edited out. So one of the problems with the filter bubble was discovered by some researchers at Netflix. And they were looking at the Netflix queues, and they noticed something kind of funny that a lot of us probably have noticed, which is there are some movies that just sort of zip right up and out to our houses. They enter the queue, they just zip right out. So "Iron Man" zips right out, and "Waiting for Superman" can wait for a really long time.
Eu penso que isto é um problema. E penso que, se agarrarmos em todos estes filtros, se agarrarmos em todos estes algoritmos, ficamos com aquilo a que eu chamo uma "bolha de filtros". E a nossa bolha de filtros é o nosso universo de informações pessoal e único. em que vivemos online. O que está na nossa bolha de filtros depende de quem somos e depende do que fazemos. O problema é que não decidimos o que entra na bolha. E mais importante ainda, não vemos o que fica de fora. Um dos problemas da bolha de filtros foi descoberto por investigadores na Netflix. Estavam a ver as filas na Netflix e repararam numa coisa com piada em que talvez já tenham reparado. Há certos filmes que entram e saem logo de nossa casa Vão para a fila e saem logo. Ou seja, o "Iron Man" sai logo, e o "Waiting for Superman" pode esperar muito tempo.
What they discovered was that in our Netflix queues there's this epic struggle going on between our future aspirational selves and our more impulsive present selves. You know we all want to be someone who has watched "Rashomon," but right now we want to watch "Ace Ventura" for the fourth time. (Laughter) So the best editing gives us a bit of both. It gives us a little bit of Justin Bieber and a little bit of Afghanistan. It gives us some information vegetables; it gives us some information dessert. And the challenge with these kinds of algorithmic filters, these personalized filters, is that, because they're mainly looking at what you click on first, it can throw off that balance. And instead of a balanced information diet, you can end up surrounded by information junk food.
Descobriram que, nas nossas filas da Netflix, decorre uma luta épica entre a nossa pessoa, futura e aspiracional, e a nossa pessoa, mais impulsiva e presente. Todos sabemos que queremos ser alguém que viu o "Rashomon", mas, neste momento, queremos ver o "Ace Ventura" pela quarta vez. (Risos) Portanto, o melhor ajuste dá-nos um bocado dos dois. Dá-nos um bocado de Justin Bieber e um bocado do Afeganistão. Dá-nos informações tipo vegetais, e dá-nos informações tipo sobremesa. O problema com este tipo de filtros algorítmicos, com estes filtros personalizados, é que, devido ao facto de estarem a olhar para o que se clica primeiro, podem desequilibrar esse balanço. Em vez de uma dieta equilibrada de informações , podemos encontrar-nos rodeados de informações tipo "comida de plástico".
What this suggests is actually that we may have the story about the Internet wrong. In a broadcast society -- this is how the founding mythology goes -- in a broadcast society, there were these gatekeepers, the editors, and they controlled the flows of information. And along came the Internet and it swept them out of the way, and it allowed all of us to connect together, and it was awesome. But that's not actually what's happening right now. What we're seeing is more of a passing of the torch from human gatekeepers to algorithmic ones. And the thing is that the algorithms don't yet have the kind of embedded ethics that the editors did. So if algorithms are going to curate the world for us, if they're going to decide what we get to see and what we don't get to see, then we need to make sure that they're not just keyed to relevance. We need to make sure that they also show us things that are uncomfortable or challenging or important -- this is what TED does -- other points of view.
O que isto sugere é que podemos ficar com uma ideia errada da Internet. Numa sociedade difundida — é assim que funciona a mitologia de fundação — numa sociedade difundida, havia os porteiros, os editores, que controlavam os fluxos de informações. Entretanto, veio a Internet, varreu-os para fora do seu caminho, e permitiu-nos ligar uns aos outros, o que era ótimo. Mas, na verdade, não é o que acontece neste momento. O que estamos a ver é antes a passagem do facho dos porteiros humanos para os porteiros algorítmicos. O problema é que os algoritmos ainda não têm incorporada o tipo de ética que os editores tinham. Portanto, se são os algoritmos que vão filtrar o mundo por nós, se vão decidir o que podemos ver e o que não podemos ver, então temos que ter a certeza que não estão apenas ligados à relevância. Temos que ter a certeza que também nos mostram coisas que são desconfortáveis ou desafiadoras ou importantes — é isto o que o TED faz — outros pontos de vista.
And the thing is, we've actually been here before as a society. In 1915, it's not like newspapers were sweating a lot about their civic responsibilities. Then people noticed that they were doing something really important. That, in fact, you couldn't have a functioning democracy if citizens didn't get a good flow of information, that the newspapers were critical because they were acting as the filter, and then journalistic ethics developed. It wasn't perfect, but it got us through the last century. And so now, we're kind of back in 1915 on the Web. And we need the new gatekeepers to encode that kind of responsibility into the code that they're writing.
E o problema é que já passámos por isto enquanto sociedade. Em 1915, os jornais não se preocupavam muito com as suas responsabilidades cívicas. Depois as pessoas repararam que eles estavam a fazer uma coisa muito importante. Que, de facto, não era possível ter uma democracia funcional se os cidadãos não obtivessem um bom fluxo de informações. Que os jornais eram críticos, porque estavam a agir como filtro, e aí desenvolveu-se a ética do jornalismo. Não era perfeita, mas foi com ela que passámos o século passado. Portanto agora, é como se voltássemos a 1915, na web. É preciso que estes novos porteiros inscrevam esse tipo de responsabilidade no código daquilo que estão a escrever.
I know that there are a lot of people here from Facebook and from Google -- Larry and Sergey -- people who have helped build the Web as it is, and I'm grateful for that. But we really need you to make sure that these algorithms have encoded in them a sense of the public life, a sense of civic responsibility. We need you to make sure that they're transparent enough that we can see what the rules are that determine what gets through our filters. And we need you to give us some control so that we can decide what gets through and what doesn't. Because I think we really need the Internet to be that thing that we all dreamed of it being. We need it to connect us all together. We need it to introduce us to new ideas and new people and different perspectives. And it's not going to do that if it leaves us all isolated in a Web of one.
Eu sei que há aqui bastantes pessoas do Facebook e do Google — Larry e Sergey — pessoas que ajudaram a construir a web tal como é — e eu estou grato por isso. Mas precisamos que vocês tenham a certeza de que estes algoritmos tenham neles inscritos um sentido de vida pública, um sentido de responsabilidade cívica. Precisamos que vocês tenham a certeza de que são suficientemente transparentes para conseguirmos ver quais são as regras que determinam o que é que passa através dos nossos filtros. Precisamos que nos deem algum controlo, para podermos decidir o que passa e o que não passa. Porque eu acho que precisamos que a Internet seja aquela coisa que todos nós sonhávamos que era. Precisamos que nos ligue todos uns aos outros. Precisamos que nos dê a conhecer novas ideias e novas pessoas e diferentes perspetivas. E não vai fazer isso se nos deixar a todos isolados na web de um só.
Thank you.
Obrigado.
(Applause)
(Aplausos)