Mark Zuckerberg, a journalist was asking him a question about the news feed. And the journalist was asking him, "Why is this so important?" And Zuckerberg said, "A squirrel dying in your front yard may be more relevant to your interests right now than people dying in Africa." And I want to talk about what a Web based on that idea of relevance might look like.
Mark Zuckerberg, seorang wartawan menanyakan padanya pertanyaan tentang feed berita. Dan wartawan itu menanyakan kepadanya, "Mengapa ini sangat penting?" Dan Zuckerberg menjawab, "Seekor tupai yang sekarat di halaman depan Anda mungkin lebih relevan dengan minat Anda sekarang dibandingkan orang-orang sekarat di Afrika." Dan saya ingin berbicara tentang bagaimana sebuah Web yang didasari pemikiran relevansi itu akan terlihat.
So when I was growing up in a really rural area in Maine, the Internet meant something very different to me. It meant a connection to the world. It meant something that would connect us all together. And I was sure that it was going to be great for democracy and for our society. But there's this shift in how information is flowing online, and it's invisible. And if we don't pay attention to it, it could be a real problem. So I first noticed this in a place I spend a lot of time -- my Facebook page. I'm progressive, politically -- big surprise -- but I've always gone out of my way to meet conservatives. I like hearing what they're thinking about; I like seeing what they link to; I like learning a thing or two. And so I was surprised when I noticed one day that the conservatives had disappeared from my Facebook feed. And what it turned out was going on was that Facebook was looking at which links I clicked on, and it was noticing that, actually, I was clicking more on my liberal friends' links than on my conservative friends' links. And without consulting me about it, it had edited them out. They disappeared.
Ketika saya tumbuh dewasa di daerah yang sangat pedesaan di Maine, Internet berarti sangat berbeda bagi saya. Ia berarti koneksi ke dunia. Ia berarti sesuatu yang dapat menghubungkan kita semua. Dan saya yakin Internet akan sangat bagus untuk demokrasi dan untuk masyarakat kita. Tetapi ada perubahan dalam bagaimana informasi mengalir online, dan ini tidak terlihat. Dan jika kita tidak memperhatikannya, ini dapat menjadi masalah nyata. Jadi pertama kali saya memperhatikan ini di tempat saya menghabiskan banyak waktu -- halaman Facebook saya. Saya progresif secara politik -- kejutan besar -- tetapi saya selalu berusaha untuk bertemu dengan para konservatif Saya suka mendengar apa yang mereka pikirkan; Saya suka melihat yang mereka tautkan; Saya suka belajar satu dua hal. Dan saya terkejut waktu satu hari saya perhatikan bahwa para konservatif telah menghilang dari Facebook feed saya. Dan ternyata yang terjadi adalah bahwa Facebook melihat tautan mana yang saya klik, dan FB mengetahui bahwa, sebenarnya, Saya mengklik lebih banyak tautan dari teman-teman liberal saya dibanding tautan dari teman-teman konservatif saya. Dan tanpa menanyakan saya tentang itu, mereka telah diedit. Tautan ini menghilang.
So Facebook isn't the only place that's doing this kind of invisible, algorithmic editing of the Web. Google's doing it too. If I search for something, and you search for something, even right now at the very same time, we may get very different search results. Even if you're logged out, one engineer told me, there are 57 signals that Google looks at -- everything from what kind of computer you're on to what kind of browser you're using to where you're located -- that it uses to personally tailor your query results. Think about it for a second: there is no standard Google anymore. And you know, the funny thing about this is that it's hard to see. You can't see how different your search results are from anyone else's.
Jadi Facebook bukanlah tempat satu-satunya yang melakukan pengeditan secara tidak terlihat, secara algoritmik terhadap Web. Google juga melakukannya. Jika saya mencari sesuatu, dan Anda mencari sesuatu, bahkan sekarang pada saat yang bersamaan, kita akan mendapatkan hasil pencarian yang sangat berbeda. Bahkan jika Anda telah keluar, seorang insinyur mengatakan kepada saya, ada 57 sinyal yang Google lihat -- semua dari komputer apa yang Anda dipakai, dari browser apa yang dipakai Anda, dimana Anda berada -- yang dipakai untuk menyesuaikan hasil pertanyaan Anda. Pikirkanlah sebentar: sudah tidak ada Google standar lagi. Dan tahukah Anda, yang lucu dari hal ini adalah ini sulit untuk dilihat. Anda tidak dapat melihat bagaimana hasil pencarian Anda berbeda dari orang lain.
But a couple of weeks ago, I asked a bunch of friends to Google "Egypt" and to send me screen shots of what they got. So here's my friend Scott's screen shot. And here's my friend Daniel's screen shot. When you put them side-by-side, you don't even have to read the links to see how different these two pages are. But when you do read the links, it's really quite remarkable. Daniel didn't get anything about the protests in Egypt at all in his first page of Google results. Scott's results were full of them. And this was the big story of the day at that time. That's how different these results are becoming.
Tetapi dua minggu lalu, Saya tanya beberapa orang untuk mencari "Mesir" di Google dan mengirimkan saya gambar layar yang mereka dapatkan. Jadi ini gambar layar milik Scott teman saya. Dan ini gambar layar milik teman saya Daniel. Jika Anda letakan mereka berdekatan, Anda tidak harus melihat tautannya untuk melihat bagaimana dua halaman ini berbeda. Tapi jika Anda membaca tautannya, ini sangat luar biasa. Daniel tidak mendapatkan apapun tentang protes di Mesir di halaman pertama hasil pencarian Googlenya. Di hasil Scott ada banyak sekali. Dan inilah cerita besar di hari itu. Itulah bagaimana hasil pencarian ini menjadi berbeda.
So it's not just Google and Facebook either. This is something that's sweeping the Web. There are a whole host of companies that are doing this kind of personalization. Yahoo News, the biggest news site on the Internet, is now personalized -- different people get different things. Huffington Post, the Washington Post, the New York Times -- all flirting with personalization in various ways. And this moves us very quickly toward a world in which the Internet is showing us what it thinks we want to see, but not necessarily what we need to see. As Eric Schmidt said, "It will be very hard for people to watch or consume something that has not in some sense been tailored for them."
Jadi ini bukan hanya Google dan Facebook saja. Ini adalah sesuatu yang melanda seluruh Web. Ada banyak perusahaan yang melakukan personalisasi semacam ini. Yahoo News, portal berita terbesar di Internet, sekarang sudah dipersonalisasi -- orang berbeda mendapat hasil berbeda. Huffington Post, Washington Post, New York Times -- semuanya melakukan personalisasi dengan bermacam cara. Dan ini mengantarkan kita dengan sangat cepat ke dunia dimana Internet memperlihatkan ke kita apa yang ia pikir kita mau lihat, tetapi bukan berarti yang kita perlu lihat. Seperti yang Eric Schmidt katakan, "Akan sangat sulit bagi orang-orang untuk melihat atau mengkonsumsi sesuatu yang dalam arti tertentu belum disesuaikan untuk mereka."
So I do think this is a problem. And I think, if you take all of these filters together, you take all these algorithms, you get what I call a filter bubble. And your filter bubble is your own personal, unique universe of information that you live in online. And what's in your filter bubble depends on who you are, and it depends on what you do. But the thing is that you don't decide what gets in. And more importantly, you don't actually see what gets edited out. So one of the problems with the filter bubble was discovered by some researchers at Netflix. And they were looking at the Netflix queues, and they noticed something kind of funny that a lot of us probably have noticed, which is there are some movies that just sort of zip right up and out to our houses. They enter the queue, they just zip right out. So "Iron Man" zips right out, and "Waiting for Superman" can wait for a really long time.
Jadi saya pikir ini adalah suatu masalah. Dan saya pikir, jika Anda ambil semua filter ini, Anda ambil semua algoritma ini, Anda mendapatkan yang saya sebut gelembung filter. Dan gelembung filter Anda adalah dunia informasi milik Anda sendiri yang unik yang anda tinggali waktu online. Dan apa yang ada di gelembung filter Anda tergantung dari siapa Anda, dan tergantung pada apa yang Anda lakukan. Tetapi masalahnya Anda tidak memutuskan apa yang masuk. Dan lebih penting lagi, Anda tidak melihat apa yang disunting keluar. Jadi salah satu masalah dari gelembung filter ditemukan oleh beberapa peneliti di Netflix. Mereka melihat antrian Netflix, dan mereka menemukan sesuatu yang lucu yang banyak dari kita mungkin perhatikan, yaitu ada beberapa film yang sepertinya langsung terkirim ke rumah kita. Mereka masuk ke antrian, dan mereka langsung terkirim. Jadi "Iron Man" langsung terkirim, dan "Waiting for Superman" dapat menunggu untuk waktu yang sangat lama.
What they discovered was that in our Netflix queues there's this epic struggle going on between our future aspirational selves and our more impulsive present selves. You know we all want to be someone who has watched "Rashomon," but right now we want to watch "Ace Ventura" for the fourth time. (Laughter) So the best editing gives us a bit of both. It gives us a little bit of Justin Bieber and a little bit of Afghanistan. It gives us some information vegetables; it gives us some information dessert. And the challenge with these kinds of algorithmic filters, these personalized filters, is that, because they're mainly looking at what you click on first, it can throw off that balance. And instead of a balanced information diet, you can end up surrounded by information junk food.
Yang mereka temukan adalah di antrian Netflix kami ada perjuangan hebat yang terjadi antara diri kita yang aspiratif di masa mendatang dan diri kita yang impulsif di masa sekarang. Anda tahu kita semua mau untuk menjadi seseorang yang telah menonton "Rashomon," tetapi sekarang kita ingin menonton "Ace Ventura" untuk keempat kalinya. (Tawa) Jadi pengeditan yang terbaik memberi kita keduanya. Ia memberi kita sedikit Justin Beiber dan sedikit Afghanistan. Ia memberi kita beberapa sayuran informasi, Ia memberi kita beberapa makanan penutup informasi. Dan tantangannya dengan sejenis filter algoritmik ini, filter yang telah disesuaikan seperti ini, adalah, karena mereka pada dasarnya mencari apa yang Anda klik pertama kali, itu akan menjadikannya tidak seimbang. Dan bukannya informasi diet seimbang, Anda akhirnya dapat terkepung oleh informasi junk food.
What this suggests is actually that we may have the story about the Internet wrong. In a broadcast society -- this is how the founding mythology goes -- in a broadcast society, there were these gatekeepers, the editors, and they controlled the flows of information. And along came the Internet and it swept them out of the way, and it allowed all of us to connect together, and it was awesome. But that's not actually what's happening right now. What we're seeing is more of a passing of the torch from human gatekeepers to algorithmic ones. And the thing is that the algorithms don't yet have the kind of embedded ethics that the editors did. So if algorithms are going to curate the world for us, if they're going to decide what we get to see and what we don't get to see, then we need to make sure that they're not just keyed to relevance. We need to make sure that they also show us things that are uncomfortable or challenging or important -- this is what TED does -- other points of view.
Apa yang ini tunjukkan adalah nyatanya kita mungkin telah mendapatkan cerita tentang Internet dengan salah. Di masyarakat penyiaran -- ini adalah bagaimana mitologi pendiri mengatakan -- di masyarakat siaran, ada penjaga gerbang, sang editor, dan mereka mengkontrol aliran informasi. Dan akhirnya datang Internet dan ia menyapu mereka keluar, dan ia memungkinkan kita untuk terhubung satu sama lain, dan ini sangat luar biasa. Tetapi ini bukanlah apa yang nyatanya terjadi sekarang. Apa yang kita lihat adalah pemindahan obor dari penjaga gerbang manusia ke penjaga gawang algoritmik. Dan masalahnya adalah algoritma belum memiliki etika yang tersirat yang para editor punya. Jadi jika algoritma akan menyediakan dunia untuk kita, jika mereka akan memutuskan apa yang dapat kita lihat dan apa yang tidak bisa kita lihat, jadi kita perlu untuk memastikan bahwa mereka bukan saja diprogram untuk relevansi. Kita perlu pastikan bahwa mereka juga menunjukan kita hal-hal yang tidak nyaman atau menantang atau penting -- inilah yang TED lakukan -- sudut pandang orang lain.
And the thing is, we've actually been here before as a society. In 1915, it's not like newspapers were sweating a lot about their civic responsibilities. Then people noticed that they were doing something really important. That, in fact, you couldn't have a functioning democracy if citizens didn't get a good flow of information, that the newspapers were critical because they were acting as the filter, and then journalistic ethics developed. It wasn't perfect, but it got us through the last century. And so now, we're kind of back in 1915 on the Web. And we need the new gatekeepers to encode that kind of responsibility into the code that they're writing.
Dan sebenarnya kita pernah berada disini sebelumnya sebagai sebuah masyarakat. Di 1915, tidaklah seperti koran memikirkan banyak tentang tanggung jawab mereka sebagai warna negara. Lalu orang-orang memperhatikan Bahwa mereka melakukan sesuatu yang sangat penting. Bahwa, sesungguhnya, Anda tidak bisa mendapatkan demokrasi yang berfungsi jika warga negaranya tidak mendapatkan aliran informasi yang baik. Koran sangat penting, karena mereka bertindak sebagai filter, dan akhirnya etika wartawan terbentuk. Itu tidak sempurna, tetap berhasil membawa kita melewati seabad terakhir. Dan sekarang, kita seperti kembali di tahun 1915 di Web. Dan kita perlu penjaga gerbang baru untuk mengkode tanggung jawab seperti ini menjadi kode yang mereka tulis.
I know that there are a lot of people here from Facebook and from Google -- Larry and Sergey -- people who have helped build the Web as it is, and I'm grateful for that. But we really need you to make sure that these algorithms have encoded in them a sense of the public life, a sense of civic responsibility. We need you to make sure that they're transparent enough that we can see what the rules are that determine what gets through our filters. And we need you to give us some control so that we can decide what gets through and what doesn't. Because I think we really need the Internet to be that thing that we all dreamed of it being. We need it to connect us all together. We need it to introduce us to new ideas and new people and different perspectives. And it's not going to do that if it leaves us all isolated in a Web of one.
Saya tahu banyak orang di sini dari Facebook atau Google -- Larry dan Sergey -- orang-orang yang telah membantu kita membangun Web seperti sekarang, dan saya berterima kasih untuk itu. Tetapi kami sangat memerlukan Anda untuk memastikan bahwa algoritma-algoritma ini memiliki kode rasa dari kehidupan publik, rasa tanggung jawab kewarganegaraan. Kita perlu Anda untuk memastikan bahwa mereka cukup transparan sehingga kita dapat melihat aturan-aturan yang menentukan apa yang bisa melewati filter kita. Dan kita butuh Anda untuk memberi kita kontrol, sehingga kita bisa memutuskan apa yang bisa lewat dan apa yang tidak. Karena saya pikir kita sangat membutuhkan Internet untuk menjadi sesuatu yang kita impikan. Kita membutuhkannya untuk menghubungkan kita semua. Kita membutuhkannya untuk memperkenalkan kita kepada pemikiran baru dan orang-orang baru dan perspektif berbeda. Dan itu tidak akan terjadi jika kita menjadi terisolasi di satu Web.
Thank you.
Terima kasih.
(Applause)
(Tepuk tangan)