Mark Zuckerberg, a journalist was asking him a question about the news feed. And the journalist was asking him, "Why is this so important?" And Zuckerberg said, "A squirrel dying in your front yard may be more relevant to your interests right now than people dying in Africa." And I want to talk about what a Web based on that idea of relevance might look like.
Mark Zuckerberg, một phóng viên đã hỏi ông một câu hỏi liên quan đến các thông tin cập nhật trên Facebook (news feed) người phóng viên đó hỏi, "Tại sao chúng lại quan trọng đến vậy?" Và Zuckerberg đã trả lời, "1 con sóc chết ở sân trước nhà bạn có thể liên quan đến những mối quan tâm của bạn lúc này hơn là những người chết ở châu Phi." Và tôi muốn đề cập tới một trang web dựa trên ý tưởng về sự liên quan ấy sẽ như thế nào.
So when I was growing up in a really rural area in Maine, the Internet meant something very different to me. It meant a connection to the world. It meant something that would connect us all together. And I was sure that it was going to be great for democracy and for our society. But there's this shift in how information is flowing online, and it's invisible. And if we don't pay attention to it, it could be a real problem. So I first noticed this in a place I spend a lot of time -- my Facebook page. I'm progressive, politically -- big surprise -- but I've always gone out of my way to meet conservatives. I like hearing what they're thinking about; I like seeing what they link to; I like learning a thing or two. And so I was surprised when I noticed one day that the conservatives had disappeared from my Facebook feed. And what it turned out was going on was that Facebook was looking at which links I clicked on, and it was noticing that, actually, I was clicking more on my liberal friends' links than on my conservative friends' links. And without consulting me about it, it had edited them out. They disappeared.
Khi tôi lớn lên ở 1 vùng nông thôn thuộc Maine, Internet là là một điều gì đó thực sự khác biệt. Đó là sự liên kết với thế giới, Đó là điều gì đó có thể kết nối tất cả chúng ta với nhau. Và tôi chắc rằng nó sẽ thật tuyệt đối với nền dân chủ và cho xã hội của chúng ta. Nhưng rồi có 1 sự thay đổi trong việc luân chuyển các thông tin trên mạng, và nó diễn ra một cách thầm lặng. Và nếu chúng ta ko để ý tới nó, nó có thể trở thành 1 vấn đề thực sự. Tôi chú ý tới điều này lần đầu tiên ở 1 nơi mà tôi đã dành rất nhiều thời gian -- Facebook của tôi. Tôi là người tiến bộ, về mặt chính trị -- bất ngờ lớn phải không -- nhưng tôi luôn luôn tìm gặp những người bảo thủ. Tôi thích nghe những điều họ đang nghĩ tới; tôi muốn thấy họ liên kết với cái gì; tôi muốn học được 1 điều gì đó. Và tôi thực sự ngạc nhiên khi tới 1 ngày, tôi nhận ra rằng những người bảo thủ dần biến mất trong phần cập nhật Facebook của tôi. Hóa ra là Facebook đã quan sát những đường link mà tôi đã truy cập, và nhận ra rằng tôi đã truy cập vào các đường link của những người theo chủ nghĩa tự do nhiều hơn là của những người bảo thủ. Không hề hỏi ý kiến tôi về điều này, Facebook đã tự loại bỏ họ. Và rồi họ biến mất.
So Facebook isn't the only place that's doing this kind of invisible, algorithmic editing of the Web. Google's doing it too. If I search for something, and you search for something, even right now at the very same time, we may get very different search results. Even if you're logged out, one engineer told me, there are 57 signals that Google looks at -- everything from what kind of computer you're on to what kind of browser you're using to where you're located -- that it uses to personally tailor your query results. Think about it for a second: there is no standard Google anymore. And you know, the funny thing about this is that it's hard to see. You can't see how different your search results are from anyone else's.
Facebook không phải là nơi duy nhất làm những công việc biên tập vô hình, dựa trên những thuật toán, cho trang web của họ. Google cũng đang làm điều tương tự. Nếu tôi tìm kiếm điều gì đó, và bạn cũng tìm kiếm 1 điều tương tự, thậm chí là ngay bây giờ, tại cùng 1 thời điểm, chúng ta có thể sẽ nhận được những kết quả rất khác nhau. Thậm chí nếu bạn đã đăng xuất, 1 kĩ sư đã nói với tôi, có tới 57 dấu hiệu để Google quan sát -- từ loại máy tính mà bạn đang dùng, trình duyệt bạn sử dụng cho tới vị trí của bạn -- họ đã sử dụng chúng để điều chỉnh các kết quả tìm kiếm cho phù hợp với cá nhân bạn. Hãy nghĩ về điều này 1 chút -- không còn 1 Google chuẩn nữa đâu. Và bạn biết đấy, điều khôi hài là thực sự rất khó để nhận ra nó. Bạn không thể biết các kết quả của bạn khác biệt thế nào so với của 1 người khác.
But a couple of weeks ago, I asked a bunch of friends to Google "Egypt" and to send me screen shots of what they got. So here's my friend Scott's screen shot. And here's my friend Daniel's screen shot. When you put them side-by-side, you don't even have to read the links to see how different these two pages are. But when you do read the links, it's really quite remarkable. Daniel didn't get anything about the protests in Egypt at all in his first page of Google results. Scott's results were full of them. And this was the big story of the day at that time. That's how different these results are becoming.
Nhưng khoảng hai tuần trước, tôi đã đề nghị 1 nhóm bạn cùng tìm kiếm trên Google với từ khóa "Egypt" (Ai Cập) rồi gửi tôi bản chụp màn hình mà họ có. Và đây là bản chụp từ anh bạn Scott của tôi. Còn đây là của Daniel. Khi tôi đặt chúng cạnh nhau, thậm chí bạn không cần đọc những đường link để thấy chúng khác nhau đến thế nào. Nhưng khi bạn đọc những đường link này, chúng khá là khác thường đấy. Daniel không hề nhận được bất kỳ thứ gì về cuộc biểu tình ở Ai Cập ở trang đầu tiên của kết quả tìm kiếm. Còn của Scott thì đầy những thứ như vậy. Và đây thực sự là 1 vấn đề lớn ở thời điểm này, về việc các kết quả tìm kiếm đang trở nên khác nhau như thế nào.
So it's not just Google and Facebook either. This is something that's sweeping the Web. There are a whole host of companies that are doing this kind of personalization. Yahoo News, the biggest news site on the Internet, is now personalized -- different people get different things. Huffington Post, the Washington Post, the New York Times -- all flirting with personalization in various ways. And this moves us very quickly toward a world in which the Internet is showing us what it thinks we want to see, but not necessarily what we need to see. As Eric Schmidt said, "It will be very hard for people to watch or consume something that has not in some sense been tailored for them."
Không chỉ là Google hay Facebook đâu. Đó là 1 thứ đang lan tràn trong các trang web. Có rất nhiều công ty đang thực hiện việc cá nhân hóa như vậy. Yahoo News, trang tin tức lớn nhất trên mạng, đang được cá nhân hóa -- những người khác nhau sẽ nhận được những thứ khác nhau. Huffington Post, the Washington Post, the New York Times -- tất cả đều đang thực hiện việc cá nhân hóa theo nhiều cách khác nhau. Và nó hướng chúng ta, 1 cách rất nhanh chóng, tới 1 thế giới mà ở đó Internet sẽ cho chúng ta thấy cái mà nó nghĩ chúng ta muốn thấy, nhưng không phải luôn là những gì chúng ta cần. Như Eric Schimidt đã nói, "Se rất khó khăn cho mọi người để xem hay sử dụng một thứ mà chưa hề được điều chỉnh để phù hợp với họ."
So I do think this is a problem. And I think, if you take all of these filters together, you take all these algorithms, you get what I call a filter bubble. And your filter bubble is your own personal, unique universe of information that you live in online. And what's in your filter bubble depends on who you are, and it depends on what you do. But the thing is that you don't decide what gets in. And more importantly, you don't actually see what gets edited out. So one of the problems with the filter bubble was discovered by some researchers at Netflix. And they were looking at the Netflix queues, and they noticed something kind of funny that a lot of us probably have noticed, which is there are some movies that just sort of zip right up and out to our houses. They enter the queue, they just zip right out. So "Iron Man" zips right out, and "Waiting for Superman" can wait for a really long time.
Và tôi cho rằng đây chính là vấn đề. Tôi cho rằng, nếu chúng ta để tất cả những hệ thống "lọc" này lại với nhau, cùng với tất cả những thuật toán, chúng ta sẽ nhận được cái mà tôi gọi là "bong bóng lọc." (filter bubble) Và cái bong bóng lọc của bạn là một thế giới thông tin duy nhất của riêng bạn mà bạn sống trong đó trên thế giới mạng. Và những thứ có trong đó phụ thuộc vào việc bạn là ai, và bạn làm gì. Nhưng vấn đề là bạn không thể quyết định điều gì sẽ được đưa vào. Và quan trọng hơn, bạn thực sự không thể thấy điều gì đã được bỏ đi. Và một trong những vấn đề đối với bong bóng lọc đã được phát hiện bởi 1 nhóm các nhà nghiên cứu ở Netflix. Khi họ quan sát các hàng đợi tại Netflix, họ nhận ra 1 điều rất khôi hài như phần lớn chúng ta đã nhận thấy, đó là có 1 số bộ phim bằng cách nào đó đã được sắp xếp để đưa đến cho chúng ta Những bộ phim này được đưa vào hàng đợi, và sẽ được đưa ra một cách nhanh chóng. Và "Người sắt" (Iron Man) được đưa ra, và "Waiting for Superman" cũng ko phải đợi lâu.
What they discovered was that in our Netflix queues there's this epic struggle going on between our future aspirational selves and our more impulsive present selves. You know we all want to be someone who has watched "Rashomon," but right now we want to watch "Ace Ventura" for the fourth time. (Laughter) So the best editing gives us a bit of both. It gives us a little bit of Justin Bieber and a little bit of Afghanistan. It gives us some information vegetables; it gives us some information dessert. And the challenge with these kinds of algorithmic filters, these personalized filters, is that, because they're mainly looking at what you click on first, it can throw off that balance. And instead of a balanced information diet, you can end up surrounded by information junk food.
Cái mà họ khám phá ra là trong những hàng đợi Netflix của chúng ta có 1 cuộc đấu tranh lớn đang diễn ra giữa những điều mong muốn lâu dài và những ý muốn nhất thời. Bạn biết tất cả chúng ta đều muốn là người đã xem "Rashomon," nhưng ngay lúc này chúng ta lại muốn xem "Ace Ventura" lần thứ tư. (Tiếng cười) Vậy nên sự biên tập tốt nhất cần đưa đến cho chúng ta 1 phần từ cả 2. Nó đưa đến cho chúng 1 chút về Justin Bieber và 1 chút về Afghanistan. Nó mang đến 1 vài thông tin về rau quả, và 1 vài thông tin về bữa tráng miệng. Và sự thách thức đối với những bộ lọc dựa trên thuật toán, những bộ lọc hướng tới cá nhân này, chính là, bởi vì chúng hầu như chỉ quan sát những thứ chúng ta truy cập đầu tiên, nó có thể loại bỏ sự cân bằng đó. Thay vì nhận được thông tin về một bữa ăn cân bằng, bạn có thể bị bao vây bởi thông tin về đủ thứ thức ăn tạp nham.
What this suggests is actually that we may have the story about the Internet wrong. In a broadcast society -- this is how the founding mythology goes -- in a broadcast society, there were these gatekeepers, the editors, and they controlled the flows of information. And along came the Internet and it swept them out of the way, and it allowed all of us to connect together, and it was awesome. But that's not actually what's happening right now. What we're seeing is more of a passing of the torch from human gatekeepers to algorithmic ones. And the thing is that the algorithms don't yet have the kind of embedded ethics that the editors did. So if algorithms are going to curate the world for us, if they're going to decide what we get to see and what we don't get to see, then we need to make sure that they're not just keyed to relevance. We need to make sure that they also show us things that are uncomfortable or challenging or important -- this is what TED does -- other points of view.
Qua đó chúng ta có thể thấy rằng thực tế chúng ta có vấn đề với những sai lầm của Internet. Trong thế giới truyền hình -- đó là cách mà những điều không thể tưởng tượng được đang diễn ra -- trong thế giới truyền hình, có những người gác cửa, những biên tập viên, họ kiểm soát các luồng thông tin. Rồi internet ra đời, nó thổi bay họ đi và nó cho phép chúng ta liên kết với nhau, điều đó thật tuyệt vời. Nhưng đó không hẳn là những gì đang diễn ra lúc này. Những gì chúng ta thấy dường như là sự truyền đi ngọn đuốc từ những người gác cửa tới những cơ chế dựa trên thuật toán. Và vấn đề là những thuật toán này chưa được cài đặt trong nó những quy tắc xử thế như là những nhà biên tập đã làm. Vậy nếu những thuật toán tổ chức thế giới cho chúng ta, nếu chúng quyết định cái chúng ta được thấy và không được thấy, thì chúng ta cần chắc chắn rằng chúng không chỉ hướng tới với sự liên quan. Chúng ta cần chắc chắn rằng chúng đồng thời chỉ ra những thứ không dễ chịu hay đầy thử thách hay quan trọng -- đó là điều mà TED đang làm -- những quan điểm khác biệt.
And the thing is, we've actually been here before as a society. In 1915, it's not like newspapers were sweating a lot about their civic responsibilities. Then people noticed that they were doing something really important. That, in fact, you couldn't have a functioning democracy if citizens didn't get a good flow of information, that the newspapers were critical because they were acting as the filter, and then journalistic ethics developed. It wasn't perfect, but it got us through the last century. And so now, we're kind of back in 1915 on the Web. And we need the new gatekeepers to encode that kind of responsibility into the code that they're writing.
Và chúng ta thực sự đã ở đây từ trước đó như là 1 xã hội. Vào năm 1915, không nhiều tờ báo đổ mồ hôi công sức cho những trách nhiệm công dân của họ. Rồi họ nhận ra rằng mình đang làm 1 việc thực sự quan trọng. Rằng, trong thực tế, bạn không thể có được một nền dân chủ thực sự nếu công dân không nhận được những luồng thông tin tốt. Rằng những tờ báo là quan trọng, bởi vì chúng đóng vai trò như 1 bộ lọc, rồi đạo đức nhà báo được nâng lên. Nó đã chưa thực sự hoàn hảo, nhưng nó đã đi cùng chúng ta trong suốt thế kỷ trước. Và tới giờ, chúng ta dường như quay trở lại năm 1915 với các trang web. Và chúng ta cần những người gác cửa mới để mã hóa trách nhiệm đó thành những dòng mã nguồn mà họ đang viết.
I know that there are a lot of people here from Facebook and from Google -- Larry and Sergey -- people who have helped build the Web as it is, and I'm grateful for that. But we really need you to make sure that these algorithms have encoded in them a sense of the public life, a sense of civic responsibility. We need you to make sure that they're transparent enough that we can see what the rules are that determine what gets through our filters. And we need you to give us some control so that we can decide what gets through and what doesn't. Because I think we really need the Internet to be that thing that we all dreamed of it being. We need it to connect us all together. We need it to introduce us to new ideas and new people and different perspectives. And it's not going to do that if it leaves us all isolated in a Web of one.
Tôi biết rằng có rất nhiều người ở đây đang làm việc cho Facebook và Google -- như Larry và Sergey -- những người đã góp phần xây dựng nên nền tảng web như bây giờ, và tôi thực sự biết ơn về điều đó. Nhưng chúng tôi cần các bạn chắc chắn rằng những thuật toán này sẽ được mã hóa trong chúng một ý thức về cuộc sống cộng đồng, một ý thức về trách nhiệm công dân. Chúng tôi cần các bạn chắc chắn rằng, chúng đủ rõ ràng để chúng tôi có thể nhìn thấy những quy tắc quyết định những gì sẽ đi qua hệ thống lọc của các bạn. Và chúng tôi cần các bạn cung cấp cho chúng tôi sự kiểm soát, để chúng tôi có thể quyết định điều gì sẽ bị lọc hay không. Bởi vì tôi cho rằng chúng ta thực sự cần Internet như là 1 thứ mà chúng ta từng mơ tới. Chúng ta cần nó để liên kết tất cả mọi người lại. Chúng ta cần nó để giới thiệu với chúng ta những ý tưởng mới, những con người mới và những triển vọng mới. Và nó sẽ không như vậy nếu nó khiến chúng ta bị cách ly trong 1 hệ thống web của cá nhân.
Thank you.
Cảm ơn các bạn.
(Applause)
(Vỗ tay)