My relationship with the internet reminds me of the setup to a clichéd horror movie. You know, the blissfully happy family moves in to their perfect new home, excited about their perfect future, and it's sunny outside and the birds are chirping ... And then it gets dark. And there are noises from the attic. And we realize that that perfect new house isn't so perfect.
Mối liên hệ giữa bản thân với internet gợi tôi nhớ đến bố cục của một bộ phim kinh dị điển hình. Bạn biết đấy, một gia đình hạnh phúc chuyển đến căn nhà mới tuyệt vời, phấn khích về một tương lai tươi sáng, và ngoài trời thì nắng vàng cùng tiếng chim rảnh rang ... Rồi không gian bỗng tối đen. Có tiếng động vọng lại từ trên gác xép Và ta nhận ra rằng căn nhà mới không hoàn hảo như ta vẫn nghĩ.
When I started working at Google in 2006, Facebook was just a two-year-old, and Twitter hadn't yet been born. And I was in absolute awe of the internet and all of its promise to make us closer and smarter and more free. But as we were doing the inspiring work of building search engines and video-sharing sites and social networks, criminals, dictators and terrorists were figuring out how to use those same platforms against us. And we didn't have the foresight to stop them. Over the last few years, geopolitical forces have come online to wreak havoc. And in response, Google supported a few colleagues and me to set up a new group called Jigsaw, with a mandate to make people safer from threats like violent extremism, censorship, persecution -- threats that feel very personal to me because I was born in Iran, and I left in the aftermath of a violent revolution. But I've come to realize that even if we had all of the resources of all of the technology companies in the world, we'd still fail if we overlooked one critical ingredient: the human experiences of the victims and perpetrators of those threats.
Khi tôi bắt đầu làm tại Google năm 2006, Facebook chỉ mới 2 năm tuổi, và Twitter thậm chí còn chưa ra đời. Và tôi đã vô cùng kinh ngạc bởi internet và những điều nó hứa hẹn khiến chúng ta gần nhau hơn thông minh hơn và tự do hơn. Nhưng khi chúng ta làm các công việc ý nghĩa như xây dựng công cụ tìm kiếm và trang chia sẻ video cùng với mạng xã hội, những tên tội phạm, độc tài và khủng bố đã nghĩ ra cách dùng chính những nền tảng đó chống lại chúng ta. Và ta đã không thể nhìn đủ xa để ngăn chặn bọn chúng. Trong vài năm gần đây, những thế lực địa chính trị đã lộng hành trên mạng. Và để đáp lại, Google đã hỗ trợ tôi cùng vài đồng nghiệp tạo lập một nhóm mới tên là Jigsaw, với bộ quy tắc giúp bảo vệ mọi người khỏi những mối đe dọa như bạo lực cực đoan, kiểm duyệt, áp bức - những mối đe dọa rất quen thuộc với tôi vì chính tôi đã sinh ra ở Iran, và rời đi trong tàn cuộc của một cuộc cách mạng bạo lực. Nhưng tôi đã dần nhận ra rằng kể cả khi ta có tất cả nguồn lực của toàn bộ doanh nghiệp công nghệ trên thế giới, ta vẫn sẽ thất bại nếu ta bỏ qua một nhân tố then chốt: những trải nghiệm cuộc đời của cả nạn nhân và thủ phạm đằng sau các mối đe dọa ấy.
There are many challenges I could talk to you about today. I'm going to focus on just two. The first is terrorism. So in order to understand the radicalization process, we met with dozens of former members of violent extremist groups. One was a British schoolgirl, who had been taken off of a plane at London Heathrow as she was trying to make her way to Syria to join ISIS. And she was 13 years old. So I sat down with her and her father, and I said, "Why?" And she said, "I was looking at pictures of what life is like in Syria, and I thought I was going to go and live in the Islamic Disney World." That's what she saw in ISIS. She thought she'd meet and marry a jihadi Brad Pitt and go shopping in the mall all day and live happily ever after.
tôi có thể nói cho bạn về vô vàn thách thức lúc này. Tôi sẽ chỉ tập trung vào hai điều. Đầu tiên là khủng bố. Để hiểu được quá trình cực đoan hóa, chúng tôi đã gặp mặt nhiều cựu thành viên của các nhóm bạo lực cực đoan. Một trong số đó là một nữ sinh người Anh, cô bé đã bị buộc rời khỏi máy bay tại sân bay London Heathrow trong khi cố gắng đi đến Syria để gia nhập ISIS. Và cô bé mới 13 tuổi. Nên tôi đã tới ngồi bên cô bé cùng cha cô, và hỏi, “Tại sao vậy?” Và cô bé trả lời, “Cháu đã nhìn thấy những bức ảnh chụp cuộc sống tại Syria, và cháu nghĩ mình nên tới và sống tại công viên Disney World Hồi giáo.” Đó là thứ cô bé đã thấy ở ISIS. Cô bé đã nghĩ mình sẽ gặp và cưới một Brad Pitt Hồi giáo đi mua sắm cả ngày trong trung tâm và sống hạnh phúc mãi mãi về sau.
ISIS understands what drives people, and they carefully craft a message for each audience. Just look at how many languages they translate their marketing material into. They make pamphlets, radio shows and videos in not just English and Arabic, but German, Russian, French, Turkish, Kurdish, Hebrew, Mandarin Chinese. I've even seen an ISIS-produced video in sign language. Just think about that for a second: ISIS took the time and made the effort to ensure their message is reaching the deaf and hard of hearing. It's actually not tech-savviness that is the reason why ISIS wins hearts and minds. It's their insight into the prejudices, the vulnerabilities, the desires of the people they're trying to reach that does that. That's why it's not enough for the online platforms to focus on removing recruiting material. If we want to have a shot at building meaningful technology that's going to counter radicalization, we have to start with the human journey at its core.
ISIS hiểu được điều gì thúc đẩy con người, và chúng tỉ mỉ tạo ra thông điệp riêng cho từng đối tượng. Hãy nhìn vào lượng ngôn ngữ mà chúng đã chuyển ngữ tư liệu truyền bá sang. Chúng làm tờ rơi, chương trình radio và cả các đoạn phim không chỉ bằng tiếng Anh và Ả Rập, mà còn cả tiếng Đức, tiếng Nga, tiếng Pháp, tiếng Thổ Nhĩ Kỳ, tiếng Kurd, tiếng Do Thái, tiếng Quan thoại. Tôi thậm chí đã xem một video sử dụng ngôn ngữ kí hiệu do ISIS tạo ra. Thử ngẫm về chuyện đó một chút: ISIS đã bỏ công sức và thời gian để đảm bảo rằng thông điệp của chúng chạm tới cả người điếc và khiếm thính. Sự am hiểu về công nghệ không phải là lý do ISIS chiếm được lòng người. Chính sự tường tận về những định kiến, những yếu đuối và tham vọng của người mà chúng nhắm đến đã làm điều đó. Đó là lý do tại sao sẽ không đủ nếu những nền tảng mạng chỉ tập trung vào việc gỡ bỏ tư liệu tuyển mộ. Nếu chúng ta muốn có được cơ hội xây dựng nên công nghệ có ý nghĩa chống lại cực đoan hóa, ta phải bắt đầu cuộc hành trình này từ cội nguồn của nó.
So we went to Iraq to speak to young men who'd bought into ISIS's promise of heroism and righteousness, who'd taken up arms to fight for them and then who'd defected after they witnessed the brutality of ISIS's rule. And I'm sitting there in this makeshift prison in the north of Iraq with this 23-year-old who had actually trained as a suicide bomber before defecting. And he says, "I arrived in Syria full of hope, and immediately, I had two of my prized possessions confiscated: my passport and my mobile phone." The symbols of his physical and digital liberty were taken away from him on arrival. And then this is the way he described that moment of loss to me. He said, "You know in 'Tom and Jerry,' when Jerry wants to escape, and then Tom locks the door and swallows the key and you see it bulging out of his throat as it travels down?" And of course, I really could see the image that he was describing, and I really did connect with the feeling that he was trying to convey, which was one of doom, when you know there's no way out.
Nên chúng tôi đã tới Iraq trò chuyện với những chàng trai trẻ đã tin vào lời hứa của ISIS về tinh thần anh dũng và đoan chính, đã cầm vũ khí chiến đấu cho chúng và cũng đã đào ngũ sau khi chứng kiến thứ luật lệ tàn bạo của ISIS. Và tôi ngồi trong nhà giam tạm thời ở phía bắc Iraq cùng người thanh niên 23 tuổi bị đào tạo thành một lính đánh bom liều chết trước khi đào thoát. Và anh ta nói rằng, “Tôi tới Syria trong ngập tràn hi vọng, và ngay lập tức, tôi bị tịch thu hai món đồ giá trị nhất mình có: hộ chiếu và điện thoại di động.” Những vật đại diện cho quyền tự do thân thể và kỹ thuật số đã bị lấy đi ngay khi anh ta đến. Và anh ta đã mô tả khoảnh khắc mất mát ấy cho tôi như thế này. Anh ta nói, “Cô biết trong ‘Tom and Jerry’, khi Jerry muốn trốn thoát, Tom liền khóa cửa lại nuốt chìa khóa và chiếc chìa cộm lên cổ họng nó trong lúc trôi xuống?” Lẽ dĩ nhiên, tôi cho rằng ai cũng thấy hình ảnh anh ta mô tả, và tôi thật sự thấy thấu hiểu cảm xúc mà anh ta đang cố truyền tải, một cảm xúc sụp đổ, khi biết rõ không còn đường thoát.
And I was wondering: What, if anything, could have changed his mind the day that he left home? So I asked, "If you knew everything that you know now about the suffering and the corruption, the brutality -- that day you left home, would you still have gone?" And he said, "Yes." And I thought, "Holy crap, he said 'Yes.'" And then he said, "At that point, I was so brainwashed, I wasn't taking in any contradictory information. I couldn't have been swayed."
Và tôi đã nghĩ: Liệu có điều gì có thể khiến anh ta đổi ý vào ngày anh ta rời nhà? Nên tôi đã hỏi, “Nếu như anh biết tất cả mọi thứ về nỗi đau khổ và sự mục nát, sự tàn ác - vào cái ngày anh rời nhà, anh vẫn sẽ đi?” Anh ta trả lời, “Phải.” Tôi đã nghĩ, “Chúa ơi, anh ta nói ‘Phải.’” Rồi anh ta nói tiếp, “Vào lúc đó, tôi đã bị tẩy não đến mức, tôi không thể tiếp nhận bất kì thông tin trái chiều nào. Tôi không thể nào bị lung lay.”
"Well, what if you knew everything that you know now six months before the day that you left?"
“Vậy, nếu như anh biết tất cả mọi thứ đã xảy ra sáu tháng trước ngày anh đi thì sao?”
"At that point, I think it probably would have changed my mind."
“Khi ấy, tôi nghĩ có lẽ tôi sẽ đổi ý.”
Radicalization isn't this yes-or-no choice. It's a process, during which people have questions -- about ideology, religion, the living conditions. And they're coming online for answers, which is an opportunity to reach them. And there are videos online from people who have answers -- defectors, for example, telling the story of their journey into and out of violence; stories like the one from that man I met in the Iraqi prison. There are locals who've uploaded cell phone footage of what life is really like in the caliphate under ISIS's rule. There are clerics who are sharing peaceful interpretations of Islam. But you know what? These people don't generally have the marketing prowess of ISIS. They risk their lives to speak up and confront terrorist propaganda, and then they tragically don't reach the people who most need to hear from them. And we wanted to see if technology could change that.
Cực đoan hóa không phải là một lựa chọn có hoặc không. Nó là một quá trình mà trong đó người ta đặt câu hỏi - về tư tưởng, tôn giáo, điều kiện sống. Và họ lên mạng để tìm kiếm câu trả lời, từ đó tạo ra cơ hội tìm được lời đáp. Và có những video trên mạng từ người có câu trả lời - ví dụ như những người đào ngũ kể chuyện về hành trình của họ bước vào và thoát khỏi bạo lực; những câu chuyện như chàng trai tôi đã gặp tại nhà tù Iraq. Có những người dân đã đăng đoạn ghi hình bằng điện thoại về hiện thực cuộc sống trên đất Hồi giáo nằm dưới luật lệ của ISIS. Có những giáo sĩ truyền tải hướng diễn giải hòa bình về Hồi giáo. Nhưng các bạn có biết? Những người này không có sức mạnh quảng bá như ISIS. Họ liều mạng mình để lên tiếng và đương đầu với các chiến dịch khủng bố, và thật đáng buồn khi họ không thể chạm tới người cần lời diễn giải của họ nhất. Và chúng tôi muốn xem liệu công nghệ có thể thay đổi điều đó.
So in 2016, we partnered with Moonshot CVE to pilot a new approach to countering radicalization called the "Redirect Method." It uses the power of online advertising to bridge the gap between those susceptible to ISIS's messaging and those credible voices that are debunking that messaging. And it works like this: someone looking for extremist material -- say they search for "How do I join ISIS?" -- will see an ad appear that invites them to watch a YouTube video of a cleric, of a defector -- someone who has an authentic answer. And that targeting is based not on a profile of who they are, but of determining something that's directly relevant to their query or question.
Nên vào 2016, chúng tôi đã hợp tác với Moonshot CVE nhằm đưa ra một giải pháp chống cực đoan hóa mới gọi là “Phương pháp Chuyển hướng”. Cách này tận dụng sức mạnh của quảng cáo trực tuyến để thu hẹp khoảng cách giữa những người dễ bị ảnh hưởng bởi thông điệp của ISIS và những người đáng tin cậy đang lên tiếng bóc trần thông điệp đó. Nó là như thế này: một người tìm kiếm tư liệu cực đoan - ví dụ như tìm kiếm ”Làm cách nào để tham gia ISIS?” - sẽ thấy xuất hiện một quảng cáo dẫn họ đến video trên Youtube của một giáo sĩ, một lính đào ngũ - những người có câu trả lời thật sự. Và việc xác định mục tiêu đó không dựa trên danh tính cá nhân, mà dựa vào việc xem xét yếu tố liên quan trực tiếp đến thắc mắc hay câu hỏi của họ.
During our eight-week pilot in English and Arabic, we reached over 300,000 people who had expressed an interest in or sympathy towards a jihadi group. These people were now watching videos that could prevent them from making devastating choices. And because violent extremism isn't confined to any one language, religion or ideology, the Redirect Method is now being deployed globally to protect people being courted online by violent ideologues, whether they're Islamists, white supremacists or other violent extremists, with the goal of giving them the chance to hear from someone on the other side of that journey; to give them the chance to choose a different path.
Trong tám tuần thực nghiệm sơ bộ bằng tiếng Anh và Ả Rập, chúng tôi đã tiếp cận hơn 300.000 người bày tỏ bản thân có sự quan tâm hay đồng cảm với nhóm Hồi giáo cực đoan. Những người này hiện đang xem những video có thể ngăn họ đưa ra lựa chọn tồi tệ. Và bởi vì chủ nghĩa cực đoan bạo lực không giới hạn ở bất kì một ngôn ngữ, tôn giáo hay tư tưởng, Phương pháp Chuyển hướng hiện đang được áp dụng toàn cầu nhằm bảo vệ mọi người không bị dụ dỗ qua mạng bởi các hệ tư tưởng bạo lực. dù họ có là người Hồi, da trắng thượng đẳng hay các thành phần cực đoan bạo lực khác, với mục tiêu đem đến cho họ cơ hội lắng nghe người khác ở phía bên kia của câu chuyện; cho họ cơ hội lựa chọn con đường khác.
It turns out that often the bad guys are good at exploiting the internet, not because they're some kind of technological geniuses, but because they understand what makes people tick. I want to give you a second example: online harassment. Online harassers also work to figure out what will resonate with another human being. But not to recruit them like ISIS does, but to cause them pain. Imagine this: you're a woman, you're married, you have a kid. You post something on social media, and in a reply, you're told that you'll be raped, that your son will be watching, details of when and where. In fact, your home address is put online for everyone to see. That feels like a pretty real threat. Do you think you'd go home? Do you think you'd continue doing the thing that you were doing? Would you continue doing that thing that's irritating your attacker?
Sự thật là kẻ xấu thường giỏi việc khai thác mạng internet, không phải vì chúng là những thiên tài công nghệ, mà vì chúng hiểu điều gì khiến con người hứng thú. Tôi muốn đưa ra một ví dụ thứ hai: quấy rối trực tuyến. Những kẻ quấy rối trực tuyến còn ra sức tìm kiếm yếu tố đồng điệu với cá thể người khác. Nhưng không phải để tuyển quân như ISIS, mà để gây đau khổ. Thử tưởng tượng thế này: bạn là phụ nữ, bạn đã kết hôn, bạn có một con. Bạn đăng gì đó lên mạng xã hội, và trong một phản hồi, bạn bị đe dọa mình bị cưỡng hiếp, con trai bị theo dõi, chi tiết về thời gian lẫn địa điểm. Thực chất, địa chỉ nhà bạn được đăng lên cho mọi người đều thấy. Điều này có vẻ là mối đe dọa thực sự. Bạn có nghĩ mình sẽ về nhà? Bạn nghĩ mình sẽ tiếp tục làm việc đang dang dở? Liệu bạn sẽ tiếp tục làm chuyện khiến kẻ gây hấn khó chịu?
Online abuse has been this perverse art of figuring out what makes people angry, what makes people afraid, what makes people insecure, and then pushing those pressure points until they're silenced. When online harassment goes unchecked, free speech is stifled. And even the people hosting the conversation throw up their arms and call it quits, closing their comment sections and their forums altogether. That means we're actually losing spaces online to meet and exchange ideas. And where online spaces remain, we descend into echo chambers with people who think just like us. But that enables the spread of disinformation; that facilitates polarization. What if technology instead could enable empathy at scale?
Lạm dụng trực tuyến vốn là thứ nghệ thuật méo mó luôn tìm kiếm thứ khiến con người giận dữ, thứ khiến họ sợ hãi, thứ khiến họ bất an, và gây áp lực cho đến khi họ buộc phải im lặng. Khi quấy rối trên mạng không được kiểm soát, tự do ngôn luận sẽ bị kìm hãm. Và ngay cả những người chủ cuộc trò chuyện cũng thể hiện sự chán nản và từ bỏ, bằng cách đóng hết phần bình luận cũng như forum của mình. Điều đó nghĩa là chúng ta sẽ mất đi những không gian mạng để gặp gỡ và trao đổi ý kiến. Và nơi không gian mạng sót lại, chúng ta rơi vào các buồng vang thông tin với những người suy nghĩ giống ta. Nhưng điều đấy khiến lan truyền thông tin sai lệch, tạo điều kiện cho sự phân cực. Thay vào đó, sẽ thế nào nếu công nghệ có thể lan tỏa sự đồng cảm rộng rãi?
This was the question that motivated our partnership with Google's Counter Abuse team, Wikipedia and newspapers like the New York Times. We wanted to see if we could build machine-learning models that could understand the emotional impact of language. Could we predict which comments were likely to make someone else leave the online conversation? And that's no mean feat. That's no trivial accomplishment for AI to be able to do something like that. I mean, just consider these two examples of messages that could have been sent to me last week. "Break a leg at TED!" ... and "I'll break your legs at TED."
Đây là câu hỏi đã thúc đẩy sự hợp tác giữa chúng tôi với đội ngũ chống lạm dụng của Google, Wikipedia, và báo chí như tờ New York Times. Chúng tôi muốn biết liệu có thể xây dựng các mô hình học máy có khả năng hiểu được tác động lên cảm xúc của ngôn từ. Liệu có thể dự đoán bình luận nào có khả năng khiến ai đó rời khỏi một cuộc trò chuyện trên mạng? Và đó là cả một thành tựu. Đó là thành quả không hề tầm thường khi AI có thể làm được như vậy. Ý tôi là, hãy thử xem xét hai ví dụ về tin nhắn có thể được gửi đến tôi vào tuần trước. “Gãy chân lúc ở TED!” ... và “Tao sẽ bẻ gãy chân mày ở TED.”
(Laughter)
(Tiếng cười)
You are human, that's why that's an obvious difference to you, even though the words are pretty much the same. But for AI, it takes some training to teach the models to recognize that difference. The beauty of building AI that can tell the difference is that AI can then scale to the size of the online toxicity phenomenon, and that was our goal in building our technology called Perspective. With the help of Perspective, the New York Times, for example, has increased spaces online for conversation. Before our collaboration, they only had comments enabled on just 10 percent of their articles. With the help of machine learning, they have that number up to 30 percent. So they've tripled it, and we're still just getting started.
Các bạn là con người, đó là lý do bạn thấy rõ sự khác biệt, mặc dù về từ ngữ thì tương đối giống nhau. Nhưng với AI, cần chút huấn luyện để chỉ các mô hình cách nhận ra sự khác biệt. Điều tuyệt vời khi xây dựng AI có thể phân biệt được là sau đó AI có thể mở rộng theo quy mô của sự độc hại trên mạng, và đó là mục tiêu của chúng tôi khi xây dựng công nghệ Perspective. Với trợ giúp từ Perspective, tờ New York Times, lấy ví dụ, đã mở thêm không gian mạng cho việc trò chuyện. Trước khi hợp tác với chúng tôi, họ chỉ mở bình luận 10% số bài viết của mình. Với sự hỗ trợ của học máy, họ đã tăng con số đó lên đến 30%. Vậy họ đã tăng gấp ba lần, và chúng tôi chỉ vừa mới khởi đầu.
But this is about way more than just making moderators more efficient. Right now I can see you, and I can gauge how what I'm saying is landing with you. You don't have that opportunity online. Imagine if machine learning could give commenters, as they're typing, real-time feedback about how their words might land, just like facial expressions do in a face-to-face conversation. Machine learning isn't perfect, and it still makes plenty of mistakes. But if we can build technology that understands the emotional impact of language, we can build empathy. That means that we can have dialogue between people with different politics, different worldviews, different values. And we can reinvigorate the spaces online that most of us have given up on.
Nhưng điều này không chỉ là khiến việc kiểm duyệt hiệu quả hơn. Ngay bây giờ tôi có thể thấy các bạn, và tôi có thể đoán bạn nhìn nhận điều tôi nói như thế nào. Ccá bạn không có cơ hội đó trên mạng. Tưởng tượng nếu học máy có thể gửi đến người bình luận, trong lúc họ đang gõ, phản hồi tức thời về tác động từ lời nói của họ, giống như cách nét mặt đóng vai trò trong trò chuyện trực tiếp. Học máy không hoàn hảo, và nó vẫn còn xảy ra nhiều lỗi. Nhưng nếu có thể tạo ra thứ công nghệ hiểu được tác động lên cảm xúc của ngôn từ, ta có thể tạo nên sự đồng cảm. Nghĩa là có thể có đối thoại giữa những người với quan điểm chính trị khác nhau, thế giới quan khác nhau, giá trị khác nhau. Và chúng ta có thể khôi phục những không gian mạng mà số đông đã từ bỏ.
When people use technology to exploit and harm others, they're preying on our human fears and vulnerabilities. If we ever thought that we could build an internet insulated from the dark side of humanity, we were wrong. If we want today to build technology that can overcome the challenges that we face, we have to throw our entire selves into understanding the issues and into building solutions that are as human as the problems they aim to solve. Let's make that happen.
Khi con người sử dụng công nghệ để lợi dụng và làm hại người khác, bọn họ nhắm đến nỗi sợ và yếu đuối trong con người ta. Nếu chúng ta nghĩ rằng có thể xây dựng một internet tách biệt khỏi mặt tối của con người, thì chúng ta đã sai. Nếu giờ chúng ta muốn tạo ra thứ công nghệ có thể vượt qua những thách thức trước mặt, ta phải dốc hết sức lực vào việc thấu hiểu vấn đề và tìm ra giải pháp gắn liền với con người như cách những vấn đề cũng vậy. Hãy cùng thực hiện điều đó.
Thank you.
Xin cảm ơn.
(Applause)
(Vỗ tay)