No matter who you are or where you live, I'm guessing that you have at least one relative that likes to forward those emails. You know the ones I'm talking about -- the ones with dubious claims or conspiracy videos. And you've probably already muted them on Facebook for sharing social posts like this one.
Tidak peduli siapa Anda dan di mana Anda tinggal, saya rasa Anda pasti setidaknya mengenal seseorang yang suka meneruskan email-email itu. Anda tahu yang saya bicarakan - surel dengan klaim meragukan atau video konspirasi. Anda mungkin sudah mendiamkan mereka di Facebook karena telah membagikan pos sosial seperti ini.
It's an image of a banana with a strange red cross running through the center. And the text around it is warning people not to eat fruits that look like this, suggesting they've been injected with blood contaminated with the HIV virus. And the social share message above it simply says, "Please forward to save lives." Now, fact-checkers have been debunking this one for years, but it's one of those rumors that just won't die. A zombie rumor. And, of course, it's entirely false.
Ini adalah sebuah foto pisang dengan bentuk salib merah yang aneh di tengah-tengah Dan teks di sekelilingnya memperingatkan orang untuk tidak memakan buah seperti ini, menginfokan buah itu telah disuntik darah yang terkontaminasi oleh virus HIV. Dan pesan sosial di atasnya hanya mengatakan "Sebarkan untuk menyelamatkan hidup." Sekarang, pemeriksa fakta telah menyanggah ini selama bertahun-tahun, tapi itu salah satu rumor yang tidak akan mati. Rumor serupa zombie. Dan, tentu saja, itu sepenuhnya salah.
It might be tempting to laugh at an example like this, to say, "Well, who would believe this, anyway?" But the reason it's a zombie rumor is because it taps into people's deepest fears about their own safety and that of the people they love. And if you spend as enough time as I have looking at misinformation, you know that this is just one example of many that taps into people's deepest fears and vulnerabilities.
Mungkin Anda tergoda menertawakan contohnya, untuk bilang, "Yah, siapa yang akan percaya ini?" Alasan rumor itu menjadi zombie, karena itu menyentuh ketakutan terdalam orang tentang keamanan mereka sendiri dan orang-orang yang mereka cintai. Jika Anda telah sering melihat informasi yang salah seperti saya, Anda tahu bahwa ini hanya satu dari banyak contoh yang menyentuh ketakutan terdalam dan terentan orang.
Every day, across the world, we see scores of new memes on Instagram encouraging parents not to vaccinate their children. We see new videos on YouTube explaining that climate change is a hoax. And across all platforms, we see endless posts designed to demonize others on the basis of their race, religion or sexuality.
Setiap hari, di seluruh dunia, kita melihat puluhan meme baru di Instagram yang mendorong orang tua untuk tidak memvaksinasi anak mereka. Kita melihat video baru YouTube yang menjelaskan perubahan iklim ialah tipuan. Di seluruh platform, kita melihat banyak unggahan yang menjelekkan orang lain berdasarkan ras, agama atau seksualitas mereka.
Welcome to one of the central challenges of our time. How can we maintain an internet with freedom of expression at the core, while also ensuring that the content that's being disseminated doesn't cause irreparable harms to our democracies, our communities and to our physical and mental well-being? Because we live in the information age, yet the central currency upon which we all depend -- information -- is no longer deemed entirely trustworthy and, at times, can appear downright dangerous. This is thanks in part to the runaway growth of social sharing platforms that allow us to scroll through, where lies and facts sit side by side, but with none of the traditional signals of trustworthiness.
Selamat datang di salah satu tantangan penting zaman kita. Bagaimana kita bisa mempertahankan kebebasan berekspresi di internet, sambil memastikan bahwa konten yang disebarluaskan tidak menyebabkan kerusakan permanen pada demokrasi kita, komunitas kita serta kesehatan fisik dan mental kita? Karena kita hidup dalam era informasi, namun mata uang pusat yang menyangkut kehidupan kita semua - informasi - tidak lagi dianggap dapat sepenuhnya dipercaya dan, terkdadang dapat tampak sangat berbahaya. Sebagian ini berkat pertumbuhan cepat dari platform berbagi sosial yang memungkinkan kita menelusuri, dimana kebohongan dan fakta hidup bersisian, tetapi tanpa sinyal tradisional kepercayaan.
And goodness -- our language around this is horribly muddled. People are still obsessed with the phrase "fake news," despite the fact that it's extraordinarily unhelpful and used to describe a number of things that are actually very different: lies, rumors, hoaxes, conspiracies, propaganda. And I really wish we could stop using a phrase that's been co-opted by politicians right around the world, from the left and the right, used as a weapon to attack a free and independent press.
Dan kebaikan - bahasa kita di sekitar ini sangat kacau. Orang-orang masih terobsesi dengan frasa "berita palsu," walaupun itu sangat tidak membantu dan digunakan untuk menjabarkan beberapa hal yang sebenarnya sangat berbeda: kebohongan, rumor, tipuan, konspirasi, propaganda. Dan saya sangat berharap kita bisa berhenti menggunakan frasa yang telah dipahami berbeda oleh politikus di seluruh dunia, dari sayap kiri dan kanan, digunakan sebagai senjata menyerang pers yang bebas dan independen.
(Applause)
(Tepuk tangan)
Because we need our professional news media now more than ever. And besides, most of this content doesn't even masquerade as news. It's memes, videos, social posts. And most of it is not fake; it's misleading. We tend to fixate on what's true or false. But the biggest concern is actually the weaponization of context. Because the most effective disinformation has always been that which has a kernel of truth to it.
sebab kita butuh media berita profesional lebih dari sebelumnya. Dan selain itu, sebagian besar konten tidak menyamar sebagai berita. Mereka berupa meme, video, pos sosial. Dan sebagian besar dari mereka tidak palsu; justru menyesatkan. Kita cenderung terpaku pada apa yang benar atau salah. Tetapi kekhawatiran terbesar sebenarnya adalah persenjataan konteks. Karena disinformasi paling efektif selalu berupa hal yang memiliki inti kebenaran di dalamnya.
Let's take this example from London, from March 2017, a tweet that circulated widely in the aftermath of a terrorist incident on Westminster Bridge. This is a genuine image, not fake. The woman who appears in the photograph was interviewed afterwards, and she explained that she was utterly traumatized. She was on the phone to a loved one, and she wasn't looking at the victim out of respect. But it still was circulated widely with this Islamophobic framing, with multiple hashtags, including: #BanIslam. Now, if you worked at Twitter, what would you do? Would you take that down, or would you leave it up? My gut reaction, my emotional reaction, is to take this down. I hate the framing of this image. But freedom of expression is a human right, and if we start taking down speech that makes us feel uncomfortable, we're in trouble.
Mari kita ambil contoh ini dari London, bulan Maret 2017, tweet yang beredar luas setelah insiden teroris di Jembatan Westminster. Ini adalah gambar asli, bukan palsu. Wanita yang muncul di foto diwawancarai setelah peristiwa itu, dan dia menjelaskan bahwa dia benar-benar trauma. Dia menelepon orang yang dicintai, dan dia tidak memandang korban atas rasa hormat. Tapi kabar itu masih beredar luas dengan sudut pandang Islamofobik ini, dengan banyak tagar, termasuk: #BanIslam. Jika Anda pegawai Twitter, apa yang Anda lakukan? Apa Anda akan menghapusnya atau membiarkannya? Reaksi naluriah dan emosional saya, adalah menghapusnya. Saya benci sudut pandang gambar ini. Tapi kebebasan berekspresi ialah HAM, dan jika kita mulai menghapus ujaran yang membuat kita tidak nyaman, kita punya masalah.
And this might look like a clear-cut case, but, actually, most speech isn't. These lines are incredibly difficult to draw. What's a well-meaning decision by one person is outright censorship to the next. What we now know is that this account, Texas Lone Star, was part of a wider Russian disinformation campaign, one that has since been taken down. Would that change your view? It would mine, because now it's a case of a coordinated campaign to sow discord. And for those of you who'd like to think that artificial intelligence will solve all of our problems, I think we can agree that we're a long way away from AI that's able to make sense of posts like this.
Mungkin ini terlihat seperti kasus yang jelas, tapi, sebenarnya, kebanyakan tidak. Garis batas ini luar biasa sulit untuk dibuat. Keputusan dengan niat baik dari satu orang ialah sensor terhadap hal berikutnya. Apa yang sekarang kita tahu ialah akun ini, Texas Lone Star, adalah bagian dari kampanye disinformasi Rusia yang lebih luas, kampanye yang telah lama dihapus. Apa itu mengubah pandangan Anda? Bagi saya, iya, sebab kini, itu contoh kampanye terkoordinasi demi menabur perpecahan. Dan bagi Anda yang ingin berpikir bahwa kecerdasan buatan akan selesaikan semua masalah kita, Saya pikir bisa sepakat bahwa kita masih jauh dari AI yang bisa memahami unggahan seperti ini.
So I'd like to explain three interlocking issues that make this so complex and then think about some ways we can consider these challenges. First, we just don't have a rational relationship to information, we have an emotional one. It's just not true that more facts will make everything OK, because the algorithms that determine what content we see, well, they're designed to reward our emotional responses. And when we're fearful, oversimplified narratives, conspiratorial explanations and language that demonizes others is far more effective. And besides, many of these companies, their business model is attached to attention, which means these algorithms will always be skewed towards emotion.
Jadi saya ingin jelaskan tiga masalah saling terkait yang membuat hal ini sangat kompleks dan memikirkan cara-cara untuk mempertimbangkan tantangan ini. Pertama, kita tidak hanya memiliki hubungan rasional dengan informasi, tapi juga hubungan emosional. Pemikiran semakin banyak fakta membuat semua lebih baik tidaklah benar, karena algoritma yang menentukan konten apa yang kita lihat, yah, mereka dirancang untuk menghargai respons emosional kita. Dan ketika kita takut, narasi yang terlalu disederhanakan, penjelasan konspirasi dan bahasa yang menjelekkan orang lain jauh lebih efektif. Selain itu, banyak dari perusahaan ini, model bisnis mereka berkaitan dengan perhatian, yang berarti algoritma ini akan selalu condong ke arah emosi.
Second, most of the speech I'm talking about here is legal. It would be a different matter if I was talking about child sexual abuse imagery or content that incites violence. It can be perfectly legal to post an outright lie. But people keep talking about taking down "problematic" or "harmful" content, but with no clear definition of what they mean by that, including Mark Zuckerberg, who recently called for global regulation to moderate speech. And my concern is that we're seeing governments right around the world rolling out hasty policy decisions that might actually trigger much more serious consequences when it comes to our speech. And even if we could decide which speech to take up or take down, we've never had so much speech. Every second, millions of pieces of content are uploaded by people right around the world in different languages, drawing on thousands of different cultural contexts. We've simply never had effective mechanisms to moderate speech at this scale, whether powered by humans or by technology.
Kedua, sebagian besar ujaran yang saya bicarakan di sini bersifat sah. Itu akan jadi kasus berbeda jika saya membicarakan konten pelecehan seksual terhadap anak atau pemicu kekerasan. Memposting kebohongan jelas ialah legal, tapi orang terus bicara tentang menghapus konten "bermasalah" atau "berbahaya", tanpa adanya definisi jelas tentang maksud mereka, termasuk Mark Zuckerberg, yang baru-baru ini menyerukan regulasi global demi ujaran moderat. Dan kekhawatiran saya ialah melihat pemerintah di seluruh dunia meluncurkan keputusan kebijakan yang tergesa-gesa dan mungkin akan memicu konsekuensi yang jauh lebih serius bila berbicara tentang ujaran kita. Dan jika kita bisa memutuskan ujaran mana yang akan kita naikkan atau hapus, kita belum memiliki ujaran sebanyak ini. Setiap detik, jutaan keping konten diunggah oleh orang-orang di seluruh dunia dalam berbagai bahasa, berdasarkan ribuan konteks budaya yang berbeda. Kita belum pernah memiliki mekanisme yang efektif untuk memoderasi ujaran skala ini, entah yang dilakukan oleh manusia atau teknologi.
And third, these companies -- Google, Twitter, Facebook, WhatsApp -- they're part of a wider information ecosystem. We like to lay all the blame at their feet, but the truth is, the mass media and elected officials can also play an equal role in amplifying rumors and conspiracies when they want to. As can we, when we mindlessly forward divisive or misleading content without trying. We're adding to the pollution.
Dan ketiga, semua perusahaan ini - Google, Twitter, Facebook, WhatsApp - mereka ialah bagian dari ekosistem informasi lebih luas. Kita suka menyalahkan semua pihak, tetapi kenyataannya adalah media massa dan pejabat terpilih juga dapat memainkan peran yang sama dalam memperkuat rumor dan konspirasi jika mereka ingin. Seperti saat kita asal meneruskan konten tak teratur atau menyesatkan tanpa berusaha. Kita menambah polusi.
I know we're all looking for an easy fix. But there just isn't one. Any solution will have to be rolled out at a massive scale, internet scale, and yes, the platforms, they're used to operating at that level. But can and should we allow them to fix these problems? They're certainly trying. But most of us would agree that, actually, we don't want global corporations to be the guardians of truth and fairness online. And I also think the platforms would agree with that. And at the moment, they're marking their own homework. They like to tell us that the interventions they're rolling out are working, but because they write their own transparency reports, there's no way for us to independently verify what's actually happening.
Saya tahu kita semua mencari solusi yang mudah. Tapi sayangnya tidak ada. Solusi apa pun harus diluncurkan dalam skala besar, skala internet, dan ya, platform, mereka sudah terbiasa beroperasi di tingkat itu. tapi bisakah dan haruskah kita izinkan mereka perbaiki masalah ini? Mereka tentu berusaha. tapi sebagian kita akan setuju, faktanya, kita tak ingin perusahaan global menjadi penjaga kebenaran dan keadilan online. Dan saya juga pikir platform akan setuju dengan itu. Dan saat ini, mereka menandai pekerjaan rumah sendiri. Mereka suka bilang bahwa intervensi yang mereka jalankan bekerja, tapi karena mereka ada laporan transparansi sendiri, sulit bagi kita untuk memverifikasi kebenarannya secara mandiri.
(Applause)
(Tepuk tangan)
And let's also be clear that most of the changes we see only happen after journalists undertake an investigation and find evidence of bias or content that breaks their community guidelines. So yes, these companies have to play a really important role in this process, but they can't control it.
Dan mari kita pahami bahwa kebanyakan perubahan kita lihat hanya terjadi setelah wartawan melakukan penyelidikan dan menemukan bukti bias atau konten yang melanggar pedoman komunitas mereka. Jadi ya, perusahaan ini harus berperan sangat penting dalam proses ini, tapi mereka tak boleh ambil kendali.
So what about governments? Many people believe that global regulation is our last hope in terms of cleaning up our information ecosystem. But what I see are lawmakers who are struggling to keep up to date with the rapid changes in technology. And worse, they're working in the dark, because they don't have access to data to understand what's happening on these platforms. And anyway, which governments would we trust to do this? We need a global response, not a national one.
Lalu, pemerintah bagaimana? Banyak orang percaya regulasi global ialah harapan terakhir kita dalam hal membersihkan ekosistem informasi kita. Tapi yang saya lihat adalah anggota parlemen kesulitan mengikuti perubahan teknologi yang cepat. Parahnya, mereka kerja dalam kegelapan, sebab mereka tidak punya akses ke data untuk memahami apa yang terjadi pada platform ini. Lagipula, pemerintah mana yang kita percayakan dengan tugas ini? Kita membutuhkan respons global, bukan respons nasional.
So the missing link is us. It's those people who use these technologies every day. Can we design a new infrastructure to support quality information? Well, I believe we can, and I've got a few ideas about what we might be able to actually do. So firstly, if we're serious about bringing the public into this, can we take some inspiration from Wikipedia? They've shown us what's possible. Yes, it's not perfect, but they've demonstrated that with the right structures, with a global outlook and lots and lots of transparency, you can build something that will earn the trust of most people. Because we have to find a way to tap into the collective wisdom and experience of all users. This is particularly the case for women, people of color and underrepresented groups. Because guess what? They are experts when it comes to hate and disinformation, because they have been the targets of these campaigns for so long. And over the years, they've been raising flags, and they haven't been listened to. This has got to change. So could we build a Wikipedia for trust? Could we find a way that users can actually provide insights? They could offer insights around difficult content-moderation decisions. They could provide feedback when platforms decide they want to roll out new changes.
Jadi hal penting yang tersisa adalah kita. Orang-orang yang menggunakan teknologi ini setiap hari. Bisakah kita merancang infrastruktur baru untuk mendukung informasi berkualitas? Saya percaya kita bisa, dan saya punya beberapa ide tentang apa yang bisa kita lakukan. Jadi pertama, jika kita serius membawa masyarakat ke sini, dapatkah kita mengambil inspirasi dari Wikipedia? Mereka telah menunjukkan yang mungkin. Ya, itu tidak sempurna, tapi mereka telah menunjukkan dengan struktur tepat, dengan pandangan global dan banyak transparansi, kamu bisa buat hal yang akan mendapat kepercayaan banyak orang. sebab kita harus mencari cara memanfaatkan kebijaksanaan dan pengalaman kolektif semua pengguna. Ini khususnya terjadi pada wanita, orang kulit berwarna dan kelompok tak terwakili. Karena tebak apa? Mereka ahlinya dalam kebencian dan disinformasi, karena mereka telah lama menjadi sasaran dari semua kampanye ini. Mereka sudah bertahun-tahun mengibarkan bendera, dan mereka belum didengarkan. Ini harus berubah. Jadi bisakah kita membangun Wikipedia untuk kepercayaan? Bisakah kita temukan cara agar pengguna dapat memberikan wawasan? Mereka dapat menawarkan wawasan untuk keputusan moderasi konten yang sulit. Mereka bisa beri umpan balik ketika platform memutuskan ingin melakukan perubahan baru.
Second, people's experiences with the information is personalized. My Facebook news feed is very different to yours. Your YouTube recommendations are very different to mine. That makes it impossible for us to actually examine what information people are seeing. So could we imagine developing some kind of centralized open repository for anonymized data, with privacy and ethical concerns built in? Because imagine what we would learn if we built out a global network of concerned citizens who wanted to donate their social data to science. Because we actually know very little about the long-term consequences of hate and disinformation on people's attitudes and behaviors. And what we do know, most of that has been carried out in the US, despite the fact that this is a global problem. We need to work on that, too.
Kedua, pengalaman orang-orang dengan informasi itu dipersonalisasi. Umpan berita FB saya sangat beda dengan milik Anda. Rekomendasi YouTube Anda sangat berbeda dengan saya. Itu menyulitkan kita untuk memeriksa informasi apa saja yang dilihat orang. Jadi, terbayangkah kalau kita mengembangkan semacam repositori terbuka dan terpusat untuk data anonim, dengan mempertimbangkan masalah privasi dan etika? Bayangkan apa yang bisa kita pelajari jika kita membangun jaringan global warga yang peduli, yang ingin menyumbangkan data sosial mereka demi sains. Sebab kita hanya sedikit mengetahui konsekuensi jangka panjang dari kebencian dan disinformasi pada sikap dan perilaku orang. Dan apa yang kita tahu, sebagian besar dari itu telah dilakukan di AS, terlepas dari fakta bahwa ini masalah global. Kita perlu bertindak juga.
And third, can we find a way to connect the dots? No one sector, let alone nonprofit, start-up or government, is going to solve this. But there are very smart people right around the world working on these challenges, from newsrooms, civil society, academia, activist groups. And you can see some of them here. Some are building out indicators of content credibility. Others are fact-checking, so that false claims, videos and images can be down-ranked by the platforms.
Dan ketiga, bisakah kita cari cara menghubungkan segalanya? Tidak ada satu sektor, apalagi nirlaba, start-up atau pemerintah, yang akan menyelesaikan ini. Tapi ada orang teramat pintar di seluruh dunia yang menjawab tantangan ini, dari ruang redaksi, masyarakat sipil, akademisi, kelompok aktivis. Dan Anda dapat melihatnya di sini. Beberapa dari mereka membangun indikator kredibilitas konten. Yang lain memeriksa fakta, supaya klaim palsu, video, & gambar dapat diredam oleh platform.
A nonprofit I helped to found, First Draft, is working with normally competitive newsrooms around the world to help them build out investigative, collaborative programs. And Danny Hillis, a software architect, is designing a new system called The Underlay, which will be a record of all public statements of fact connected to their sources, so that people and algorithms can better judge what is credible. And educators around the world are testing different techniques for finding ways to make people critical of the content they consume. All of these efforts are wonderful, but they're working in silos, and many of them are woefully underfunded.
Nirlaba yang saya bantu dirikan, First Draft, bekerja dengan ruang berita yang kompetitif di dunia untuk membantu mereka membangun investigasi, program kolaboratif. Dan Danny Hillis, arsitek perangkat lunak, sedang merancang sistem baru bernama The Underlay, yang akan mencatat semua pernyataan fakta publik terhubung ke sumber mereka, agar orang dan algoritma dapat menilai lebih baik apa yang kredibel. Dan pendidik di seluruh dunia sedang menguji teknik yang berbeda untuk mencari cara agar orang kritis terhadap konten yang mereka konsumsi. Semua upaya ini luar biasa, tetapi mereka bekerja sendirian, dan banyak dari mereka sangat kekurangan dana.
There are also hundreds of very smart people working inside these companies, but again, these efforts can feel disjointed, because they're actually developing different solutions to the same problems.
Ada juga ratusan orang yang sangat pintar bekerja di perusahaan-perusahaan, tapi, upaya ini bisa terasa tidak berhubungan, karena mereka sebenarnya mengembangkan solusi berbeda untuk masalah yang sama.
How can we find a way to bring people together in one physical location for days or weeks at a time, so they can actually tackle these problems together but from their different perspectives? So can we do this? Can we build out a coordinated, ambitious response, one that matches the scale and the complexity of the problem? I really think we can. Together, let's rebuild our information commons.
Bagaimana kita bisa cari cara menyatukan orang di satu lokasi fisik selama berhari-hari atau berminggu-minggu, hingga mereka dapat mengatasi masalah bersama tapi dari beragam sudut pandang? Bisakah kita melakukannya? Bisakah kita membangun respons yang terkoordinasi dan ambisius, yang cocok dengan skala dan kompleksitas masalah ini? Saya pikir kita bisa. Bersama-sama, mari kita bangun kembali sumber informasi kita.
Thank you.
Terima kasih.
(Applause)
(Tepuk tangan)