No matter who you are or where you live, I'm guessing that you have at least one relative that likes to forward those emails. You know the ones I'm talking about -- the ones with dubious claims or conspiracy videos. And you've probably already muted them on Facebook for sharing social posts like this one.
Незалежно від того, хто ви, і де ви мешкаєте, припускаю, що у вас є принаймні один родич, який любить поширювати такі повідомлення. Ви знаєте, що я маю на увазі – сумнівні повідомлення чи відео в стилі теорії змови. Можливо, ви вже відключили його сповіщення на Фейсбуці, не бажаючи бачити репостів, подібних до цього.
It's an image of a banana with a strange red cross running through the center. And the text around it is warning people not to eat fruits that look like this, suggesting they've been injected with blood contaminated with the HIV virus. And the social share message above it simply says, "Please forward to save lives." Now, fact-checkers have been debunking this one for years, but it's one of those rumors that just won't die. A zombie rumor. And, of course, it's entirely false.
На цій картинці банан із дивним червоним хрестиком всередині. Текст, що супроводжує картинку, застерігає не їсти такі фрукти, припускаючи, що у ці фрукти ввели кров, заражену вірусом СНІДу. А повідомлення вгорі містить просте прохання: "Поширте це, щоб врятувати життя". Хоча факт-чекери вже кілька років розвінчують це хибне вкидання, але воно належить до тих чуток, які все ще живуть і далі. Це чутка-зомбі. І, звісно, вона цілком неправдива.
It might be tempting to laugh at an example like this, to say, "Well, who would believe this, anyway?" But the reason it's a zombie rumor is because it taps into people's deepest fears about their own safety and that of the people they love. And if you spend as enough time as I have looking at misinformation, you know that this is just one example of many that taps into people's deepest fears and vulnerabilities.
Хтось може просто посміятися над такими прикладами, кажучи: "Ну, хіба хтось цьому повірить?" Але ці чутки-зомбі існують тому, що вони пробуджують найглибші страхи щодо власної безпеки, і безпеки найближчих людей. Якщо ви витратите на вивчення дезінформації стільки ж часу, скільки я, ви побачите, що цей приклад лише один із багатьох, які спираються на найглибші страхи і побоювання.
Every day, across the world, we see scores of new memes on Instagram encouraging parents not to vaccinate their children. We see new videos on YouTube explaining that climate change is a hoax. And across all platforms, we see endless posts designed to demonize others on the basis of their race, religion or sexuality.
Щодня по всьому світу в Інстаграмі поширюються нові меми, які спонукають батьків відмовитись від вакцинації дітей. Ми бачимо на YouTube нові відео, де кажуть, що зміна клімату – це неправда. І на всіх платформах ми бачимо незліченні дописи, де інших демонізують на підставі їхньої раси, релігії чи сексуальної належності.
Welcome to one of the central challenges of our time. How can we maintain an internet with freedom of expression at the core, while also ensuring that the content that's being disseminated doesn't cause irreparable harms to our democracies, our communities and to our physical and mental well-being? Because we live in the information age, yet the central currency upon which we all depend -- information -- is no longer deemed entirely trustworthy and, at times, can appear downright dangerous. This is thanks in part to the runaway growth of social sharing platforms that allow us to scroll through, where lies and facts sit side by side, but with none of the traditional signals of trustworthiness.
Ласкаво прошу до одного з головних викликів нашого часу. Як можна забезпечити свободу вираження в Інтернеті, гарантуючи при цьому, що поширюваний контент не завдасть непоправної шкоди нашій демократії, нашим спільнотам і нашому фізичному й психічному благополуччю? Оскільки ми живемо в інформаційну епоху, інформація стала головною валютою, від якої ми всі залежимо, але на неї більше не можна цілковито покладатись, а іноді вона може становити пряму небезпеку. Однією із причин цього є нестримне зростання соціальних мереж, коли у нашій стрічці брехня може сусідити із фактами, але при цьому відсутні традиційні маркери достовірності.
And goodness -- our language around this is horribly muddled. People are still obsessed with the phrase "fake news," despite the fact that it's extraordinarily unhelpful and used to describe a number of things that are actually very different: lies, rumors, hoaxes, conspiracies, propaganda. And I really wish we could stop using a phrase that's been co-opted by politicians right around the world, from the left and the right, used as a weapon to attack a free and independent press.
І, як на зло, у нас дуже заплутана мова, якою ми це описуємо. Люди ще досі мусолять фразу "фейкові новини", незважаючи на те, що від неї дуже мало користі, вона позначає чимало дуже відмінних між собою речей: брехню, чутки, містифікації, змови, пропаганду. І я дуже хотіла б, щоб ми перестали вживати фразу, яку використовують політики в усьому світі, праві і ліві, як зброю для атаки на вільну й незалежну пресу.
(Applause)
(Оплески)
Because we need our professional news media now more than ever. And besides, most of this content doesn't even masquerade as news. It's memes, videos, social posts. And most of it is not fake; it's misleading. We tend to fixate on what's true or false. But the biggest concern is actually the weaponization of context. Because the most effective disinformation has always been that which has a kernel of truth to it.
Тому що зараз професійні ЗМІ нам потрібні як ніколи. Крім того, більшість такого контенту навіть не маскується під новини. Це меми, відео, дописи із соцмереж. І чимало з них не є фейками, але вони вводять в оману. Ми зосереджуємось на питанні про істинність чи хибність. Однак найбільше нас має непокоїти маніпуляція контекстом. Адже найбільш дієва дезінформація – це та, яка містить зерно правди.
Let's take this example from London, from March 2017, a tweet that circulated widely in the aftermath of a terrorist incident on Westminster Bridge. This is a genuine image, not fake. The woman who appears in the photograph was interviewed afterwards, and she explained that she was utterly traumatized. She was on the phone to a loved one, and she wasn't looking at the victim out of respect. But it still was circulated widely with this Islamophobic framing, with multiple hashtags, including: #BanIslam. Now, if you worked at Twitter, what would you do? Would you take that down, or would you leave it up? My gut reaction, my emotional reaction, is to take this down. I hate the framing of this image. But freedom of expression is a human right, and if we start taking down speech that makes us feel uncomfortable, we're in trouble.
Розгляньмо цей приклад, Лондон, березень 2017-го, масово поширюваний твіт після теракту на Вестмінстерському мосту. Це справжнє фото, не фейк. Пізніше жінка на фотографії пояснила в інтерв'ю, що вона була дуже шокована. Вона розмовляла з коханим, і, з поваги до жертв, уникала дивитись на них. Але фото широко циркулювало, у ісламофобському контексті, з численними хештегами, включно з #BanIslam. Що б ви зробили на місці команди Твіттера? Ви б заблокували це фото, чи дозволили його поширювати? Моя інтуїтивна, емоційна реакція – таке фото слід заблокувати. Я ненавиджу контекст, в якому його використали. Але свобода самовираження належить до прав людини, і якщо ми почнемо усувати дописи, які в нас викликають дискомфорт, це небезпечний симптом.
And this might look like a clear-cut case, but, actually, most speech isn't. These lines are incredibly difficult to draw. What's a well-meaning decision by one person is outright censorship to the next. What we now know is that this account, Texas Lone Star, was part of a wider Russian disinformation campaign, one that has since been taken down. Would that change your view? It would mine, because now it's a case of a coordinated campaign to sow discord. And for those of you who'd like to think that artificial intelligence will solve all of our problems, I think we can agree that we're a long way away from AI that's able to make sense of posts like this.
Я навела дуже явний, очевидний приклад, але більшість дописів не такі. Дуже важко провести чітку межу. Те, що для когось є цілком виправданим рішенням, для іншого є відвертою цензурою. Зараз ми знаємо, що цей акаунт, Техаська Самотня Зірка, був частиною ширшої російської дезінформаційної кампанії, це один із акаунтів, які зрештою ліквідували. Це змінює вашу думку? Мою змінює, бо це вже інша річ, тут скоординована кампанія, щоб сіяти розбрат. Ті ж із вас, хто вважає, що штучний інтелект вирішить всі наші проблеми, думаю, погодяться, що ми ще дуже далеко від ШІ, який здатний буде розуміти такі дописи, як цей.
So I'd like to explain three interlocking issues that make this so complex and then think about some ways we can consider these challenges. First, we just don't have a rational relationship to information, we have an emotional one. It's just not true that more facts will make everything OK, because the algorithms that determine what content we see, well, they're designed to reward our emotional responses. And when we're fearful, oversimplified narratives, conspiratorial explanations and language that demonizes others is far more effective. And besides, many of these companies, their business model is attached to attention, which means these algorithms will always be skewed towards emotion.
Тож я хочу висвітлити три взаємопов'язані проблеми, які роблять це завдання таким складним, і також обміркувати декотрі можливі підходи до цих викликів. Насамперед, наше ставлення до інформації є не раціональним, а емоційним. Ідея, що потрібно більше фактів, просто не відповідає дійсності, бо алгоритми, що визначають, який контент ми побачимо, розраховані на наші емоційні потреби. І коли ми відчуваємо страх, то спрощені пояснення, конспіративні теорії і ярлики, що демонізують інших, виявляються значно дієвішими. Крім того, чимало компаній використовують бізнес-модель, розраховану на емоції, що означає, що в цих алгоритмах завжди буде перекіс на користь емоцій.
Second, most of the speech I'm talking about here is legal. It would be a different matter if I was talking about child sexual abuse imagery or content that incites violence. It can be perfectly legal to post an outright lie. But people keep talking about taking down "problematic" or "harmful" content, but with no clear definition of what they mean by that, including Mark Zuckerberg, who recently called for global regulation to moderate speech. And my concern is that we're seeing governments right around the world rolling out hasty policy decisions that might actually trigger much more serious consequences when it comes to our speech. And even if we could decide which speech to take up or take down, we've never had so much speech. Every second, millions of pieces of content are uploaded by people right around the world in different languages, drawing on thousands of different cultural contexts. We've simply never had effective mechanisms to moderate speech at this scale, whether powered by humans or by technology.
По-друге, більшість із того, про що я тут розповідаю, не порушує закон. Інша річ, якби йшлося про дитячу порнографію чи заклики до насильства. Поширення ж відвертої брехні може ніяк не суперечити закону. Але люди подумують про блокування "проблемного" чи "шкідливого" контенту, не наводячи при цьому чіткого визначення цих термінів. Як-от Марк Цукерберг, який недавно закликав створити глобальні принципи модерації. Мене непокоїть, що владні інституції по всьому світу приймають поквапні політичні рішення, які можуть викликати значно серйозніші наслідки, коли йдеться про свободу слова. Та навіть якби ми могли вирішувати, які повідомлення блокувати, ми б ніколи не змогли з цим впоратись. Щосекунди люди у всьому світі розміщують мільйони нових повідомлень, різними мовами, вплетені в тисячі різних культурних контекстів. У нас просто ніколи б не було ефективних механізмів, для модерації в такому масштабі, це завдання було б не під силу ні людям, ні технологіям.
And third, these companies -- Google, Twitter, Facebook, WhatsApp -- they're part of a wider information ecosystem. We like to lay all the blame at their feet, but the truth is, the mass media and elected officials can also play an equal role in amplifying rumors and conspiracies when they want to. As can we, when we mindlessly forward divisive or misleading content without trying. We're adding to the pollution.
І, по-третє, ці компанії – Google, Twitter, Facebook, WhatsApp – є частиною ширшої інформаційної екосистеми. Ми любимо перекладати всю провину на них, але правда полягає в тому, що ЗМІ й урядовці при владі можуть відігравати не меншу роль у поширенні чуток і конспіративних теорій, коли їм це вигідно. І ми так само, коли бездумно репостимо образливу чи оманливу інформацію, не перевіряючи її. Ми сприяємо забрудненню.
I know we're all looking for an easy fix. But there just isn't one. Any solution will have to be rolled out at a massive scale, internet scale, and yes, the platforms, they're used to operating at that level. But can and should we allow them to fix these problems? They're certainly trying. But most of us would agree that, actually, we don't want global corporations to be the guardians of truth and fairness online. And I also think the platforms would agree with that. And at the moment, they're marking their own homework. They like to tell us that the interventions they're rolling out are working, but because they write their own transparency reports, there's no way for us to independently verify what's actually happening.
Я знаю, нам всім хочеться знайти простий вихід. Але його просто не існує. Будь-яке із пропонованих рішень має впроваджуватись у масовому масштабі, на рівні Інтернету, і так, платформи теж діють на цьому рівні. Але чи можемо і чи маємо ми їм дозволити вирішувати такі проблеми? Звісно, вони намагаються. Та більшість із нас згодні, що насправді ми не хочемо, щоб глобальні корпорації здійснювали нагляд за правдивістю онлайн. Я думаю, що з цим погодяться і платформи. На даний момент, вони працюють над своїми уроками. Вони люблять запевняти, що втручання, до яких вони вдаються, є дієвими, але оскільки вони спираються на власні внутрішні дані, у нас немає можливості незалежної перевірки, якою ж ситуація є насправді.
(Applause)
(Оплески)
And let's also be clear that most of the changes we see only happen after journalists undertake an investigation and find evidence of bias or content that breaks their community guidelines. So yes, these companies have to play a really important role in this process, but they can't control it.
Також слід усвідомлювати, що більшість змін стаються лише після того, коли журналісти здійснять розслідування і знайдуть упереджену інформацію, чи контент, який порушує правила їхньої спільноти. Тож так, компанії мають відігравати значну роль у цьому процесі, але вони не можуть його контролювати.
So what about governments? Many people believe that global regulation is our last hope in terms of cleaning up our information ecosystem. But what I see are lawmakers who are struggling to keep up to date with the rapid changes in technology. And worse, they're working in the dark, because they don't have access to data to understand what's happening on these platforms. And anyway, which governments would we trust to do this? We need a global response, not a national one.
А як щодо влади? Багато хто вважає, що глобальне регулювання – наша остання надія, коли йдеться про очистку нашої інформаційної екосистеми. Але, за моїми спостереженнями, законодавці намагаються бігти навздогін за швидкими змінами в технології. Гірше того, вони діють всліпу, бо їм бракує даних, щоб зрозуміти, що ж діється на цих платформах. До того ж, урядам яких держав ми б це довірили? Потрібна глобальна відповідь, а не національна.
So the missing link is us. It's those people who use these technologies every day. Can we design a new infrastructure to support quality information? Well, I believe we can, and I've got a few ideas about what we might be able to actually do. So firstly, if we're serious about bringing the public into this, can we take some inspiration from Wikipedia? They've shown us what's possible. Yes, it's not perfect, but they've demonstrated that with the right structures, with a global outlook and lots and lots of transparency, you can build something that will earn the trust of most people. Because we have to find a way to tap into the collective wisdom and experience of all users. This is particularly the case for women, people of color and underrepresented groups. Because guess what? They are experts when it comes to hate and disinformation, because they have been the targets of these campaigns for so long. And over the years, they've been raising flags, and they haven't been listened to. This has got to change. So could we build a Wikipedia for trust? Could we find a way that users can actually provide insights? They could offer insights around difficult content-moderation decisions. They could provide feedback when platforms decide they want to roll out new changes.
Отож, ланка, якої бракує – це ми. Це ми використовуємо дані технології щодня. Можемо ми створити нову інфраструктуру, щоб дбати про якість інформації? Я вірю, що можемо, і в мене є кілька ідей, що ми справді можемо зробити. По-перше, якщо ми хочемо залучити до цього публіку, чи не могли б ми скористатись досвідом Вікіпедії? Вона демонструє, що для нас можливо. Так, вона не досконала, але вона показує, що хороша структура, глобальний масштаб і значна, дуже значна прозорість дозволяє створити продукт, якому довірятиме більшість людей. Адже нам потрібно знайти спосіб залучити колективну мудрість і досвід усіх користувачів. Особливо це стосується жінок, представників расових та інших меншин. Здогадуєтесь, чому? Вони експерти, коли йдеться про ненависть і дезінформацію, адже вони тривалий час були жертвами таких кампаній. Вони боролись роками, але їх не слухали. Це потрібно змінити. Хіба нам не вдалось створити Вікіпедію на принципі довіри? Хіба не можна знайти спосіб справді враховувати думку користувачів? В тому числі й думку щодо складних рішень з приводу модерації змісту. Зворотній зв'язок користувачів міг би впливати на зміни, які впроваджуються на платформах.
Second, people's experiences with the information is personalized. My Facebook news feed is very different to yours. Your YouTube recommendations are very different to mine. That makes it impossible for us to actually examine what information people are seeing. So could we imagine developing some kind of centralized open repository for anonymized data, with privacy and ethical concerns built in? Because imagine what we would learn if we built out a global network of concerned citizens who wanted to donate their social data to science. Because we actually know very little about the long-term consequences of hate and disinformation on people's attitudes and behaviors. And what we do know, most of that has been carried out in the US, despite the fact that this is a global problem. We need to work on that, too.
По-друге, наш досвід взаємодії з інформацією персоналізований. Моя новинна стрічка у Фейсбуці дуже відмінна від вашої. Вам YouTube рекомендує для перегляду інші відео, ніж мені. Це унеможливлює для нас перевірку того, яку інформацію люди бачать. Тож чи не могли б ми уявити певний тип централізованого відкритого репозитарію анонімних даних, у якому враховано принципи етики й приватності? Адже уявіть, що б нам відкрилось, якби ми створили глобальну мережу небайдужих громадян, які б хотіли передати свої соціальні дані для наукового використання. Наразі нам дуже мало відомо про довготривалий вплив ненависті й дезінформації на установки й поведінку людей. А те, що нам відомо, спирається переважно на дані зі США, попри те, що йдеться про глобальну проблему. Тож нам треба працювати і над цим.
And third, can we find a way to connect the dots? No one sector, let alone nonprofit, start-up or government, is going to solve this. But there are very smart people right around the world working on these challenges, from newsrooms, civil society, academia, activist groups. And you can see some of them here. Some are building out indicators of content credibility. Others are fact-checking, so that false claims, videos and images can be down-ranked by the platforms.
І, по-третє, чи можемо ми поєднати всіх? Жодний сектор, чи то громадський, чи стартапи, чи урядовий, не може вирішити цю проблему. Але по всьому світу є дуже розумні люди, яких турбують ці виклики, це журналісти, громадські діячі, науковці, активісти. Ви бачите тут декотрих із них. Декотрі розробляють індикатори надійності контенту. Інші є факт-чекерами, вони допомагають платформам знижувати рейтинги хибних заяв, відео і зображень.
A nonprofit I helped to found, First Draft, is working with normally competitive newsrooms around the world to help them build out investigative, collaborative programs. And Danny Hillis, a software architect, is designing a new system called The Underlay, which will be a record of all public statements of fact connected to their sources, so that people and algorithms can better judge what is credible. And educators around the world are testing different techniques for finding ways to make people critical of the content they consume. All of these efforts are wonderful, but they're working in silos, and many of them are woefully underfunded.
Я співзасновниця громадської організації First Draft, мета якої – допомогти редакціям з різних куточків світу створити дослідницькі програми, націлені на співпрацю. А Денні Гілліс, архітектор програмного забезпечення, працює над новою системою під назвою The Underlay, яка стане підбіркою всіх публічно озвучених фактів, з посиланням на джерела, тож люди й алгоритми зможуть краще визначати, що заслуговує на довіру. А освітяни по всьому світу випробовують різні техніки, щоб підвищити здатність людей критично сприймати інформацію. Вони роблять чудову роботу, але вони працюють розрізнено, і чимало з них жахливо недофінансовані.
There are also hundreds of very smart people working inside these companies, but again, these efforts can feel disjointed, because they're actually developing different solutions to the same problems.
А також сотні дуже розумних людей працюють в цих компаніях, та, знову ж таки, їхні зусилля нескоординовані, бо вони насправді працюють над різними рішеннями одних і тих же проблем.
How can we find a way to bring people together in one physical location for days or weeks at a time, so they can actually tackle these problems together but from their different perspectives? So can we do this? Can we build out a coordinated, ambitious response, one that matches the scale and the complexity of the problem? I really think we can. Together, let's rebuild our information commons.
Чи можемо ми знайти спосіб зібрати цих людей в одному просторі, на кілька днів чи тижнів, щоб вони змогли взятись за ці проблеми разом, але виходячи зі своїх різних перспектив? Чи можемо ми це зробити? Чи можемо ми запропонувати узгоджену, масштабну відповідь, яка відповідатиме розмаху і складності проблеми? Я вважаю, ми справді можемо. Тож давайте разом перебудовувати наш інформаційний простір.
Thank you.
Дякую.
(Applause)
(Оплески)