No matter who you are or where you live, I'm guessing that you have at least one relative that likes to forward those emails. You know the ones I'm talking about -- the ones with dubious claims or conspiracy videos. And you've probably already muted them on Facebook for sharing social posts like this one.
Indiferent cine ești sau unde locuiești, cred că ai cel puțin o rudă căreia îi place să distribuie acele postări. Știți despre ce vorbesc: cele cu afirmații dubioase sau videoclipuri despre conspirații. Și probabil le-ați dat „mute” pe Facebook pentru distribuirea postărilor ca aceasta.
It's an image of a banana with a strange red cross running through the center. And the text around it is warning people not to eat fruits that look like this, suggesting they've been injected with blood contaminated with the HIV virus. And the social share message above it simply says, "Please forward to save lives." Now, fact-checkers have been debunking this one for years, but it's one of those rumors that just won't die. A zombie rumor. And, of course, it's entirely false.
Este imaginea unei banane cu o cruce roșie ciudată în mijloc. Iar textul avertizează oamenii să nu mănânce fructe care arată așa, sugerând că ar fi fost injectate cu sânge contaminat cu virusul HIV. Și mesajul de deasupra spune: „Vă rog distribuiți pentru a salva vieți”. Cei care verifică faptele au demitizat astfel de știri acum mulți ani, dar e unul din acele zvonuri care nu vrea să moară. Un zvon zombie. Și, bineînțeles, e total fals.
It might be tempting to laugh at an example like this, to say, "Well, who would believe this, anyway?" But the reason it's a zombie rumor is because it taps into people's deepest fears about their own safety and that of the people they love. And if you spend as enough time as I have looking at misinformation, you know that this is just one example of many that taps into people's deepest fears and vulnerabilities.
Ai putea fi tentat să râzi la un asemenea exemplu, să spui: „Cine ar putea crede asta?” Motivul pentru care e un zvon zombie e pentru că atinge cele mai mari temeri ale oamenilor privind propria siguranță și a celor pe care îi iubesc. Iar dacă petreci la fel de mult timp ca mine analizând dezinformarea, știi că acesta e doar un exemplu din multele care ating cele mai adânci frici și vulnerabilități.
Every day, across the world, we see scores of new memes on Instagram encouraging parents not to vaccinate their children. We see new videos on YouTube explaining that climate change is a hoax. And across all platforms, we see endless posts designed to demonize others on the basis of their race, religion or sexuality.
În fiecare zi vedem un număr mare de noi meme pe Instagram care încurajează părinții să nu își vaccineze copiii. Vedem videoclipuri pe YouTube explicând că schimbările climaterice sunt o farsă. Pe toate platformele vedem nenumărate postări care îi demonizează pe alții pe baza rasei, religiei sau sexualității.
Welcome to one of the central challenges of our time. How can we maintain an internet with freedom of expression at the core, while also ensuring that the content that's being disseminated doesn't cause irreparable harms to our democracies, our communities and to our physical and mental well-being? Because we live in the information age, yet the central currency upon which we all depend -- information -- is no longer deemed entirely trustworthy and, at times, can appear downright dangerous. This is thanks in part to the runaway growth of social sharing platforms that allow us to scroll through, where lies and facts sit side by side, but with none of the traditional signals of trustworthiness.
Bine ați venit la una din marile provocări ale zilelor noastre. Cum putem să menținem un internet cu libertate de expresie, asigurându-ne totodată că conținutul nu cauzează prejudicii ireparabile democrației, comunităților și bunăstării noastre fizice și psihice? Deși trăim în era informației, totuși elementul cheie de care depindem toți: informația, nu mai e considerată de încredere și câteodată poate fi chiar periculoasă. Asta se datorează în mare parte creșterii necontrolate a platformelor sociale care ne permit să citim minciuni și adevăruri alăturate, fără niciun semnal tradițional al încrederii.
And goodness -- our language around this is horribly muddled. People are still obsessed with the phrase "fake news," despite the fact that it's extraordinarily unhelpful and used to describe a number of things that are actually very different: lies, rumors, hoaxes, conspiracies, propaganda. And I really wish we could stop using a phrase that's been co-opted by politicians right around the world, from the left and the right, used as a weapon to attack a free and independent press.
Și, Doamne, limbajul folosit e îngrozitor de confuz. Oamenii încă sunt obsedați de expresia „știri false”, în ciuda faptului că e extraordinar de inutilă și folosită pentru a descrie multe lucruri care sunt foarte diferite: minciuni, zvonuri, farse, conspirații, propagandă. Și chiar îmi doresc să nu mai folosim o expresie care a fost folosită de politicienii din întreaga lume, de stânga și de dreapta, ca să atace presă liberă și independentă.
(Applause)
(Aplauze)
Because we need our professional news media now more than ever. And besides, most of this content doesn't even masquerade as news. It's memes, videos, social posts. And most of it is not fake; it's misleading. We tend to fixate on what's true or false. But the biggest concern is actually the weaponization of context. Because the most effective disinformation has always been that which has a kernel of truth to it.
Deoarece avem nevoie de o presă profesionistă mai mult ca niciodată. Și pe lângă asta, majoritatea acestui conținut nu pretinde a fi știri. Sunt meme, videoclipuri, postări. Și majoritatea nu sunt false; sunt înșelătoare. Tindem să ne fixăm pe ce e adevărat sau fals. Dar cea mai mare problemă e de fapt folosirea contextului. Pentru că cea mai eficientă dezinformare a fost întotdeauna cea care are un sâmbure de adevăr în ea.
Let's take this example from London, from March 2017, a tweet that circulated widely in the aftermath of a terrorist incident on Westminster Bridge. This is a genuine image, not fake. The woman who appears in the photograph was interviewed afterwards, and she explained that she was utterly traumatized. She was on the phone to a loved one, and she wasn't looking at the victim out of respect. But it still was circulated widely with this Islamophobic framing, with multiple hashtags, including: #BanIslam. Now, if you worked at Twitter, what would you do? Would you take that down, or would you leave it up? My gut reaction, my emotional reaction, is to take this down. I hate the framing of this image. But freedom of expression is a human right, and if we start taking down speech that makes us feel uncomfortable, we're in trouble.
Să luam un exemplu din Londra, din martie 2017, un tweet care a circulat la scară largă în urma unui incident terorist pe podul Westminster. Aceasta e o imagine reală, nu falsă. Femeia care apare în poză a fost intervievată după aceea și a explicat că a fost extrem de traumatizată. Era la telefon cu o persoană iubită, și nu se uita la victimă din respect. Dar a circulat la scară largă cu această descriere islamofobă, cu multiple hashtag-uri, printre care #InterzicețiIslamul. Acum, dacă ai lucra la Twitter, ce ai face? Ai da-o jos sau ai lăsa-o? Instinctiv, emoțional, aș da-o jos. Urăsc descrierea acestei imagini. Dar libertatea de expresie e un drept al omului, și dacă începem să interzicem părerile inconfortabile, avem probleme.
And this might look like a clear-cut case, but, actually, most speech isn't. These lines are incredibly difficult to draw. What's a well-meaning decision by one person is outright censorship to the next. What we now know is that this account, Texas Lone Star, was part of a wider Russian disinformation campaign, one that has since been taken down. Would that change your view? It would mine, because now it's a case of a coordinated campaign to sow discord. And for those of you who'd like to think that artificial intelligence will solve all of our problems, I think we can agree that we're a long way away from AI that's able to make sense of posts like this.
Și acesta poate părea un caz clar, dar, de fapt, majoritatea nu sunt. Liniile sunt incredibil de greu de trasat. Ce e o decizie bine intenționată pentru o persoană e cenzură pentru alta. Ceea ce știm e că acest cont, Texas Lone Star, a făcut parte dintr-o largă campanie rusească de dezinformare care a fost demascată. Vă schimba asta punctul de vedere? Pe al meu îl schimbă, pentru că face parte dintr-o campanie coordonată pentru a semăna discordie. Iar pentru cei care cred că inteligența artificială va rezolva toate problemele noastre, cred că putem fi de acord că suntem departe de acea IA care e capabilă să dea sens postărilor ca aceasta.
So I'd like to explain three interlocking issues that make this so complex and then think about some ways we can consider these challenges. First, we just don't have a rational relationship to information, we have an emotional one. It's just not true that more facts will make everything OK, because the algorithms that determine what content we see, well, they're designed to reward our emotional responses. And when we're fearful, oversimplified narratives, conspiratorial explanations and language that demonizes others is far more effective. And besides, many of these companies, their business model is attached to attention, which means these algorithms will always be skewed towards emotion.
Aș vrea să vă explic trei aspecte interconectate care fac problema atât de complexă și să vă gândiți la câteva moduri de a privi aceste provocări. În primul rând, noi pur și simplu nu avem o relație rațională cu informația, ci una emoțională. Nu e adevărat că mai multe informații vor rezolva totul, pentru că algoritimii care determină ce conținut vedem, sunt făcuți să recompenseze răspunsul nostru emoțional. Iar când ne temem, poveștile simplificate, explicațiile conspirative și limbajul ce îi demonizează pe ceilalți sunt mult mai eficiente. În plus, multe din aceste companii au modelul de afaceri bazat pe atenție, ceea ce înseamnă că acești algoritmi vor fi întotdeauna atrași spre emoții.
Second, most of the speech I'm talking about here is legal. It would be a different matter if I was talking about child sexual abuse imagery or content that incites violence. It can be perfectly legal to post an outright lie. But people keep talking about taking down "problematic" or "harmful" content, but with no clear definition of what they mean by that, including Mark Zuckerberg, who recently called for global regulation to moderate speech. And my concern is that we're seeing governments right around the world rolling out hasty policy decisions that might actually trigger much more serious consequences when it comes to our speech. And even if we could decide which speech to take up or take down, we've never had so much speech. Every second, millions of pieces of content are uploaded by people right around the world in different languages, drawing on thousands of different cultural contexts. We've simply never had effective mechanisms to moderate speech at this scale, whether powered by humans or by technology.
În al doilea rând, majoritatea limbajului despre care vă vorbesc este legal. Ar fi cu totul altceva dacă aș fi vorbit despre copii abuzați sexual sau conținut care incită la violență. E perfect legal să postezi o minciună. Dar oamenii vorbesc despre interzicerea subiectelor „problematice” sau „nocive”, dar fără o definiție clară a ce înseamnă asta, inclusiv Mark Zuckerberg, care a cerut recent o reglementare globală a limbajului. Teama mea e că vedem guverne în toată lumea care iau decizii politice pripite, care chiar ar putea declanșa consecințe mult mai grave când vine vorba de libertatea de expresie. Chiar dacă am putea decide care părere e interzisă sau nu, nu am avut niciodată atâtea păreri. În fiecare secundă milioane de materiale sunt încărcate de oameni din toată lumea, în diferite limbi, influențând mii de oameni din contexte culturale diferite. Pur și simplu nu am avut niciodată mecanisme eficiente pentru a modera limbajul la această scară, indiferent dacă sunt alimentate de oameni sau tehnologie.
And third, these companies -- Google, Twitter, Facebook, WhatsApp -- they're part of a wider information ecosystem. We like to lay all the blame at their feet, but the truth is, the mass media and elected officials can also play an equal role in amplifying rumors and conspiracies when they want to. As can we, when we mindlessly forward divisive or misleading content without trying. We're adding to the pollution.
În al treilea rând, aceste companii, Google, Twitter, Facebook, WhatsApp, fac parte dintr-un ecosistem informațional mai mare. Ne place să dăm vina pe ei, dar adevărul e că mass media și reprezentanții aleși pot juca un rol la fel de important în amplificarea zvonurilor și conspirațiilor atunci când vor. La fel și noi, când distribuim inconștient subiecte dezbinatoare și înșelătoare fără încetare. Contribuim la problemă.
I know we're all looking for an easy fix. But there just isn't one. Any solution will have to be rolled out at a massive scale, internet scale, and yes, the platforms, they're used to operating at that level. But can and should we allow them to fix these problems? They're certainly trying. But most of us would agree that, actually, we don't want global corporations to be the guardians of truth and fairness online. And I also think the platforms would agree with that. And at the moment, they're marking their own homework. They like to tell us that the interventions they're rolling out are working, but because they write their own transparency reports, there's no way for us to independently verify what's actually happening.
Știu că noi toți căutăm o rezolvare ușoară. Dar pur și simplu nu există una. Orice soluție ar trebui aplicată la scară masivă, la scară de internet, și, da, platformele sunt obișnuite să funcționeze la acel nivel. Dar putem și ar trebui să le permitem să rezolve aceste probleme? Cu siguranță încearcă. Dar majoritatea dintre noi ar fi de acord că, de fapt, nu vrem corporațiile globale să fie apărătorii adevărului și corectitudinii online. Și cred că platformele sunt de acord cu asta. Iar în prezent își evaluează propriile soluții. Le place să ne spună că intervențiile pe care le derulează funcționează, dar deoarece își scriu propriile rapoarte de transparență, nu e nicio metodă ca noi să verificăm independent ce se întâmplă de fapt.
(Applause)
(Aplauze)
And let's also be clear that most of the changes we see only happen after journalists undertake an investigation and find evidence of bias or content that breaks their community guidelines. So yes, these companies have to play a really important role in this process, but they can't control it.
Și să fie clar, majoritatea schimbărilor pe care le vedem apar după ce jurnaliștii investighează și găsesc dovezi de părtinire sau conținut care încalcă regulile comunității. Deci da, aceste companii trebuie să joace un rol important în acest proces, dar nu pot să îl controleze.
So what about governments? Many people believe that global regulation is our last hope in terms of cleaning up our information ecosystem. But what I see are lawmakers who are struggling to keep up to date with the rapid changes in technology. And worse, they're working in the dark, because they don't have access to data to understand what's happening on these platforms. And anyway, which governments would we trust to do this? We need a global response, not a national one.
Dar guvernele? Mulți cred că reglementarea globală e ultima noastră speranță. în ce privește curățarea ecosistemului nostru informațional. Dar eu văd doar legislatori care se luptă să țină pasul cu schimbările rapide ale tehnologiei. Mai rău, lucrează în întuneric, deoarece nu au acces la informații pentru a înțelege ce se întâmplă pe aceste platforme. Și oricum, în care guvern putem avea încredere să facă asta? Avem nevoie de un răspuns global, nu de unul național.
So the missing link is us. It's those people who use these technologies every day. Can we design a new infrastructure to support quality information? Well, I believe we can, and I've got a few ideas about what we might be able to actually do. So firstly, if we're serious about bringing the public into this, can we take some inspiration from Wikipedia? They've shown us what's possible. Yes, it's not perfect, but they've demonstrated that with the right structures, with a global outlook and lots and lots of transparency, you can build something that will earn the trust of most people. Because we have to find a way to tap into the collective wisdom and experience of all users. This is particularly the case for women, people of color and underrepresented groups. Because guess what? They are experts when it comes to hate and disinformation, because they have been the targets of these campaigns for so long. And over the years, they've been raising flags, and they haven't been listened to. This has got to change. So could we build a Wikipedia for trust? Could we find a way that users can actually provide insights? They could offer insights around difficult content-moderation decisions. They could provide feedback when platforms decide they want to roll out new changes.
Deci veriga lipsă suntem noi, oameni care folosesc aceste tehnologii în fiecare zi. Putem proiecta o nouă infrastructură pentru a susține informațiile de calitate? Ei bine, cred că da, și am câteva idei despre ce am putea face. Mai întâi, dacă chiar vrem să implicăm publicul în asta, nu putem să ne inspirăm din Wikipedia? Ne-au arătat ce e posibil. Da, nu e perfect, dar ne-au demonstrat că având structurile potrivite, cu o perspectivă globală și foarte multă transparență, putem construi ceva care să câștige încrederea majorității oamenilor. Pentru că trebuie să găsim o cale de a accesa înțelepciunea colectivă și experiența tuturor utilizatorilor. E în special cazul femeilor, oamenilor de culoare și grupurilor subreprezentate. Ghiciți de ce? Ei sunt experți când vine vorba de ură și dezinformare, pentru că au fost țintele acestor campanii pentru mult timp. Și de-a lungul anilor ne-au avertizat și nu au fost ascultați. Asta trebuie să se schimbe. Deci, am putea construi o Wikipedia pentru încredere? Am putea găsi o modalitate prin care utilizatorii să ofere o perspectivă? Ar putea oferi o perspectivă despre deciziile de moderare. Ar putea oferi feedback când platformele decid că vor să facă schimbări.
Second, people's experiences with the information is personalized. My Facebook news feed is very different to yours. Your YouTube recommendations are very different to mine. That makes it impossible for us to actually examine what information people are seeing. So could we imagine developing some kind of centralized open repository for anonymized data, with privacy and ethical concerns built in? Because imagine what we would learn if we built out a global network of concerned citizens who wanted to donate their social data to science. Because we actually know very little about the long-term consequences of hate and disinformation on people's attitudes and behaviors. And what we do know, most of that has been carried out in the US, despite the fact that this is a global problem. We need to work on that, too.
În a doilea rând, experiențele oamenilor cu informația sunt personalizate. Fluxul meu de știri pe Facebook e diferit de al vostru. Recomandările voastre pe YouTube sunt diferite de ale mele. Asta face imposibil pentru noi să examinăm ce informații văd oamenii. Așadar, am putea să dezvoltăm un fel de depozit centralizat deschis pentru date anonimizate, cu preocupări incorporate privind intimitatea și etica? Imaginați-vă câte am putea învăța dacă vom construi o rețea globală de cetățeni care vor să doneze științei datele lor sociale. Pentru că de fapt știm foarte puține despre consecințele pe termen lung ale urii și dezinformării asupra atitudinii și comportamentului oamenilor. Și din ceea ce știm, cele mai multe s-au desfășurat în SUA, în ciuda faptului că e o problemă globală. Trebuie să lucrăm și la asta.
And third, can we find a way to connect the dots? No one sector, let alone nonprofit, start-up or government, is going to solve this. But there are very smart people right around the world working on these challenges, from newsrooms, civil society, academia, activist groups. And you can see some of them here. Some are building out indicators of content credibility. Others are fact-checking, so that false claims, videos and images can be down-ranked by the platforms.
Și în al treilea rând, putem găsi o modalitate de a uni punctele? Niciun sector, ONG, start-up sau guvern nu va rezolva problema. Dar în lume sunt oameni foarte deștepți care lucrează la aceste provocări, agenții de presă, societatea civilă, academicieni, grupuri activiste. Iar unii dintre ei pot fi văzuți aici. Unii realizează indicatori de credibilitate a conținutului. Alții verifică faptele, astfel încât afirmațiile, videoclipurile și imaginile false să fie date jos.
A nonprofit I helped to found, First Draft, is working with normally competitive newsrooms around the world to help them build out investigative, collaborative programs. And Danny Hillis, a software architect, is designing a new system called The Underlay, which will be a record of all public statements of fact connected to their sources, so that people and algorithms can better judge what is credible. And educators around the world are testing different techniques for finding ways to make people critical of the content they consume. All of these efforts are wonderful, but they're working in silos, and many of them are woefully underfunded.
Un ONG la al cărui înființare am ajutat, First Draft, lucrează cu agențiile de presă din întreaga lume pentru a-i ajuta să construiască programe de investigație colaborative. Și Danny Hillis, un arhitect de software, creează un sistem nou, numit The Underlay, care va fi o înregistrare a tuturor declarațiilor publice conectate cu sursele lor, astfel încât oamenii și algoritmii să poată judeca mai bine ce e credibil. Și profesorii din întreaga lume testează diferite tehnici pentru a-i face pe oameni mai critici în legătură cu ceea ce citesc. Toate aceste eforturi sunt minunate, dar ei lucrează separat și mulți dintre ei sunt subfinanțați.
There are also hundreds of very smart people working inside these companies, but again, these efforts can feel disjointed, because they're actually developing different solutions to the same problems.
Sunt și sute de oameni foarte deștepți care lucrează în aceste companii, dar, din nou, aceste eforturi sunt neconectate, deoarece de fapt dezvoltă diverse soluții la aceleași probleme.
How can we find a way to bring people together in one physical location for days or weeks at a time, so they can actually tackle these problems together but from their different perspectives? So can we do this? Can we build out a coordinated, ambitious response, one that matches the scale and the complexity of the problem? I really think we can. Together, let's rebuild our information commons.
Cum putem găsi o modalitate de a aduce oamenii împreună, într-un singur loc, pentru zile sau săptămâni, pentru a aborda aceste probleme împreună, dar din diferite perspective? Putem face asta? Putem construi un răspuns coordonat și ambițios, unul pe măsura mărimii și complexității problemei? Eu cred că putem. Să reconstruim împreună mediul informațional!
Thank you.
Vă mulțumesc!
(Applause)
(Aplauze)