No matter who you are or where you live, I'm guessing that you have at least one relative that likes to forward those emails. You know the ones I'm talking about -- the ones with dubious claims or conspiracy videos. And you've probably already muted them on Facebook for sharing social posts like this one.
Non importa chi siete o dove vivete, credo che voi abbiate almeno un parente a cui piace inoltrare quelle email. Sapete di quali mail sto parlando, quelle con dichiarazioni dubbie o video di complotti. Probabilmente li avete già silenziati su Facebook proprio perché condividono post \come questo.
It's an image of a banana with a strange red cross running through the center. And the text around it is warning people not to eat fruits that look like this, suggesting they've been injected with blood contaminated with the HIV virus. And the social share message above it simply says, "Please forward to save lives." Now, fact-checkers have been debunking this one for years, but it's one of those rumors that just won't die. A zombie rumor. And, of course, it's entirely false.
È l'immagine di una banana con una strana croce rossa che attraversa il centro. E il testo che l'accompagna avverte la gente di non mangiare la frutta con quell'aspetto, insinuando che vi abbiano iniettato del sangue contaminato con il virus dell'HIV. Il messaggio da condividere sopra la foto dice solamente: "Per favore, inoltratelo per salvare delle vite." Ora, chi effettua le verifiche l'ha smentito per anni, ma è una di quelle dicerie che non vogliono proprio morire. La diceria zombi. E naturalmente, è assolutamente falsa.
It might be tempting to laugh at an example like this, to say, "Well, who would believe this, anyway?" But the reason it's a zombie rumor is because it taps into people's deepest fears about their own safety and that of the people they love. And if you spend as enough time as I have looking at misinformation, you know that this is just one example of many that taps into people's deepest fears and vulnerabilities.
Potremmo essere tentati di ridere per una cosa come questa e dire: "Ma comunque, chi ci crederebbe?" Ma la ragione per cui è una diceria zombi è che tocca le paure più profonde della gente sulla propria sicurezza e la sicurezza di quelli che amano. Se passate tanto tempo come me a guardare la cattiva informazione, sapete che questo è solo uno dei molti esempi che toccano le paure e le fragilità più profonde delle persone.
Every day, across the world, we see scores of new memes on Instagram encouraging parents not to vaccinate their children. We see new videos on YouTube explaining that climate change is a hoax. And across all platforms, we see endless posts designed to demonize others on the basis of their race, religion or sexuality.
Ogni giorno in tutto il mondo, vediamo un sacco di meme su Instagram che incoraggiano i genitori a non vaccinare i loro bambini. Sempre nuovi video su YouTube spiegano che il cambiamento climatico è una bufala. Su tutte le piattaforme vediamo fiumi di post che demonizzano gli altri sulla base della loro razza, religione o sessualità.
Welcome to one of the central challenges of our time. How can we maintain an internet with freedom of expression at the core, while also ensuring that the content that's being disseminated doesn't cause irreparable harms to our democracies, our communities and to our physical and mental well-being? Because we live in the information age, yet the central currency upon which we all depend -- information -- is no longer deemed entirely trustworthy and, at times, can appear downright dangerous. This is thanks in part to the runaway growth of social sharing platforms that allow us to scroll through, where lies and facts sit side by side, but with none of the traditional signals of trustworthiness.
Benvenuti in una delle sfide fondamentali dei nostri tempi. Come possiamo avere una rete con al centro la libertà di espressione, e assicurare allo stesso tempo che il contenuto che viene diffuso non causerà danni irreparabili alle nostre democrazie, alle comunità e al nostro benessere fisico e mentale? Perché viviamo nell'era dell'informazione, ma la valuta fondamentale da cui tutti dipendiamo, l'informazione, non è più ritenuta sempre affidabile e, alle volte, può essere veramente pericolosa. In parte lo si deve alla rapida crescita di piattaforme di condivisione dove possiamo leggere velocemente, e dove bugie e fatti stanno fianco a fianco, ma senza nessuno dei tradizionali segnali di attendibilità.
And goodness -- our language around this is horribly muddled. People are still obsessed with the phrase "fake news," despite the fact that it's extraordinarily unhelpful and used to describe a number of things that are actually very different: lies, rumors, hoaxes, conspiracies, propaganda. And I really wish we could stop using a phrase that's been co-opted by politicians right around the world, from the left and the right, used as a weapon to attack a free and independent press.
E mamma mia, la nostra lingua su questo è orribilmente confusa. La gente è ancora ossessionata dall'espressione "fake news", nonostante il fatto che sia incredibilmente inutile e usata per descrivere cose che in realtà sono molto diverse: bugie, dicerie, bufale, complotti, propaganda. Vorrei davvero che la smettessimo di usare un'espressione che è stata cooptata dai politici di tutto il mondo, sia di destra che di sinistra, usata come un'arma per attaccare la stampa libera e indipendente.
(Applause)
(Applausi)
Because we need our professional news media now more than ever. And besides, most of this content doesn't even masquerade as news. It's memes, videos, social posts. And most of it is not fake; it's misleading. We tend to fixate on what's true or false. But the biggest concern is actually the weaponization of context. Because the most effective disinformation has always been that which has a kernel of truth to it.
Perché abbiamo bisogno dei nostri mezzi d'informazione, ora più che mai. Oltretutto, molti di questi contenuti non si travestono nemmeno da notizie. Sono meme, video, post sui social. E la maggior parte non sono falsi; sono fuorvianti. Tendiamo a fissarci su ciò che è vero o falso. Ma la più grande preoccupazione è che il contesto si usa come un'arma. Perché la disinformazione più efficace è sempre stata quella che contiene un nucleo di verità.
Let's take this example from London, from March 2017, a tweet that circulated widely in the aftermath of a terrorist incident on Westminster Bridge. This is a genuine image, not fake. The woman who appears in the photograph was interviewed afterwards, and she explained that she was utterly traumatized. She was on the phone to a loved one, and she wasn't looking at the victim out of respect. But it still was circulated widely with this Islamophobic framing, with multiple hashtags, including: #BanIslam. Now, if you worked at Twitter, what would you do? Would you take that down, or would you leave it up? My gut reaction, my emotional reaction, is to take this down. I hate the framing of this image. But freedom of expression is a human right, and if we start taking down speech that makes us feel uncomfortable, we're in trouble.
Prendiamo come esempio Londra nel marzo del 2017, un tweet che è circolato molto dopo il disastroso attacco terroristico sul Westminster Bridge. Quest'immagine è vera, non è un falso. La donna che appare nella foto è stata intervistata subito dopo e ha spiegato che era assolutamente traumatizzata. Era al telefono con una persona cara, e non stava guardando la vittima per un senso di rispetto. Ma continuava a circolare diffusamente con questa didascalia islamofobica, con vari hashtag, incluso: #BanIslam. Ora, se voi lavoraste per Twitter, cosa fareste? La cancellereste o la lascereste? La mia reazione istintiva, una reazione emotiva, sarebbe di cancellarla. Odio la didascalia di quest'immagine. Ma la libertà di espressione è un diritto umano, e se iniziamo a eliminare discorsi che ci fanno sentire a disagio, siamo nei guai.
And this might look like a clear-cut case, but, actually, most speech isn't. These lines are incredibly difficult to draw. What's a well-meaning decision by one person is outright censorship to the next. What we now know is that this account, Texas Lone Star, was part of a wider Russian disinformation campaign, one that has since been taken down. Would that change your view? It would mine, because now it's a case of a coordinated campaign to sow discord. And for those of you who'd like to think that artificial intelligence will solve all of our problems, I think we can agree that we're a long way away from AI that's able to make sense of posts like this.
Questo potrebbe sembrare un caso evidente, ma molti discorsi non lo sono. Lo spartiacque è molto difficile da individuare. Una decisione con buone intenzioni per una persona è una censura assoluta per un'altra. Ora sappiamo che questo account, Texas Lone Star, fa parte di una campagna russa di disinformazione più ampia, una campagna che da allora è stata chiusa. Questo vi farebbe cambiare idea? A me si, perché qui si tratta di una campagna concertata per seminare discordia. E per tutti quelli a cui piacerebbe pensare che l'intelligenza artificiale risolverà tutti i problemi, penso siate d'accordo nel ritenere che siamo lontani da un'intelligenza artificiale capace di analizzare un post come questo.
So I'd like to explain three interlocking issues that make this so complex and then think about some ways we can consider these challenges. First, we just don't have a rational relationship to information, we have an emotional one. It's just not true that more facts will make everything OK, because the algorithms that determine what content we see, well, they're designed to reward our emotional responses. And when we're fearful, oversimplified narratives, conspiratorial explanations and language that demonizes others is far more effective. And besides, many of these companies, their business model is attached to attention, which means these algorithms will always be skewed towards emotion.
Vorrei spiegarvi tre problematiche interconnesse che rendono il tutto molto complesso, e poi cercare dei modi per affrontare queste sfide. Primo, noi semplicemente non abbiamo un rapporto razionale con l'informazione, ne abbiamo uno emotivo. Semplicemente non è vero che più fatti metterebbero tutto a posto, perché gli algoritmi che determinano i contenuti che noi vediamo sono concepiti per premiare le nostre risposte emotive. E quando abbiamo paura, una narrativa semplificata, la cospirazione come spiegazione, e un linguaggio che demonizza gli altri sono molto più efficaci. Inoltre, molte di queste compagnie, il loro modello imprenditoriale richiede attenzione, il che significa che questi logaritmi saranno sempre deviati verso l'emozione.
Second, most of the speech I'm talking about here is legal. It would be a different matter if I was talking about child sexual abuse imagery or content that incites violence. It can be perfectly legal to post an outright lie. But people keep talking about taking down "problematic" or "harmful" content, but with no clear definition of what they mean by that, including Mark Zuckerberg, who recently called for global regulation to moderate speech. And my concern is that we're seeing governments right around the world rolling out hasty policy decisions that might actually trigger much more serious consequences when it comes to our speech. And even if we could decide which speech to take up or take down, we've never had so much speech. Every second, millions of pieces of content are uploaded by people right around the world in different languages, drawing on thousands of different cultural contexts. We've simply never had effective mechanisms to moderate speech at this scale, whether powered by humans or by technology.
Secondo, la maggior parte di quello di cui sto parlando ora è legale. Sarebbe tutta un'altra cosa se parlassi di immagini di violenza su minori o di contenuti che incitano alla violenza. Può essere perfettamente legale pubblicare una palese bugia. Ma si continua a parlare di oscurare i contenuti "problematici" o "dannosi", senza una chiara definizione di ciò che si intende, incluso Mark Zuckerberg, che di recente ha chiesto delle regole per la moderazione globale del linguaggio. La mia preoccupazione è che stiamo vedendo governi di tutto il mondo presentare decisioni politiche frettolose che potrebbero innescare delle conseguenze molto più serie relativamente al nostro discorso. Anche se noi potessimo decidere quale discorso lasciare e quale oscurare, non ci sono mai stati così tanti messaggi. Ogni secondo, milioni di contenuti vengono caricati nel mondo in diverse lingue, e si riferiscono a migliaia di contesti culturali diversi. Non abbiamo mai avuto dei meccanismi efficaci per moderare interventi su questa scala, che siano alimentati dagli umani o dalla tecnologia.
And third, these companies -- Google, Twitter, Facebook, WhatsApp -- they're part of a wider information ecosystem. We like to lay all the blame at their feet, but the truth is, the mass media and elected officials can also play an equal role in amplifying rumors and conspiracies when they want to. As can we, when we mindlessly forward divisive or misleading content without trying. We're adding to the pollution.
E terzo, queste compagnie, Google, Twitter, Facebook, WhatsApp, sono parte di un ecosistema più ampio. Ci piace dare tutta la colpa a loro, ma la verità è che i mass media e i politici possono giocare un ruolo ugualmente importante nell'amplificare le dicerie e i complotti quando lo vogliono. Come possiamo farlo noi, quando senza pensarci inoltriamo messaggi divisivi o fuorvianti senza verificare. Stiamo aumentando l'inquinamento.
I know we're all looking for an easy fix. But there just isn't one. Any solution will have to be rolled out at a massive scale, internet scale, and yes, the platforms, they're used to operating at that level. But can and should we allow them to fix these problems? They're certainly trying. But most of us would agree that, actually, we don't want global corporations to be the guardians of truth and fairness online. And I also think the platforms would agree with that. And at the moment, they're marking their own homework. They like to tell us that the interventions they're rolling out are working, but because they write their own transparency reports, there's no way for us to independently verify what's actually happening.
So che stiamo cercando tutti una facile soluzione. Ma semplicemente non ce n'è una. Qualsiasi soluzione dovrà essere lanciata su scala enorme, su scala internet, e certo, le piattaforme sono abituate a operare a quei livelli. Ma possiamo e dovremmo permettere che loro risolvano questi problemi? Sicuramente stanno provando. Ma molti di noi in realtà direbbero che non vogliono le corporazioni globali a salvaguardia della verità e della correttezza in rete. Penso che anche le piattaforme sarebbero d'accordo. Al momento, loro stanno facendo i loro compiti per casa. Amano dirci che gli interventi che operano stanno funzionando, ma dato che scrivono loro le relazioni sulla trasparenza, non c'è modo di verificare in modo indipendente cosa sta realmente accadendo.
(Applause)
(Applausi)
And let's also be clear that most of the changes we see only happen after journalists undertake an investigation and find evidence of bias or content that breaks their community guidelines. So yes, these companies have to play a really important role in this process, but they can't control it.
E chiariamo che molti dei cambiamenti che vediamo avvengono solo dopo che un indagine giornalistica trova le prove di faziosità o di contenuti che vanno contro le linee guida della comunità. Quindi sì, queste compagnie devono giocare un ruolo importante in questo processo, ma non possono controllarlo.
So what about governments? Many people believe that global regulation is our last hope in terms of cleaning up our information ecosystem. But what I see are lawmakers who are struggling to keep up to date with the rapid changes in technology. And worse, they're working in the dark, because they don't have access to data to understand what's happening on these platforms. And anyway, which governments would we trust to do this? We need a global response, not a national one.
E che dire dei governi? Molte persone credono che delle regole globali siano l'ultima speranza di pulire il nostro ecosistema dell'informazione. Ma quello che vedo sono legislatori che faticano a tenersi al passo con la rapida evoluzione tecnologica. Ancor peggio, stanno lavorando al buio, perché non hanno accesso ai dati per capire cosa sta accadendo su queste piattaforme. E comunque, di quale governo ci fideremmo? C'è bisogno di una risposta globale, non nazionale.
So the missing link is us. It's those people who use these technologies every day. Can we design a new infrastructure to support quality information? Well, I believe we can, and I've got a few ideas about what we might be able to actually do. So firstly, if we're serious about bringing the public into this, can we take some inspiration from Wikipedia? They've shown us what's possible. Yes, it's not perfect, but they've demonstrated that with the right structures, with a global outlook and lots and lots of transparency, you can build something that will earn the trust of most people. Because we have to find a way to tap into the collective wisdom and experience of all users. This is particularly the case for women, people of color and underrepresented groups. Because guess what? They are experts when it comes to hate and disinformation, because they have been the targets of these campaigns for so long. And over the years, they've been raising flags, and they haven't been listened to. This has got to change. So could we build a Wikipedia for trust? Could we find a way that users can actually provide insights? They could offer insights around difficult content-moderation decisions. They could provide feedback when platforms decide they want to roll out new changes.
Quindi, l'anello mancante siamo noi. È la gente che usa questa tecnologia ogni giorno. Possiamo progettare una nuova infrastruttura per sostenere l'informazione di qualità? Io penso di si, e ho delle idee su cosa potremmo veramente fare. Per prima cosa, abbiamo intenzione di coinvolgere il pubblico, possiamo farci ispirare da Wikipedia? Ci hanno dimostrato che è possibile. Certo, non è perfetta, ma ci hanno dimostrato che con la struttura giusta, una prospettiva globale e moltissima trasparenza, si può costruire qualcosa che si guadagni la fiducia della gente. Perché dobbiamo trovare il modo di attingere alla saggezza collettiva e all'esperienza di tutti gli utenti. E in modo particolare per le donne, la gente di colore e i gruppi poco rappresentati. Perché sapete una cosa? Loro sono esperti di odio e disinformazione, perché sono stati per molto tempo il bersaglio di queste campagne. Negli anni hanno lanciato l'allarme e non stati ascoltati. Questo deve cambiare. Potremmo quindi costruire una Wikipedia per la fiducia? Potremmo trovare un modo in cui gli utenti possono fornire informazioni utili? Potrebbero dare opinioni sulle difficili decisioni sulla moderazione del contenuto. Potrebbero offrire un riscontro quando le piattaforme decidono di approntare dei cambiamenti.
Second, people's experiences with the information is personalized. My Facebook news feed is very different to yours. Your YouTube recommendations are very different to mine. That makes it impossible for us to actually examine what information people are seeing. So could we imagine developing some kind of centralized open repository for anonymized data, with privacy and ethical concerns built in? Because imagine what we would learn if we built out a global network of concerned citizens who wanted to donate their social data to science. Because we actually know very little about the long-term consequences of hate and disinformation on people's attitudes and behaviors. And what we do know, most of that has been carried out in the US, despite the fact that this is a global problem. We need to work on that, too.
Secondo, l'esperienza della gente con l'informazione è personalizzata. Le notizie che mi arrivano su Facebook sono diverse dalle vostre. I vostri video consigliati su YouTube sono diversi dei miei. Questo ci rende veramente impossibile controllare che informazioni la gente vede. Quindi potremmo immaginare di sviluppare una sorta di deposito aperto e centralizzato di dati resi anonimi, con attenzione alla privacy e all'etica. Perché immaginate cosa potremmo imparare se costruissimo una rete globale di cittadini preoccupati che vogliono donare i loro dati social alla scienza. Perché sappiamo veramente molto poco delle conseguenze a lungo termine di odio e disinformazione sulla mentalità e l'atteggiamento della gente. E quello che sappiamo viene quasi tutto dagli Stati Uniti, anche se questo è un problema globale. Dobbiamo lavorare anche su questo.
And third, can we find a way to connect the dots? No one sector, let alone nonprofit, start-up or government, is going to solve this. But there are very smart people right around the world working on these challenges, from newsrooms, civil society, academia, activist groups. And you can see some of them here. Some are building out indicators of content credibility. Others are fact-checking, so that false claims, videos and images can be down-ranked by the platforms.
E terzo, possiamo trovare un modo di collegare i puntini? Nessun settore, men che meno nonprofit, start-up o un governo, risolverà questo problema. Ma si sono persone veramente in gamba nel mondo che lavorano su questi cambiamenti, dalle redazioni, alla società civile, l'università, i gruppi di attivisti. Potete vederne alcuni qui. Alcuni costruiscono indicatori di credibilità del contenuto. Altri controllano i fatti, così che le false dichiarazioni, video e immagini
A nonprofit I helped to found, First Draft, is working with normally competitive newsrooms around the world to help them build out investigative, collaborative programs. And Danny Hillis, a software architect, is designing a new system called The Underlay, which will be a record of all public statements of fact connected to their sources, so that people and algorithms can better judge what is credible. And educators around the world are testing different techniques for finding ways to make people critical of the content they consume. All of these efforts are wonderful, but they're working in silos, and many of them are woefully underfunded.
siano declassate dalle piattaforme. Una non profit che ho aiutato a fondare, First Draft, lavora con redazioni competitive in tutto il mondo per aiutarle a costruire dei programmi investigativi e collaborativi. Danny Hillis, un architetto del software, sta programmando un nuovo sistema chiamato The Underlay, che sarà un registro di tutte le dichiarazioni connesse alla loro fonte, così che la gente e gli algoritmi possano giudicare meglio ciò che è credibile. Gli educatori nel mondo stanno verificando diverse tecniche per trovare dei modi per rendere la gente critica verso ciò che consumano. Tutti questi sforzi sono meravigliosi, ma si lavora in scomparti, e tristemente molti di loro hanno pochi fondi.
There are also hundreds of very smart people working inside these companies, but again, these efforts can feel disjointed, because they're actually developing different solutions to the same problems.
Inoltre, ci sono centinaia di persone in gamba che lavorano in queste compagnie, ma anche questi sforzi sembrano scollegati, perché stanno sviluppando diverse soluzioni per lo stesso problema.
How can we find a way to bring people together in one physical location for days or weeks at a time, so they can actually tackle these problems together but from their different perspectives? So can we do this? Can we build out a coordinated, ambitious response, one that matches the scale and the complexity of the problem? I really think we can. Together, let's rebuild our information commons.
Come si può trovare il modo di riunire queste persone in un unico luogo per giorni o settimane di seguito, di modo che affrontino questi problemi assieme, ma dalle loro prospettive diverse? Siamo in grado di farlo? Possiamo mettere insieme un'ambiziosa risposta coordinata, che metta assieme la vastità e la complessità del problema? Penso veramente che si possa. Ricostruiranno assieme le basi comuni dell'informazione.
Thank you.
Grazie.
(Applause)
(Applausi)