No matter who you are or where you live, I'm guessing that you have at least one relative that likes to forward those emails. You know the ones I'm talking about -- the ones with dubious claims or conspiracy videos. And you've probably already muted them on Facebook for sharing social posts like this one.
Não importa quem seja ou onde more, eu chutaria que você tem pelo menos um parente que gosta de encaminhar aqueles e-mails. Sabem do que estou falando, aqueles com alegações duvidosas ou vídeos conspiratórios. E vocês provavelmente já não os seguem mais no Facebook por compartilhar publicações como esta.
It's an image of a banana with a strange red cross running through the center. And the text around it is warning people not to eat fruits that look like this, suggesting they've been injected with blood contaminated with the HIV virus. And the social share message above it simply says, "Please forward to save lives." Now, fact-checkers have been debunking this one for years, but it's one of those rumors that just won't die. A zombie rumor. And, of course, it's entirely false.
É uma imagem de uma banana com uma estranha cruz vermelha passando pelo centro. E o texto advertindo as pessoas a não comerem frutas que tenham essa aparência, sugerindo que foram injetadas com sangue contaminado com HIV. E a mensagem compartilhada só diz: "Compartilhe para salvar vidas." Verificadores de fatos já desmentem essa há anos, mas é um daqueles boatos que simplesmente não acabam. Um boato zumbi. E, óbvio, é completamente falso.
It might be tempting to laugh at an example like this, to say, "Well, who would believe this, anyway?" But the reason it's a zombie rumor is because it taps into people's deepest fears about their own safety and that of the people they love. And if you spend as enough time as I have looking at misinformation, you know that this is just one example of many that taps into people's deepest fears and vulnerabilities.
Pode ser tentador rir de um exemplo desses, dizer: "Bem, quem acreditaria nisso?" Mas a razão para ser um boato zumbi é que explora nossos medos mais profundos sobre a própria segurança e a das pessoas que amamos. E quando se passa tanto tempo quanto eu vendo desinformação, você sabe que esse é só um exemplo de muitos que exploram nossos medos e vulnerabilidades mais profundos.
Every day, across the world, we see scores of new memes on Instagram encouraging parents not to vaccinate their children. We see new videos on YouTube explaining that climate change is a hoax. And across all platforms, we see endless posts designed to demonize others on the basis of their race, religion or sexuality.
Todo dia, ao redor do mundo, vemos muitos novos memes no Instagram incentivando os pais a não vacinarem os filhos. Vemos novos vídeos no YouTube explicando que a mudança climática é uma farsa. E em todas as plataformas, vemos inúmeras publicações feitas para demonizar pessoas baseado em raça, religião ou sexualidade.
Welcome to one of the central challenges of our time. How can we maintain an internet with freedom of expression at the core, while also ensuring that the content that's being disseminated doesn't cause irreparable harms to our democracies, our communities and to our physical and mental well-being? Because we live in the information age, yet the central currency upon which we all depend -- information -- is no longer deemed entirely trustworthy and, at times, can appear downright dangerous. This is thanks in part to the runaway growth of social sharing platforms that allow us to scroll through, where lies and facts sit side by side, but with none of the traditional signals of trustworthiness.
Bem-vindos a um dos principais desafios do nosso tempo. Como podemos manter uma Internet com liberdade de expressão em foco, e ao mesmo tempo garantir que o conteúdo sendo disseminado não cause danos irreparáveis às nossas democracias, comunidades e nosso bem-estar físico e mental? Porque vivemos na era da informação, porém, a moeda central de que todos dependemos, informação, já não é mais considerada totalmente confiável e às vezes pode parecer completamente perigosa. Isso se dá em parte graças ao crescimento desenfreado de plataformas de compartilhamento que nos permitem ir rolando, onde mentiras e fatos estão lado a lado, mas sem nenhum dos sinais tradicionais de credibilidade.
And goodness -- our language around this is horribly muddled. People are still obsessed with the phrase "fake news," despite the fact that it's extraordinarily unhelpful and used to describe a number of things that are actually very different: lies, rumors, hoaxes, conspiracies, propaganda. And I really wish we could stop using a phrase that's been co-opted by politicians right around the world, from the left and the right, used as a weapon to attack a free and independent press.
E puxa vida! Nossa linguagem disso é horrivelmente atrapalhada. As pessoas ainda estão obcecadas com o termo "fake news", apesar do fato de ser extremamente desnecessário e usado para descrever muitas coisas que são, na verdade, bem diferentes: mentiras, boatos, farsas, conspirações, campanhas. Queria que parássemos de usar um termo que foi adotado por políticos de todo o mundo, de esquerda e de direita, usado como arma para atacar uma imprensa livre e independente.
(Applause)
(Aplausos)
Because we need our professional news media now more than ever. And besides, most of this content doesn't even masquerade as news. It's memes, videos, social posts. And most of it is not fake; it's misleading. We tend to fixate on what's true or false. But the biggest concern is actually the weaponization of context. Because the most effective disinformation has always been that which has a kernel of truth to it.
Pois precisamos dos nossos noticiários profissionais agora mais do que nunca. E além disso, a maioria desse conteúdo nem disfarça ser notícia. São memes, vídeos, publicações. E a maior parte não é falsa; é enganosa. Temos a tendência de focar o que é verdadeiro ou falso. Mas a maior preocupação é o contexto usado como arma. Porque a desinformação mais eficaz sempre foi aquela que tem uma pitada de verdade.
Let's take this example from London, from March 2017, a tweet that circulated widely in the aftermath of a terrorist incident on Westminster Bridge. This is a genuine image, not fake. The woman who appears in the photograph was interviewed afterwards, and she explained that she was utterly traumatized. She was on the phone to a loved one, and she wasn't looking at the victim out of respect. But it still was circulated widely with this Islamophobic framing, with multiple hashtags, including: #BanIslam. Now, if you worked at Twitter, what would you do? Would you take that down, or would you leave it up? My gut reaction, my emotional reaction, is to take this down. I hate the framing of this image. But freedom of expression is a human right, and if we start taking down speech that makes us feel uncomfortable, we're in trouble.
Usemos esse exemplo de Londres, de março de 2017, Um tuíte que circulou bastante na sequência de um incidente terrorista na Ponte de Westminster. Essa imagem é genuína, não falsa. A mulher que aparece na foto foi entrevistada em seguida e explicou que ficou profundamente traumatizada. Ela estava no telefone com um ente querido e não olhava para a vítima por respeito. Mas ainda assim circulou abertamente com um enquadramento islamofóbico, com diversas hashtags, incluindo: #BanIslam. E se você trabalhasse no Twitter, o que faria? Você o apagaria ou deixaria lá? Meu instinto, minha reação emocional, seria de apagar. Eu detesto o enquadramento dessa imagem. Mas liberdade de expressão é um direito humano e se começarmos a apagar discursos que nos deixam desconfortáveis, aí teremos problemas.
And this might look like a clear-cut case, but, actually, most speech isn't. These lines are incredibly difficult to draw. What's a well-meaning decision by one person is outright censorship to the next. What we now know is that this account, Texas Lone Star, was part of a wider Russian disinformation campaign, one that has since been taken down. Would that change your view? It would mine, because now it's a case of a coordinated campaign to sow discord. And for those of you who'd like to think that artificial intelligence will solve all of our problems, I think we can agree that we're a long way away from AI that's able to make sense of posts like this.
E esse pode parecer um caso nítido, mas a maioria dos discursos não é. Essa linha é incrivelmente difícil de definir. O que é uma decisão bem-intencionada de uma pessoa é censura indiscutível para a outra. O que sabemos agora é que essa conta, Texas Lone Star, foi parte de uma campanha russa mais ampla de desinformação, uma que já foi derrubada. Será que isso mudaria sua opinião? A minha sim, porque agora é o caso de uma campanha coordenada para semear discórdia. E para vocês que gostariam de pensar que a inteligência artificial resolverá todos os nossos problemas, concordemos que estamos bem longe de IA que consiga entender publicações como esta.
So I'd like to explain three interlocking issues that make this so complex and then think about some ways we can consider these challenges. First, we just don't have a rational relationship to information, we have an emotional one. It's just not true that more facts will make everything OK, because the algorithms that determine what content we see, well, they're designed to reward our emotional responses. And when we're fearful, oversimplified narratives, conspiratorial explanations and language that demonizes others is far more effective. And besides, many of these companies, their business model is attached to attention, which means these algorithms will always be skewed towards emotion.
Então eu gostaria de explicar três questões interligadas que complicam muito essa questão e pensar em algumas maneiras para considerar esses desafios. Primeiro, não temos um relacionamento racional com a informação, e sim um emocional. Não é verdade que mais fatos farão tudo ficar bem, porque os algoritmos que determinam que conteúdo nós vemos são projetados para recompensar nossa resposta emocional. E quando temos medo, narrativas simplistas, explicações conspiratórias e linguagem que demoniza os outros são muito mais eficazes. E além disso, muitas dessas empresas têm um modelo de negócios vinculado à atenção, o que significa que esses algoritmos serão sempre enviesados para o lado emocional.
Second, most of the speech I'm talking about here is legal. It would be a different matter if I was talking about child sexual abuse imagery or content that incites violence. It can be perfectly legal to post an outright lie. But people keep talking about taking down "problematic" or "harmful" content, but with no clear definition of what they mean by that, including Mark Zuckerberg, who recently called for global regulation to moderate speech. And my concern is that we're seeing governments right around the world rolling out hasty policy decisions that might actually trigger much more serious consequences when it comes to our speech. And even if we could decide which speech to take up or take down, we've never had so much speech. Every second, millions of pieces of content are uploaded by people right around the world in different languages, drawing on thousands of different cultural contexts. We've simply never had effective mechanisms to moderate speech at this scale, whether powered by humans or by technology.
Segundo, grande parte do discurso de que estou falando aqui é legal. Seria um problema diferente se eu falasse de imagens de abuso sexual infantil ou conteúdo que incite violência. Pode ser perfeitamente legal postar uma mentira descarada. As pessoas continuam falando de apagar conteúdo "problemático" ou "nocivo", mas sem definição clara do que querem dizer com isso, como Mark Zuckerberg, que recentemente reivindicou uma regulação global para moderar o discurso. E minha preocupação é estarmos vendo governos ao redor do mundo todo lançando decisões precipitadas de políticas que podem, de fato, provocar consequências muito mais sérias quando se trata do nosso discurso. E mesmo se pudéssemos decidir quais discursos publicar ou apagar, nunca tivemos tanto discurso. A cada segundo, milhões de conteúdos são publicados por pessoas do mundo todo em diferentes idiomas, recorrendo a milhares de contextos diferentes. Nunca tivemos mecanismos eficazes para moderar discurso a essa escala, seja impulsionado por humano ou por tecnologia.
And third, these companies -- Google, Twitter, Facebook, WhatsApp -- they're part of a wider information ecosystem. We like to lay all the blame at their feet, but the truth is, the mass media and elected officials can also play an equal role in amplifying rumors and conspiracies when they want to. As can we, when we mindlessly forward divisive or misleading content without trying. We're adding to the pollution.
E terceiro, essas empresas: Google, Twitter, Facebook, WhatsApp; são parte de um ecossistema de informação mais amplo. Gostamos de pôr toda a culpa nelas, mas os meios de comunicação e os representantes eleitos podem ter um papel equivalente para amplificar boatos e conspirações se quiserem. Assim como nós, quando compartilhamos cegamente conteúdo polêmico ou enganoso sem querer. Estamos criando mais poluição.
I know we're all looking for an easy fix. But there just isn't one. Any solution will have to be rolled out at a massive scale, internet scale, and yes, the platforms, they're used to operating at that level. But can and should we allow them to fix these problems? They're certainly trying. But most of us would agree that, actually, we don't want global corporations to be the guardians of truth and fairness online. And I also think the platforms would agree with that. And at the moment, they're marking their own homework. They like to tell us that the interventions they're rolling out are working, but because they write their own transparency reports, there's no way for us to independently verify what's actually happening.
Sei que todos buscamos uma solução fácil. Mas não há nenhuma. Qualquer solução teria que ser lançada numa escala massiva, escala de Internet, e sim, as plataformas estão acostumadas a operar nesse nível. Mas será que podemos e devemos permiti-las reparar esses problemas? Certamente estão tentando, mas a maioria de nós concordaria que não queremos multinacionais como guardiãs da verdade e da justiça on-line. E também acho que as plataformas concordariam. E agora elas mesmas estão determinando sua nota. Gostam de nos dizer que as intervenções que estão aplicando funcionam, mas como elas mesmas escrevem os relatórios de transparência, não conseguimos verificar o que está acontecendo de fato.
(Applause)
(Aplausos)
And let's also be clear that most of the changes we see only happen after journalists undertake an investigation and find evidence of bias or content that breaks their community guidelines. So yes, these companies have to play a really important role in this process, but they can't control it.
E sejamos claros que a maioria das mudanças que vemos só acontecem depois que jornalistas investigam e acham evidência de parcialidade ou conteúdo que viola suas diretrizes de comunidade. Então sim, essa empresas têm que ter um papel fundamental no processo, mas elas não podem controlá-lo.
So what about governments? Many people believe that global regulation is our last hope in terms of cleaning up our information ecosystem. But what I see are lawmakers who are struggling to keep up to date with the rapid changes in technology. And worse, they're working in the dark, because they don't have access to data to understand what's happening on these platforms. And anyway, which governments would we trust to do this? We need a global response, not a national one.
E que tal os governos? Muita gente acredita que regulamentação global é nossa última esperança em termos de sanear nosso ecossistema de informação. Mas o que vejo são legisladores que têm dificuldade de acompanhar as mudanças rápidas em tecnologia. E pior, estão trabalhando no escuro, porque não têm acesso aos dados para entender o que está acontecendo nessas plataformas. E afinal, a quais governos confiaríamos essas tarefas? Precisamos de uma resposta global, não nacional.
So the missing link is us. It's those people who use these technologies every day. Can we design a new infrastructure to support quality information? Well, I believe we can, and I've got a few ideas about what we might be able to actually do. So firstly, if we're serious about bringing the public into this, can we take some inspiration from Wikipedia? They've shown us what's possible. Yes, it's not perfect, but they've demonstrated that with the right structures, with a global outlook and lots and lots of transparency, you can build something that will earn the trust of most people. Because we have to find a way to tap into the collective wisdom and experience of all users. This is particularly the case for women, people of color and underrepresented groups. Because guess what? They are experts when it comes to hate and disinformation, because they have been the targets of these campaigns for so long. And over the years, they've been raising flags, and they haven't been listened to. This has got to change. So could we build a Wikipedia for trust? Could we find a way that users can actually provide insights? They could offer insights around difficult content-moderation decisions. They could provide feedback when platforms decide they want to roll out new changes.
Nós somos o elemento que falta. São aquelas pessoas que usam essas tecnologias todo dia. Será que podemos criar uma infraestrutura que reforce a qualidade da informação? Bem, acho que sim, E tenho algumas ideias do que podemos conseguir fazer. Primeiro, se quisermos mesmo envolver o público, será que conseguimos nos inspirar na Wikipedia? Eles nos mostraram o que é possível. Sim, não é perfeito, mas demonstraram que, com as estruturas corretas, com uma perspectiva global e muita transparência, dá para construir algo que mereça a confiança de muita gente. Porque é preciso achar um jeito de explorar o conhecimento coletivo e a experiência de todos os usuários. Esse é o caso particularmente para mulheres, negros e grupos sub-representados. E adivinhem por quê? Eles são especialistas em ódio e desinformação, pois já foram o alvo dessas campanhas por muito tempo. E ao longo dos anos, eles vêm alertando e nunca foram escutados. Isso tem que mudar. Será que podemos criar uma Wikipedia da credibilidade? Será que podemos encontrar um jeito dos usuários darem ideias? Podem dar ideias sobre decisões difíceis de moderação de conteúdo. Podem fornecer feedback quando as plataformas decidirem que querem aplicar novas mudanças.
Second, people's experiences with the information is personalized. My Facebook news feed is very different to yours. Your YouTube recommendations are very different to mine. That makes it impossible for us to actually examine what information people are seeing. So could we imagine developing some kind of centralized open repository for anonymized data, with privacy and ethical concerns built in? Because imagine what we would learn if we built out a global network of concerned citizens who wanted to donate their social data to science. Because we actually know very little about the long-term consequences of hate and disinformation on people's attitudes and behaviors. And what we do know, most of that has been carried out in the US, despite the fact that this is a global problem. We need to work on that, too.
Segundo, a experiência das pessoas com informação é personalizada. Minha linha do tempo no Facebook é bem diferente da sua. Suas recomendações no YouTube são bem diferentes das minhas. Isso impossibilita que analisemos quais informações as pessoas estão vendo. Será que podemos imaginar o desenvolvimento de um tipo de repositório aberto e centralizado para dados anonimizados, com questões éticas e de privacidade integradas? Pois imaginem o que descobriríamos se construíssemos uma rede global de cidadãos interessados que quisessem doar dados sociais para a ciência. Porque sabemos mesmo muito pouco sobre as consequências de longo prazo do ódio e da desinformação nas atitudes e comportamento das pessoas. E o que de fato sabemos, quase tudo foi elaborado nos EUA, apesar de esse ser um problema global. Temos que trabalhar nisso também.
And third, can we find a way to connect the dots? No one sector, let alone nonprofit, start-up or government, is going to solve this. But there are very smart people right around the world working on these challenges, from newsrooms, civil society, academia, activist groups. And you can see some of them here. Some are building out indicators of content credibility. Others are fact-checking, so that false claims, videos and images can be down-ranked by the platforms.
E terceiro, será que encontramos um jeito de ligar os pontos? Nenhum setor, especialmente o não-lucrativo, start-ups ou governos, vai resolver isso sozinho. Mas há pessoas muito inteligentes no mundo todo todo trabalhando nesses desafios, de salas de imprensa, sociedade civil, meio acadêmico, grupos ativistas. E podem ver alguns aqui. Alguns estão criando indicadores de credibilidade de conteúdo. Outros verificam fatos, para que declarações, vídeo e imagens falsas sejam ofuscados pelas plataformas.
A nonprofit I helped to found, First Draft, is working with normally competitive newsrooms around the world to help them build out investigative, collaborative programs. And Danny Hillis, a software architect, is designing a new system called The Underlay, which will be a record of all public statements of fact connected to their sources, so that people and algorithms can better judge what is credible. And educators around the world are testing different techniques for finding ways to make people critical of the content they consume. All of these efforts are wonderful, but they're working in silos, and many of them are woefully underfunded.
Uma não-lucrativa que ajudei a fundar, a First Draft, está trabalhando com salas de imprensa em todo o mundo para ajudar a construir programas investigativos e colaborativos. E Danny Hills, um arquiteto de software, está projetando um novo sistema chamado "The Underlay", que será um arquivo de todas as constatações públicas conectadas às suas fontes, para que as pessoas e os algoritmos possam julgar melhor o que é confiável. E educadores de todo o mundo estão testando técnicas diferentes de fazer com que as pessoas sejam mais críticas do conteúdo que consomem. Todo esse trabalho é maravilhoso, mas estão trabalhando isoladamente e muitos não têm financiamento suficiente.
There are also hundreds of very smart people working inside these companies, but again, these efforts can feel disjointed, because they're actually developing different solutions to the same problems.
Há também centenas de pessoas muito inteligentes trabalhando nessas empresas, mas esses esforços parecem desconexos, porque estão desenvolvendo soluções diferentes para o mesmo problema.
How can we find a way to bring people together in one physical location for days or weeks at a time, so they can actually tackle these problems together but from their different perspectives? So can we do this? Can we build out a coordinated, ambitious response, one that matches the scale and the complexity of the problem? I really think we can. Together, let's rebuild our information commons.
Como podemos encontrar um jeito de aproximar as pessoas em um local físico por dias ou semanas, para que possam abordar esses problemas em conjunto, mas de diferentes perspectivas? Então, será que conseguimos? Conseguimos criar uma resposta coordenada e ambiciosa, que se adeque à escala e à complexidade do problema? Eu acho mesmo que sim. Juntos vamos reconstruir nosso acervo de informações.
Thank you.
Obrigada.
(Applause)
(Aplausos)