No matter who you are or where you live, I'm guessing that you have at least one relative that likes to forward those emails. You know the ones I'm talking about -- the ones with dubious claims or conspiracy videos. And you've probably already muted them on Facebook for sharing social posts like this one.
Quem quer que sejam ou onde quer que morem, aposto que vocês têm, pelo menos um parente que gosta de encaminhar aqueles "e-mails" — vocês sabem de quais estou a falar — aqueles com afirmações duvidosas ou vídeos sobre conspirações. Vocês provavelmente já os calaram no Facebook, por partilharem "posts" sociais como este:
It's an image of a banana with a strange red cross running through the center. And the text around it is warning people not to eat fruits that look like this, suggesting they've been injected with blood contaminated with the HIV virus. And the social share message above it simply says, "Please forward to save lives." Now, fact-checkers have been debunking this one for years, but it's one of those rumors that just won't die. A zombie rumor. And, of course, it's entirely false.
É a imagem de uma banana com uma estranha cruz vermelha passando pelo centro. O texto está a avisar as pessoas para não comerem frutas parecidas com aquela, sugerindo que lhes injetaram sangue contaminado com VIH. A mensagem, por cima, diz simplesmente: "Por favor, encaminhe para salvar vidas." Os verificadores de factos vêm desmistificando isto há anos. Mas este é um daqueles rumores que não morrem. Um rumor sobre zombies. E, claro, é inteiramente falso.
It might be tempting to laugh at an example like this, to say, "Well, who would believe this, anyway?" But the reason it's a zombie rumor is because it taps into people's deepest fears about their own safety and that of the people they love. And if you spend as enough time as I have looking at misinformation, you know that this is just one example of many that taps into people's deepest fears and vulnerabilities.
Pode ser tentador rir de um exemplo como este, e dizer: "Bom, afinal quem acredita nisto?" Mas é um rumor sobre zombies que atinge o medo mais profundo das pessoas, sobre a sua segurança e a das pessoas que amam. Se vocês gastam tanto tempo como eu a procurar informações falsas, sabem que este é apenas um exemplo entre muitos que atingem o medo mais profundo e a vulnerabilidade das pessoas.
Every day, across the world, we see scores of new memes on Instagram encouraging parents not to vaccinate their children. We see new videos on YouTube explaining that climate change is a hoax. And across all platforms, we see endless posts designed to demonize others on the basis of their race, religion or sexuality.
Todos os dias, no mundo inteiro, vemos novos memes no Instagram, a encorajar os pais a não vacinarem os filhos. Vemos novos vídeos no YouTube a explicar que a alteração climática é uma fraude. Em todas as plataformas, vemos inúmeros "posts" concebidos para demonizar outras pessoas segundo a sua etnia, a sua religião ou a sua sexualidade.
Welcome to one of the central challenges of our time. How can we maintain an internet with freedom of expression at the core, while also ensuring that the content that's being disseminated doesn't cause irreparable harms to our democracies, our communities and to our physical and mental well-being? Because we live in the information age, yet the central currency upon which we all depend -- information -- is no longer deemed entirely trustworthy and, at times, can appear downright dangerous. This is thanks in part to the runaway growth of social sharing platforms that allow us to scroll through, where lies and facts sit side by side, but with none of the traditional signals of trustworthiness.
Bem-vindos a um dos problemas centrais do nosso tempo. Como conseguiremos manter uma Internet com liberdade de expressão enquanto também asseguramos que o conteúdo disseminado não cause irreversíveis danos nas nossas democracias, nas nossas comunidades e no nosso bem-estar físico e mental? Porque vivemos na era da informação, Porém, a moeda central de que todos dependemos — a informação — já não é considerada totalmente fiável. E, às vezes, pode ser francamente perigosa. Isto é graças, em parte, ao crescimento das plataformas de partilha social que podemos percorrer, onde mentiras e factos estão lado a lado, mas sem nenhum dos tradicionais sinais de credibilidade.
And goodness -- our language around this is horribly muddled. People are still obsessed with the phrase "fake news," despite the fact that it's extraordinarily unhelpful and used to describe a number of things that are actually very different: lies, rumors, hoaxes, conspiracies, propaganda. And I really wish we could stop using a phrase that's been co-opted by politicians right around the world, from the left and the right, used as a weapon to attack a free and independent press.
E bem... a nossa linguagem em volta disto é horrivelmente confusa. As pessoas continuam obcecadas pela expressão "fake news", apesar do facto de ela ser extraordinariamente inútil e de ser usada para descrever coisas que são muito diferentes: Mentiras, boatos, fraudes, conspirações, propaganda. Eu espero que nós possamos deixar de usar uma expressão que foi adotada por políticos do mundo inteiro, da esquerda até à direita, tem sido usada como arma para atacar uma imprensa livre e independente,
(Applause)
(Aplausos)
Because we need our professional news media now more than ever. And besides, most of this content doesn't even masquerade as news. It's memes, videos, social posts. And most of it is not fake; it's misleading. We tend to fixate on what's true or false. But the biggest concern is actually the weaponization of context. Because the most effective disinformation has always been that which has a kernel of truth to it.
Precisamos dos "media" profissionais agora mais do que nunca. Além disso, na maioria, estes conteúdos nem vêm mascarados como notícias. São memes, vídeos, "posts" sociais. A maioria deles não são falsos, são enganadores. Nós tendemos a fixar-nos no que é verdadeiro ou falso. Mas a maior preocupação é fazer do contexto uma arma. Porque a desinformação mais eficaz sempre foi aquela que contém uma parte de verdade.
Let's take this example from London, from March 2017, a tweet that circulated widely in the aftermath of a terrorist incident on Westminster Bridge. This is a genuine image, not fake. The woman who appears in the photograph was interviewed afterwards, and she explained that she was utterly traumatized. She was on the phone to a loved one, and she wasn't looking at the victim out of respect. But it still was circulated widely with this Islamophobic framing, with multiple hashtags, including: #BanIslam. Now, if you worked at Twitter, what would you do? Would you take that down, or would you leave it up? My gut reaction, my emotional reaction, is to take this down. I hate the framing of this image. But freedom of expression is a human right, and if we start taking down speech that makes us feel uncomfortable, we're in trouble.
Vamos ver este exemplo, de Londres, de março de 2017. Um "tweet" que circulou amplamente na sequência de um incidente terrorista na ponte de Westminster. Esta é uma imagem real, não é falsa. A mulher que aparece na fotografia foi entrevistada depois e explicou que estava totalmente traumatizada. Estava a falar ao telemóvel com um ente querido e não estava a olhar para a vítima, por respeito. Mesmo assim, circulou amplamente retratado como islamofobia, com múltiplas "hashtags", incluindo: #BanIslam. Se vocês trabalhassem no Twitter, o que é que fariam? Eliminavam-no ou deixavam-no? A minha reação intuitiva, emocional, é eliminar. Odeio o enquadramento desta imagem. Mas a liberdade de expressão é um direito dos homens, E se começarmos a eliminar discursos que nos deixam desconfortáveis, vamos arranjar problemas.
And this might look like a clear-cut case, but, actually, most speech isn't. These lines are incredibly difficult to draw. What's a well-meaning decision by one person is outright censorship to the next. What we now know is that this account, Texas Lone Star, was part of a wider Russian disinformation campaign, one that has since been taken down. Would that change your view? It would mine, because now it's a case of a coordinated campaign to sow discord. And for those of you who'd like to think that artificial intelligence will solve all of our problems, I think we can agree that we're a long way away from AI that's able to make sense of posts like this.
Este pode parecer um caso claro, mas a maioria não é assim. Estas linhas são extremamente difíceis de traçar. O que é uma decisão bem intencionada de uma pessoa é pura censura para outra. Sabemos agora que esta conta, Texas Lone Star, fez parte de uma ampla campanha de desinformação russa, uma que, a partir daí, foi eliminada. Isso mudaria a vossa opinião? Mudou a minha, Porque agora é um caso de uma campanha coordenada para semear a discórdia. Para quem goste de pensar que a inteligência artificial vai resolver os nossos problemas, eu acho que podemos concordar que estamos muito longe de uma IA que consiga interpretar "posts" como este.
So I'd like to explain three interlocking issues that make this so complex and then think about some ways we can consider these challenges. First, we just don't have a rational relationship to information, we have an emotional one. It's just not true that more facts will make everything OK, because the algorithms that determine what content we see, well, they're designed to reward our emotional responses. And when we're fearful, oversimplified narratives, conspiratorial explanations and language that demonizes others is far more effective. And besides, many of these companies, their business model is attached to attention, which means these algorithms will always be skewed towards emotion.
Gostava de explicar três problemas interligados que tornam isto muito complexo e depois pensar nalgumas formas de considerar esses problemas. Primeiro, não temos uma relação racional com a informação, temos uma relação emocional. Não é verdade que mais factos façam tudo ficar Ok, porque os algoritmos que determinam os conteúdos que vemos são concebidos para recompensar as nossas reações emocionais. Quando estamos com medo, as narrativas simplificadas, as explicações conspiratórias e uma linguagem que demoniza outras pessoas são muito mais eficazes. Além disso, em muitas destas empresas, os modelos de negócios estão ligados à atenção. Ou seja, estes algoritmos serão sempre virados para as emoções.
Second, most of the speech I'm talking about here is legal. It would be a different matter if I was talking about child sexual abuse imagery or content that incites violence. It can be perfectly legal to post an outright lie. But people keep talking about taking down "problematic" or "harmful" content, but with no clear definition of what they mean by that, including Mark Zuckerberg, who recently called for global regulation to moderate speech. And my concern is that we're seeing governments right around the world rolling out hasty policy decisions that might actually trigger much more serious consequences when it comes to our speech. And even if we could decide which speech to take up or take down, we've never had so much speech. Every second, millions of pieces of content are uploaded by people right around the world in different languages, drawing on thousands of different cultural contexts. We've simply never had effective mechanisms to moderate speech at this scale, whether powered by humans or by technology.
Segundo, a maioria dos discursos de que estou a falar, é legal. Seria uma questão diferente se falasse de imagens de abuso sexual infantil ou de conteúdos que incitam à violência. É perfeitamente legal publicar uma mentira descarada. Mas continuamos a falar de eliminar conteúdos problemáticos ou prejudiciais, sem uma clara definição do que queremos dizer com isso, incluindo Mark Zuckerberg que pediu uma regulamentação mundial para moderar o discurso. A minha preocupação é que vemos governos pelo mundo inteiro a tomar decisões políticas precipitadas que podem desencadear consequências muito mais graves quando se trata do nosso discurso. E mesmo que pudéssemos decidir qual o discurso a manter ou a eliminar, nunca tivemos tantos discursos. A cada segundo, milhões de peças de conteúdos são descarregadas no mundo inteiro, em idiomas diferentes, com milhares de diferentes contextos culturais. Nós nunca tivemos mecanismos eficazes para moderar discursos a esta escala, sejam feitos por seres humanos ou por tecnologia.
And third, these companies -- Google, Twitter, Facebook, WhatsApp -- they're part of a wider information ecosystem. We like to lay all the blame at their feet, but the truth is, the mass media and elected officials can also play an equal role in amplifying rumors and conspiracies when they want to. As can we, when we mindlessly forward divisive or misleading content without trying. We're adding to the pollution.
E terceiro, essas empresas — a Google, o Twitter, o Facebook, o Whatsapp — fazem parte de um ecossistema mais amplo de informações. Nós gostamos de lhes atribuir todas as culpas, mas os "media" de massas e os funcionários eleitos também ampliam rumores e conspirações, quando querem. Tal como nós, quando encaminhamos, sem pensar, conteúdos facciosos ou enganadores, sem os testarmos. Estamos a contribuir para a poluição.
I know we're all looking for an easy fix. But there just isn't one. Any solution will have to be rolled out at a massive scale, internet scale, and yes, the platforms, they're used to operating at that level. But can and should we allow them to fix these problems? They're certainly trying. But most of us would agree that, actually, we don't want global corporations to be the guardians of truth and fairness online. And I also think the platforms would agree with that. And at the moment, they're marking their own homework. They like to tell us that the interventions they're rolling out are working, but because they write their own transparency reports, there's no way for us to independently verify what's actually happening.
Eu sei que todos procuramos um remédio fácil. Mas não há nenhum. Qualquer solução terá de ser desenvolvida a uma escala enorme, à escala da Internet, E sim, as plataformas estão acostumadas a trabalhar a esse nível. Mas podemos ou devemos deixar que elas resolvam estes problemas? Certamente estão a tentar mas muitos de nós concordará que não queremos empresas globais que sejam guardiãs da verdade e da justiça "online". Também acho que as plataformas concordarão com isso. Neste momento, elas estão a fazer o seu trabalho. Elas gostam de nos dizer que as intervenções que implementam, estão a funcionar mas, como são eles que escrevem os seus relatórios, não há maneira de verificarmos, independentemente, o que acontece.
(Applause)
(Aplausos)
And let's also be clear that most of the changes we see only happen after journalists undertake an investigation and find evidence of bias or content that breaks their community guidelines. So yes, these companies have to play a really important role in this process, but they can't control it.
E sejamos claros, a maioria das mudanças que vemos somente acontece depois de os jornalistas investigarem e encontrarem provas de preconceitos ou conteúdos que violam as orientações da comunidade. Estas empresas têm de desempenhar um papel importante neste processo mas não podem controlá-lo.
So what about governments? Many people believe that global regulation is our last hope in terms of cleaning up our information ecosystem. But what I see are lawmakers who are struggling to keep up to date with the rapid changes in technology. And worse, they're working in the dark, because they don't have access to data to understand what's happening on these platforms. And anyway, which governments would we trust to do this? We need a global response, not a national one.
Então e os governos? Muitos acreditam que a regulamentação global é a nossa última esperança em termos de limpar o nosso ecossistema de informações. Mas só vejo legisladores a lutar para se manterem atualizados com as rápidas mudanças na tecnologia. E pior, estão a trabalhar no escuro, porque não têm acesso aos dados para perceberem o que está a acontecer nessas plataformas. De qualquer modo, em que governos confiaríamos para fazer isso? Precisamos de uma resposta mundial, não uma resposta nacional.
So the missing link is us. It's those people who use these technologies every day. Can we design a new infrastructure to support quality information? Well, I believe we can, and I've got a few ideas about what we might be able to actually do. So firstly, if we're serious about bringing the public into this, can we take some inspiration from Wikipedia? They've shown us what's possible. Yes, it's not perfect, but they've demonstrated that with the right structures, with a global outlook and lots and lots of transparency, you can build something that will earn the trust of most people. Because we have to find a way to tap into the collective wisdom and experience of all users. This is particularly the case for women, people of color and underrepresented groups. Because guess what? They are experts when it comes to hate and disinformation, because they have been the targets of these campaigns for so long. And over the years, they've been raising flags, and they haven't been listened to. This has got to change. So could we build a Wikipedia for trust? Could we find a way that users can actually provide insights? They could offer insights around difficult content-moderation decisions. They could provide feedback when platforms decide they want to roll out new changes.
Portanto, a ligação em falta somos nós. são as pessoas que usam as tecnologias todos os dias. Podemos conceber uma nova infraestrutura para suportar informações de qualidade? Eu acredito que sim e tenho algumas ideias sobre o que podemos fazer. Primeiro, se quisermos mesmo que o público participe nisto, podemos tirar alguma inspiração da Wikipedia? Eles mostraram-nos o que é possível. Sim, não é perfeito, Mas demonstraram que, com as estruturas certas, com uma perspetiva global, e muito mais transparência, podemos construir algo que ganhe a confiança da maioria. Porque temos de achar uma forma de explorar a sabedoria coletiva e a experiência de todos os utilizadores. Isso é especialmente o caso das mulheres, das pessoas de cor, dos grupos mal representados. Sabem que mais? Eles são especialistas quando se fala de ódio e desinformação, porque têm sido o alvo dessas campanhas há muito tempo. Ao longo dos anos, ergueram as suas bandeiras mas não têm sido escutados. Isto tem de mudar. Então podemos construir uma Wikipedia para a confiança? Haverá uma forma de os utilizadores contribuírem com ideias? Podem contribuir com ideias sobre difíceis decisões para moderação de conteúdos. Podem fornecer "feedback" quando as plataformas decidirem querer lançar novas mudanças.
Second, people's experiences with the information is personalized. My Facebook news feed is very different to yours. Your YouTube recommendations are very different to mine. That makes it impossible for us to actually examine what information people are seeing. So could we imagine developing some kind of centralized open repository for anonymized data, with privacy and ethical concerns built in? Because imagine what we would learn if we built out a global network of concerned citizens who wanted to donate their social data to science. Because we actually know very little about the long-term consequences of hate and disinformation on people's attitudes and behaviors. And what we do know, most of that has been carried out in the US, despite the fact that this is a global problem. We need to work on that, too.
Segundo, as experiências das pessoas com a informação são personalizadas. O meu "feed" de notícias do Facebook é diferente do vosso. As vossas recomendações do YouTube são diferentes das minhas. Isso impossibilita-nos de examinar que informações é que as pessoas estão a ver. Então, podemos imaginar desenvolver algum tipo de repositório aberto centralizado para dados anónimos, com privacidade e preocupações éticas nele incluídas? Porque imaginem o que aprenderíamos se construíssemos uma rede global de cidadãos preocupados que quisessem doar os seus dados sociais para a ciência. Porque nós sabemos muito pouco sobre as consequências a longo prazo do ódio e da desinformação nas atitudes e comportamentos das pessoas. E a maior parte do que sabemos, tem sido realizada nos EUA, apesar do facto de ser um problema mundial. Precisamos de trabalhar nisto também.
And third, can we find a way to connect the dots? No one sector, let alone nonprofit, start-up or government, is going to solve this. But there are very smart people right around the world working on these challenges, from newsrooms, civil society, academia, activist groups. And you can see some of them here. Some are building out indicators of content credibility. Others are fact-checking, so that false claims, videos and images can be down-ranked by the platforms.
E terceiro, podemos achar uma forma de juntar os pontos? Nenhum setor, muito menos o não-lucrativo, as "startups" ou os governos, vão solucionar isto. Mas há pessoas muito inteligentes em todo o mundo a trabalhar nestes problemas, nas salas de imprensa, na sociedade civil, na academia, em grupos de ativistas. Podemos ver alguns deles aqui. Alguns estão a criar indicadores de credibilidade de conteúdos. Outros, verificam factos, para retirar das plataformas as afirmações, os vídeos e as imagens falsas.
A nonprofit I helped to found, First Draft, is working with normally competitive newsrooms around the world to help them build out investigative, collaborative programs. And Danny Hillis, a software architect, is designing a new system called The Underlay, which will be a record of all public statements of fact connected to their sources, so that people and algorithms can better judge what is credible. And educators around the world are testing different techniques for finding ways to make people critical of the content they consume. All of these efforts are wonderful, but they're working in silos, and many of them are woefully underfunded.
A First Draft, uma organização sem fins lucrativos, está a trabalhar com redações competitivas do mundo inteiro, para as ajudar a criar programas investigativos e colaborativos. Danny Hills, uma arquiteta de "software" está a conceber um novo sistema, chamado The Underlay que vai ser um registo das declarações públicas de factos relacionados com as suas fontes, para as pessoas e os algoritmos avaliarem melhor o que é credível. Educadores do mundo inteiro estão a testar diferentes técnicas para encontrar maneiras de ensinar as pessoas a serem críticas dos conteúdos que consomem. Todos estes esforços são ótimos, mas estão a trabalhar isoladamente. Muitos deles, infelizmente, têm falta de fundos.
There are also hundreds of very smart people working inside these companies, but again, these efforts can feel disjointed, because they're actually developing different solutions to the same problems.
Também há centenas de pessoas muito inteligentes a trabalhar nestas empresas, mas, de novo, estes esforços podem parecer desligados, pois estão a desenvolver diferentes soluções para os mesmos problemas.
How can we find a way to bring people together in one physical location for days or weeks at a time, so they can actually tackle these problems together but from their different perspectives? So can we do this? Can we build out a coordinated, ambitious response, one that matches the scale and the complexity of the problem? I really think we can. Together, let's rebuild our information commons.
Como podemos achar uma forma de reunir as pessoas num local físico, durante dias ou semanas, ao mesmo tempo, para eles poderem abordar estes problemas juntos mas segundo as suas diferentes perspetivas? Então, podemos fazer isto? Podemos construir uma resposta coordenada e ambiciosa? Uma resposta que iguale a escala e a complexidade do problema? Acho que podemos. Juntos, vamos reconstruir as nossas informações comuns.
Thank you.
Obrigada.
(Applause)
(Aplausos)