No matter who you are or where you live, I'm guessing that you have at least one relative that likes to forward those emails. You know the ones I'm talking about -- the ones with dubious claims or conspiracy videos. And you've probably already muted them on Facebook for sharing social posts like this one.
No importa quiénes son o dónde viven, supongo que tienen al menos un pariente al que le gusta reenviar esos correos electrónicos. Ya saben de los que estoy hablando... los que tienen reclamos dudosos o videos de conspiración. Y probablemente ya los han silenciado en Facebook por compartir publicaciones sociales como esta.
It's an image of a banana with a strange red cross running through the center. And the text around it is warning people not to eat fruits that look like this, suggesting they've been injected with blood contaminated with the HIV virus. And the social share message above it simply says, "Please forward to save lives." Now, fact-checkers have been debunking this one for years, but it's one of those rumors that just won't die. A zombie rumor. And, of course, it's entirely false.
Es una imagen de un plátano con una extraña cruz roja corriendo por el centro. Y el texto a su alrededor advierte a las personas de no comer frutas que se vean así, sugiriendo que han sido inyectadas con sangre contaminada con el virus del VIH. Y el mensaje social compartido arriba simplemente dice: "Por favor, reenvíe para salvar vidas". Los verificadores de hechos han desacreditado esto durante años, pero es uno de esos rumores que simplemente no morirán. Un rumor zombie. Y, por supuesto, es completamente falso.
It might be tempting to laugh at an example like this, to say, "Well, who would believe this, anyway?" But the reason it's a zombie rumor is because it taps into people's deepest fears about their own safety and that of the people they love. And if you spend as enough time as I have looking at misinformation, you know that this is just one example of many that taps into people's deepest fears and vulnerabilities.
Puede ser tentador reírse de un ejemplo como este, decir: "Bueno, ¿quién creería esto, de todos modos?". Pero es un rumor zombie porque aprovecha los temores más profundos de las personas sobre su propia seguridad y la de las personas que aman. Y si pasan tanto tiempo como yo mirando información engañosa, saben que este es solo un ejemplo de muchos que se aprovechan de los temores y vulnerabilidades más profundos de las personas.
Every day, across the world, we see scores of new memes on Instagram encouraging parents not to vaccinate their children. We see new videos on YouTube explaining that climate change is a hoax. And across all platforms, we see endless posts designed to demonize others on the basis of their race, religion or sexuality.
Todos los días, en todo el mundo, vemos decenas de nuevos memes en Instagram alentando a los padres a no vacunar a sus hijos. Vemos nuevos videos en YouTube que dicen que el cambio climático es un engaño. Y en todas las plataformas, vemos un sinfín de publicaciones diseñadas para demonizar a los demás. sobre la base de su raza, religión o sexualidad.
Welcome to one of the central challenges of our time. How can we maintain an internet with freedom of expression at the core, while also ensuring that the content that's being disseminated doesn't cause irreparable harms to our democracies, our communities and to our physical and mental well-being? Because we live in the information age, yet the central currency upon which we all depend -- information -- is no longer deemed entirely trustworthy and, at times, can appear downright dangerous. This is thanks in part to the runaway growth of social sharing platforms that allow us to scroll through, where lies and facts sit side by side, but with none of the traditional signals of trustworthiness.
Bienvenidos a uno de los desafíos centrales de nuestro tiempo. ¿Cómo mantener un Internet con libertad de expresión en el núcleo, a la vez de asegurar de que el contenido que se difunde no causa daños irreparables a nuestras democracias, nuestras comunidades y a nuestro bienestar físico y mental? Porque vivimos en la era de la información, todavía la moneda central de la que todos dependemos, información, ya no se considera totalmente confiable y, a veces, puede parecer francamente peligrosa. Esto se debe en parte al crecimiento desbocado de las plataformas de intercambio social. que nos permiten ir allá donde mentiras y hechos se sientan juntos, pero sin ninguna de las señales tradicionales de confiabilidad.
And goodness -- our language around this is horribly muddled. People are still obsessed with the phrase "fake news," despite the fact that it's extraordinarily unhelpful and used to describe a number of things that are actually very different: lies, rumors, hoaxes, conspiracies, propaganda. And I really wish we could stop using a phrase that's been co-opted by politicians right around the world, from the left and the right, used as a weapon to attack a free and independent press.
Y Dios, nuestro lenguaje en torno a esto está terriblemente confuso. La gente todavía está obsesionada con la frase "noticias falsas" a pesar del hecho de que es extraordinariamente inútil y solía describir una serie de cosas que en realidad son muy diferentes: mentiras, rumores, engaños, conspiraciones, propaganda. Realmente quiero que podamos dejar de usar una frase que ha sido cooptada por políticos de todo el mundo, de izquierda a derecha utilizada como arma para atacar a una prensa libre e independiente.
(Applause)
(Aplausos)
Because we need our professional news media now more than ever. And besides, most of this content doesn't even masquerade as news. It's memes, videos, social posts. And most of it is not fake; it's misleading. We tend to fixate on what's true or false. But the biggest concern is actually the weaponization of context. Because the most effective disinformation has always been that which has a kernel of truth to it.
Porque necesitamos nuestros medios profesionales ahora más que nunca. Además, la mayor parte de este contenido ni siquiera se disfraza de noticia. Son memes, videos, publicaciones sociales. Y la mayor parte no es falsa; es engañosa. Tendemos a fijarnos en lo que es verdadero o falso. Pero la mayor preocupación es en realidad la armamentización del contexto. Porque la desinformación más efectiva siempre ha sido la que tiene un núcleo de verdad.
Let's take this example from London, from March 2017, a tweet that circulated widely in the aftermath of a terrorist incident on Westminster Bridge. This is a genuine image, not fake. The woman who appears in the photograph was interviewed afterwards, and she explained that she was utterly traumatized. She was on the phone to a loved one, and she wasn't looking at the victim out of respect. But it still was circulated widely with this Islamophobic framing, with multiple hashtags, including: #BanIslam. Now, if you worked at Twitter, what would you do? Would you take that down, or would you leave it up? My gut reaction, my emotional reaction, is to take this down. I hate the framing of this image. But freedom of expression is a human right, and if we start taking down speech that makes us feel uncomfortable, we're in trouble.
Tomemos este ejemplo de Londres, de marzo de 2017, un tuit que circuló ampliamente tras un incidente terrorista en el puente de Westminster. Esta es una imagen genuina, no falsa. La mujer que aparece en la fotografía fue entrevistada después, y explicó que estaba completamente traumatizada. Hablaba por teléfono con un ser querido, y no miraba a la víctima por respeto. Pero aún circulaba ampliamente con este marco islamofóbico, con múltiples etiquetas, que incluyen: #BanIslam Ahora, si trabajaran en Twitter, ¿qué harían? ¿Lo quitarían o lo dejarían? Mi reacción intestinal, mi reacción emocional, es bajar esto. Odio el encuadre de esta imagen. Pero la libertad de expresión es un derecho humano, y si comenzamos a hablar mal de lo que nos hace sentir incómodos, tenemos un problema.
And this might look like a clear-cut case, but, actually, most speech isn't. These lines are incredibly difficult to draw. What's a well-meaning decision by one person is outright censorship to the next. What we now know is that this account, Texas Lone Star, was part of a wider Russian disinformation campaign, one that has since been taken down. Would that change your view? It would mine, because now it's a case of a coordinated campaign to sow discord. And for those of you who'd like to think that artificial intelligence will solve all of our problems, I think we can agree that we're a long way away from AI that's able to make sense of posts like this.
Y esto podría parecer un caso claro, pero, en realidad, la mayoría no lo son. Estas líneas son increíblemente difíciles de trazar. Lo qué es una decisión bien intencionada para uno es una censura absoluta para la siguiente. Lo que ahora sabemos es que esta cuenta, Texas Lone Star, fue parte de una campaña de desinformación rusa más amplia, una que desde entonces ha sido eliminada. ¿Eso cambiaría su punto de vista? Cambiaría el mío, porque ahora se trata de una campaña coordinada para sembrar discordia. Y para quienes les gustaría pensar que la IA resolverá todos nuestros problemas, creo que estaremos de acuerdo que estamos muy lejos de que la IA pueda dar sentido a publicaciones como esta.
So I'd like to explain three interlocking issues that make this so complex and then think about some ways we can consider these challenges. First, we just don't have a rational relationship to information, we have an emotional one. It's just not true that more facts will make everything OK, because the algorithms that determine what content we see, well, they're designed to reward our emotional responses. And when we're fearful, oversimplified narratives, conspiratorial explanations and language that demonizes others is far more effective. And besides, many of these companies, their business model is attached to attention, which means these algorithms will always be skewed towards emotion.
Así que me gustaría explicar tres problemas entrelazados que hacen que esto sea tan complejo y que luego piensen en formas para abordar estos desafíos. Primero, simplemente no tenemos una relación racional con la información, Tenemos una emocional. Simplemente, no es cierto que más hechos harán que todo esté bien, porque los algoritmos que determinan qué contenido vemos están diseñados para recompensar nuestras respuestas emocionales. Y cuando tenemos miedo, narraciones demasiado simplificadas, explicaciones conspirativas y el lenguaje que demoniza a los demás es mucho más efectivo. Y además, muchas de estas empresas, su modelo de negocio está unido a la atención, lo que significa que estos algoritmos estarán sesgados hacia la emoción.
Second, most of the speech I'm talking about here is legal. It would be a different matter if I was talking about child sexual abuse imagery or content that incites violence. It can be perfectly legal to post an outright lie. But people keep talking about taking down "problematic" or "harmful" content, but with no clear definition of what they mean by that, including Mark Zuckerberg, who recently called for global regulation to moderate speech. And my concern is that we're seeing governments right around the world rolling out hasty policy decisions that might actually trigger much more serious consequences when it comes to our speech. And even if we could decide which speech to take up or take down, we've never had so much speech. Every second, millions of pieces of content are uploaded by people right around the world in different languages, drawing on thousands of different cultural contexts. We've simply never had effective mechanisms to moderate speech at this scale, whether powered by humans or by technology.
Segundo, la mayor parte del discurso del que estoy hablando aquí es legal. Seria un asunto diferente si hablara de imágenes de abuso sexual infantil o contenido que incita a la violencia. Puede ser perfectamente legal publicar una mentira absoluta. Pero la gente sigue hablando de eliminar contenido "problemático" o "dañino", pero sin una definición clara de lo que quieren decir, incluyendo a Mark Zuckerberg, quien recientemente pidió una regulación global para moderar el habla. Y mi preocupación es que vemos gobiernos en todo el mundo implementar decisiones políticas apresuradas que podrían desencadenar consecuencias mucho más graves cuando se trata de nuestra charla. E incluso si pudiéramos decidir qué charla dejar o eliminar. Nunca hemos tenido tantas charlas. Cada segundo, se suben millones de piezas de contenido de personas de todo el mundo en diferentes idiomas aprovechando miles de diferentes contextos culturales. Simplemente nunca hemos tenido mecanismos efectivos para moderar la libre expresión a esta escala, ya sea impulsada por humanos o por tecnología.
And third, these companies -- Google, Twitter, Facebook, WhatsApp -- they're part of a wider information ecosystem. We like to lay all the blame at their feet, but the truth is, the mass media and elected officials can also play an equal role in amplifying rumors and conspiracies when they want to. As can we, when we mindlessly forward divisive or misleading content without trying. We're adding to the pollution.
Y en tercer lugar, estas empresas (Google, Twitter, Facebook, WhatsApp) son parte de un ecosistema de información más amplio. Nos gusta echarles toda la culpa a ellos, pero la verdad es que los medios y los funcionarios electos también pueden desempeñar un papel igual en amplificar rumores y conspiraciones cuando quieren. Como podemos nosotros, al reenviar sin pensar contenido divisivorio o engañoso sin estar seguros. Estamos agregando más a esa contaminación.
I know we're all looking for an easy fix. But there just isn't one. Any solution will have to be rolled out at a massive scale, internet scale, and yes, the platforms, they're used to operating at that level. But can and should we allow them to fix these problems? They're certainly trying. But most of us would agree that, actually, we don't want global corporations to be the guardians of truth and fairness online. And I also think the platforms would agree with that. And at the moment, they're marking their own homework. They like to tell us that the interventions they're rolling out are working, but because they write their own transparency reports, there's no way for us to independently verify what's actually happening.
Sé que todos estamos buscando una solución fácil. Pero simplemente no la hay. Cualquier solución tendrá que implementarse a gran escala, escala de Internet, y sí, las plataformas, están acostumbradas a operar a ese nivel. pero ¿podemos y debemos permitirles que solucionen estos problemas? Ciertamente lo están intentando. Estamos de acuerdo en que no queremos que sean las corporaciones globales las guardianas de la verdad y equidad en línea. Y también creo que las plataformas estarían de acuerdo con eso. Y en este momento, están marcando su propia tarea. Les gusta decirnos que las intervenciones que están implementando funcionan, pero como hacen sus propios informes de transparencia, no se puede verificar independientemente lo que realmente está sucediendo.
(Applause)
(Aplausos)
And let's also be clear that most of the changes we see only happen after journalists undertake an investigation and find evidence of bias or content that breaks their community guidelines. So yes, these companies have to play a really important role in this process, but they can't control it.
Y seamos claros que la mayoría de los cambios que vemos solo suceden después de que los periodistas inicien una investigación y encuentren evidencia de sesgo o contenido que rompe las pautas de su comunidad. Sí, estas compañías tienen que jugar de verdad un papel importante en el proceso, pero no pueden controlarlo.
So what about governments? Many people believe that global regulation is our last hope in terms of cleaning up our information ecosystem. But what I see are lawmakers who are struggling to keep up to date with the rapid changes in technology. And worse, they're working in the dark, because they don't have access to data to understand what's happening on these platforms. And anyway, which governments would we trust to do this? We need a global response, not a national one.
¿Y qué hay de los gobiernos? Muchos creen que la regulación global es nuestra última esperanza. en términos de limpieza de nuestro ecosistema de información. Pero lo que veo son legisladores que luchan por mantenerse al día con los rápidos cambios en la tecnología. Y peor, trabajan en la oscuridad, porque no tienen acceso a los datos para entender lo que está sucediendo en estas plataformas. Y de todos modos, ¿en qué gobiernos confiaríamos para hacer esto? Necesitamos una respuesta global, no nacional.
So the missing link is us. It's those people who use these technologies every day. Can we design a new infrastructure to support quality information? Well, I believe we can, and I've got a few ideas about what we might be able to actually do. So firstly, if we're serious about bringing the public into this, can we take some inspiration from Wikipedia? They've shown us what's possible. Yes, it's not perfect, but they've demonstrated that with the right structures, with a global outlook and lots and lots of transparency, you can build something that will earn the trust of most people. Because we have to find a way to tap into the collective wisdom and experience of all users. This is particularly the case for women, people of color and underrepresented groups. Because guess what? They are experts when it comes to hate and disinformation, because they have been the targets of these campaigns for so long. And over the years, they've been raising flags, and they haven't been listened to. This has got to change. So could we build a Wikipedia for trust? Could we find a way that users can actually provide insights? They could offer insights around difficult content-moderation decisions. They could provide feedback when platforms decide they want to roll out new changes.
Entonces el eslabón perdido somos nosotros. Son esas personas que usan estas tecnologías todos los días. ¿Podemos diseñar una nueva infraestructura para soportar información de calidad? Bueno, creo que podemos y tengo algunas ideas sobre lo que realmente podríamos hacer. En primer lugar, si nos tomamos en serio atraer al público a esto, ¿podemos inspirarnos en Wikipedia? Nos han mostrado lo que es posible. Si, no es perfecto pero han demostrado que con las estructuras correctas, con una perspectiva global y mucha, mucha transparencia, puedes construir algo que se ganará la confianza de las personas. Tenemos que encontrar una manera de aprovechar la sabiduría colectiva y la experiencia de todos los usuarios. En particular las mujeres, las personas de color y los grupos subrepresentados. ¿Porque adivinen qué? Son expertos en odio y desinformación, porque han sido los objetivos de estas campañas durante mucho tiempo. Y a lo largo de los años, han levantando banderas, y no han sido escuchados Esto tiene que cambiar. ¿Podríamos construir una Wikipedia para la confianza? ¿Podríamos encontrar una forma en que los usuarios realmente proporcionen ideas? Podrían ofrecer ideas sobre decisiones difíciles de moderación de contenido. Podrían comentar cuando las plataformas decidan implementar nuevos cambios.
Second, people's experiences with the information is personalized. My Facebook news feed is very different to yours. Your YouTube recommendations are very different to mine. That makes it impossible for us to actually examine what information people are seeing. So could we imagine developing some kind of centralized open repository for anonymized data, with privacy and ethical concerns built in? Because imagine what we would learn if we built out a global network of concerned citizens who wanted to donate their social data to science. Because we actually know very little about the long-term consequences of hate and disinformation on people's attitudes and behaviors. And what we do know, most of that has been carried out in the US, despite the fact that this is a global problem. We need to work on that, too.
Segundo, las experiencias de las personas con la información son personalizadas. Mi fuente de noticias de Facebook es diferente de la de Uds. Igual sus recomendaciones de YouTube. Eso hace que sea imposible para nosotros examinar qué información está viendo la gente. Entonces ¿podríamos imaginar desarrollar algún tipo de repositorio abierto centralizado para datos anonimos, con privacidad y preocupaciones éticas incorporadas? Porque imaginen lo que aprenderíamos si construyeramos una red global de ciudadanos preocupados que quisieran donar sus datos sociales a la ciencia. Porque sabemos muy poco sobre las consecuencias a largo plazo del odio y la desinformación sobre las actitudes y comportamientos de las personas. Y lo que sabemos, la mayoría se ha llevado a cabo en EE. UU. a pesar del hecho de que es un problema global. Necesitamos trabajar en eso también.
And third, can we find a way to connect the dots? No one sector, let alone nonprofit, start-up or government, is going to solve this. But there are very smart people right around the world working on these challenges, from newsrooms, civil society, academia, activist groups. And you can see some of them here. Some are building out indicators of content credibility. Others are fact-checking, so that false claims, videos and images can be down-ranked by the platforms.
Y tercero, ¿podemos encontrar una manera de conectar los puntos? Ningún sector, y mucho menos sin fines de lucro, start-up o gobierno, va a resolver esto Pero hay personas muy inteligentes en todo el mundo. trabajando en estos desafíos, de redacciones, sociedad civil, academia, grupos activistas. Pueden ver algunos aquí. Unos construyen indicadores de credibilidad de contenido. Otros verifican hechos, para que las plataformas puedan clasificar noticias falsas, videos e imágenes
A nonprofit I helped to found, First Draft, is working with normally competitive newsrooms around the world to help them build out investigative, collaborative programs. And Danny Hillis, a software architect, is designing a new system called The Underlay, which will be a record of all public statements of fact connected to their sources, so that people and algorithms can better judge what is credible. And educators around the world are testing different techniques for finding ways to make people critical of the content they consume. All of these efforts are wonderful, but they're working in silos, and many of them are woefully underfunded.
Una organización sin fines de lucro, First Draft, trabaja con redacciones normalmente competitivas del mundo para ayudarlos a desarrollar programas de investigación y colaboración. Danny Hillis, un arquitecto de software, está diseñando un nuevo sistema llamado The Underlay, un registro de todas las declaraciones públicas de hechos conectado a sus fuentes, para que las personas y los algoritmos puedan juzgar mejor lo que es creíble. Y los educadores de todo el mundo están probando diferentes técnicas. para encontrar formas de hacer que la gente critique el contenido que consume. Todos estos esfuerzos son maravillosos, pero están trabajando en silos, y muchos de ellos no tienen fondos suficientes.
There are also hundreds of very smart people working inside these companies, but again, these efforts can feel disjointed, because they're actually developing different solutions to the same problems.
También hay cientos de personas muy inteligentes. trabajando en esas empresas, pero de nuevo, esos esfuerzos pueden sentirse desarticulados, porque están desarrollando diferentes soluciones a los mismos problemas.
How can we find a way to bring people together in one physical location for days or weeks at a time, so they can actually tackle these problems together but from their different perspectives? So can we do this? Can we build out a coordinated, ambitious response, one that matches the scale and the complexity of the problem? I really think we can. Together, let's rebuild our information commons.
¿Cómo encontrar una manera de unir a las personas en una ubicación física por días o semanas, para que puedan abordar estos problemas juntos, pero desde sus diferentes perspectivas? ¿Podemos hacer eso? ¿Podemos construir una respuesta coordinada y ambiciosa, una que coincida con la escala y la complejidad del problema? Realmente creo que podemos. Juntos, reconstruyamos nuestros bienes comunes de información.
Thank you.
Gracias.
(Applause)
(Aplausos)