I'm James. I'm a writer and artist, and I make work about technology. I do things like draw life-size outlines of military drones in city streets around the world, so that people can start to think and get their heads around these really quite hard-to-see and hard-to-think-about technologies. I make things like neural networks that predict the results of elections based on weather reports, because I'm intrigued about what the actual possibilities of these weird new technologies are. Last year, I built my own self-driving car. But because I don't really trust technology, I also designed a trap for it.
Soy James. Soy escritor y artista, y trabajo en tecnología. Hago cosas como dibujar contornos de tamaño real de drones militares en calles de ciudades de todo el mundo, para que la gente pueda comenzar a pensar y dar vueltas a estas tecnologías realmente difíciles de ver y difíciles de pensar. Hago cosas como redes neuronales que predicen los resultados de las elecciones basadas en informes meteorológicos, porque estoy intrigado sobre cuáles son las posibilidades reales de estas nuevas tecnologías raras. El año pasado, construí mi propio auto autónomo. Pero como realmente no confío en la tecnología, también diseñé una trampa para eso.
(Laughter)
(Risas)
And I do these things mostly because I find them completely fascinating, but also because I think when we talk about technology, we're largely talking about ourselves and the way that we understand the world. So here's a story about technology.
Y hago estas cosas principalmente porque las encuentro completamente fascinantes, pero también porque creo que cuando hablamos de tecnología, en gran medida estamos hablando de nosotros mismos y la forma en que entendemos el mundo. Así que aquí hay una historia de tecnología.
This is a "surprise egg" video. It's basically a video of someone opening up loads of chocolate eggs and showing the toys inside to the viewer. That's it. That's all it does for seven long minutes. And I want you to notice two things about this. First of all, this video has 30 million views.
Este es un video de "huevo sorpresa". Básicamente es un video de alguien abriendo muchos de huevos de chocolate y mostrando los juguetes del interior. Eso es. Eso es todo lo que hace durante siete largos minutos. Y quiero que noten dos cosas. En primer lugar, este video tiene 30 millones de visitas.
(Laughter)
(Risas)
And the other thing is, it comes from a channel that has 6.3 million subscribers, that has a total of eight billion views, and it's all just more videos like this -- 30 million people watching a guy opening up these eggs. It sounds pretty weird, but if you search for "surprise eggs" on YouTube, it'll tell you there's 10 million of these videos, and I think that's an undercount. I think there's way, way more of these. If you keep searching, they're endless. There's millions and millions of these videos in increasingly baroque combinations of brands and materials, and there's more and more of them being uploaded every single day. Like, this is a strange world. Right?
Y la otra cosa es, que proviene de un canal que tiene 6,3 millones de suscriptores, que tiene un total de 8 mil millones de visitas, y todo son solo más videos como este... 30 millones de personas viendo a un chico abriendo estos huevos. Suena bastante extraño, pero si buscan "huevos sorpresa" en YouTube, les dirá que hay 10 millones de estos videos, y creo que es un conteo a la baja. Creo que hay muchos más. Si siguen buscando, no acaban. Hay millones y millones de estos videos en combinaciones cada vez más barrocas de marcas y materiales, y hay más y más de ellos que se cargan todos los días. Este es un mundo extraño. ¿De acuerdo?
But the thing is, it's not adults who are watching these videos. It's kids, small children. These videos are like crack for little kids. There's something about the repetition, the constant little dopamine hit of the reveal, that completely hooks them in. And little kids watch these videos over and over and over again, and they do it for hours and hours and hours. And if you try and take the screen away from them, they'll scream and scream and scream. If you don't believe me -- and I've already seen people in the audience nodding -- if you don't believe me, find someone with small children and ask them, and they'll know about the surprise egg videos. So this is where we start. It's 2018, and someone, or lots of people, are using the same mechanism that, like, Facebook and Instagram are using to get you to keep checking that app, and they're using it on YouTube to hack the brains of very small children in return for advertising revenue.
Pero la cuestión es que no son adultos los que miran estos videos. Son niños, niños pequeños. Estos videos son como crac para niños pequeños. Hay algo sobre la repetición, el pequeño y constante golpe de dopamina de la revelación, que los engancha por completo. Y los niños pequeños miran estos videos una y otra y otra vez y lo hacen durante horas, horas y horas. Y si tratas de quitarles la pantalla, gritarán, gritarán y gritarán. Si no me creen --y ya he visto gente en la audiencia asintiendo--, si no me creen, busquen a alguien con niños pequeños y pregúntenles: y sabrán sobre los videos de huevos sorpresa. Aquí es donde comenzamos. Es 2018 mucha gente, usa el mismo mecanismo que Facebook e Instagram para que uno siga enganchado en esa aplicación, y lo usan en YouTube para hackear el cerebro de niños muy pequeños a cambio de ingresos publicitarios.
At least, I hope that's what they're doing. I hope that's what they're doing it for, because there's easier ways of making ad revenue on YouTube. You can just make stuff up or steal stuff. So if you search for really popular kids' cartoons like "Peppa Pig" or "Paw Patrol," you'll find there's millions and millions of these online as well. Of course, most of them aren't posted by the original content creators. They come from loads and loads of different random accounts, and it's impossible to know who's posting them or what their motives might be. Does that sound kind of familiar? Because it's exactly the same mechanism that's happening across most of our digital services, where it's impossible to know where this information is coming from. It's basically fake news for kids, and we're training them from birth to click on the very first link that comes along, regardless of what the source is. That's doesn't seem like a terribly good idea.
Al menos, espero que sea lo que están haciendo. Espero que para eso lo estén haciendo, porque hay formas más fáciles de generar ingresos publicitarios en YouTube. Puedes inventar cosas o robar cosas. Si buscas dibujos animados populares para niños como "Pepper Pig" o "Paw Patrol" encontrarás millones y millones de estos en línea también. Por supuesto, la mayoría no están publicados por los creadores originales. Vienen de montones y montones de cuentas aleatorias diferentes, y es imposible saber quién los está publicando o cuáles podrían ser sus motivos. ¿Suena algo familiar? Porque es exactamente el mismo mecanismo que se da en la mayoría de nuestros servicios digitales, en que es imposible saber de dónde viene esta información. Básicamente son noticias falsas para niños, y los estamos entrenando desde el nacimiento para hacer clic en el primer enlace que aparece, independientemente de cuál sea la fuente. Esa no parece una idea terriblemente buena.
Here's another thing that's really big on kids' YouTube. This is called the "Finger Family Song." I just heard someone groan in the audience. This is the "Finger Family Song." This is the very first one I could find. It's from 2007, and it only has 200,000 views, which is, like, nothing in this game. But it has this insanely earwormy tune, which I'm not going to play to you, because it will sear itself into your brain in the same way that it seared itself into mine, and I'm not going to do that to you. But like the surprise eggs, it's got inside kids' heads and addicted them to it. So within a few years, these finger family videos start appearing everywhere, and you get versions in different languages with popular kids' cartoons using food or, frankly, using whatever kind of animation elements you seem to have lying around. And once again, there are millions and millions and millions of these videos available online in all of these kind of insane combinations. And the more time you start to spend with them, the crazier and crazier you start to feel that you might be.
Aquí otra cosa que es muy importante en YouTube para niños. Esto se llama "Finger Family Song". Alguien acaba de suspirar en la audiencia. La "canción de la familia del dedo". Este es el primero que pude encontrar. Es de 2007, y solo tiene 200 000 visitas, que es, como, nada en este juego. Pero tiene una melodía increíblemente tierna que no les voy a poner, porque se implantará en su cerebro de la misma manera que se incrustó en el mío, y no se lo voy a hacer a Uds. Pero como los huevos sorpresa, está dentro de las cabezas de los niños y los hace adictos a ella. Dentro de unos años, estos videos familiares de dedos aparecerán en todas partes, y con versiones en diferentes idiomas con caricaturas populares usando comida o, francamente, cualquier tipo de animación que parece que está por ahí. Y una vez más, hay millones, millones y millones de estos videos disponibles en línea en todos estos tipos de combinaciones insanas. Y cuanto más tiempo pasas con ellos, más loco y loco te sientes que puedes ser.
And that's where I kind of launched into this, that feeling of deep strangeness and deep lack of understanding of how this thing was constructed that seems to be presented around me. Because it's impossible to know where these things are coming from. Like, who is making them? Some of them appear to be made of teams of professional animators. Some of them are just randomly assembled by software. Some of them are quite wholesome-looking young kids' entertainers. And some of them are from people who really clearly shouldn't be around children at all.
Y ahí es donde me lancé a esto, esa sensación de profunda extrañeza y profunda falta de comprensión de cómo se construyó esta cosa que parece presentarse a mi alrededor. Porque es imposible saber de dónde vienen estas cosas. ¿Quién los hace? Algunos parecen hechos por equipos de animadores profesionales. Algunos son simplemente ensamblados al azar por software. Algunos son artistas jóvenes muy saludables, Y algunos son de personas que claramente no deberían estar cerca de los niños.
(Laughter)
(Risas)
And once again, this impossibility of figuring out who's making this stuff -- like, this is a bot? Is this a person? Is this a troll? What does it mean that we can't tell the difference between these things anymore? And again, doesn't that uncertainty feel kind of familiar right now?
Y una vez más, esta imposibilidad de descubrir quién hace estas cosas: ¿Se trata de un robot? ¿Es una persona? ¿Es un troll? ¿Qué significa ya no poder más ver la diferencia entre estas cosas? Y nuevamente, ¿esa incertidumbre no les resulta familiar en este momento?
So the main way people get views on their videos -- and remember, views mean money -- is that they stuff the titles of these videos with these popular terms. So you take, like, "surprise eggs" and then you add "Paw Patrol," "Easter egg," or whatever these things are, all of these words from other popular videos into your title, until you end up with this kind of meaningless mash of language that doesn't make sense to humans at all. Because of course it's only really tiny kids who are watching your video, and what the hell do they know? Your real audience for this stuff is software. It's the algorithms. It's the software that YouTube uses to select which videos are like other videos, to make them popular, to make them recommended. And that's why you end up with this kind of completely meaningless mash, both of title and of content.
La principal forma para que los videos sean vistos --y recuerden, las visualizaciones significan dinero-- es titulando estos videos con estos términos populares. Tomas algo como "huevos sorpresa" y agregas "Paw Patrol", "Huevo de Pascua" o lo que sean todas estas palabras de otros videos populares en el título, hasta que terminas con este tipo de puré de lenguaje sin sentido que no tiene sentido para los humanos en absoluto. Porque, por supuesto, solo los niños muy pequeños miran tu video, y ¿qué demonios saben ellos? Tu audiencia real para esto es software. Son los algoritmos. Es el software que usa YouTube para seleccionar qué videos que son como otros videos, para hacerlos populares, para recomendarlos. Y por eso terminas con este tipo de puré completamente sin sentido, tanto de título como de contenido.
But the thing is, you have to remember, there really are still people within this algorithmically optimized system, people who are kind of increasingly forced to act out these increasingly bizarre combinations of words, like a desperate improvisation artist responding to the combined screams of a million toddlers at once. There are real people trapped within these systems, and that's the other deeply strange thing about this algorithmically driven culture, because even if you're human, you have to end up behaving like a machine just to survive.
Pero el caso es que debes recordar, realmente todavía hay personas dentro de este sistema optimizado algorítmicamente, personas cada vez más forzadas a actuar estas combinaciones cada vez más extrañas de palabras, como un artista de improvisación desesperado que responde a la vez a los gritos de un millón de niños pequeños. Hay personas atrapadas dentro de estos sistemas, y eso es otra cosa muy extraña de esta cultura guiada algorítmicamente, porque incluso si eres humano, tienes que terminar comportándote como una máquina solo para sobrevivir
And also, on the other side of the screen, there still are these little kids watching this stuff, stuck, their full attention grabbed by these weird mechanisms. And most of these kids are too small to even use a website. They're just kind of hammering on the screen with their little hands. And so there's autoplay, where it just keeps playing these videos over and over and over in a loop, endlessly for hours and hours at a time. And there's so much weirdness in the system now that autoplay takes you to some pretty strange places. This is how, within a dozen steps, you can go from a cute video of a counting train to masturbating Mickey Mouse. Yeah. I'm sorry about that. This does get worse. This is what happens when all of these different keywords, all these different pieces of attention, this desperate generation of content, all comes together into a single place. This is where all those deeply weird keywords come home to roost. You cross-breed the finger family video with some live-action superhero stuff, you add in some weird, trollish in-jokes or something, and suddenly, you come to a very weird place indeed.
Y también, en el otro lado de la pantalla, todavía hay niños pequeños mirándolo, atrapados, toda su atención atrapada, por estos mecanismos extraños. Y estos niños son demasiado pequeños para usar un sitio web. Simplemente están martillando en la pantalla con sus pequeñas manos. Y existe reproducción automática, y estos videos se siguen reproduciendo una y otra y otra vez, interminablemente horas y horas a la vez. Y es tan raro el sistema hoy que esa reproducción automática lleva a algunos lugares muy extraños. Así es como, en una docena de pasos, puedes pasar de un lindo video de un tren de conteo a Mickey Mouse masturbándose. Sí. Lo lamento. Esto empeora. Esto es lo que pasa cuando todas estas diferentes palabras clave, todas estas diferentes piezas de atención, esta desesperada generación de contenido, todo se une en un solo lugar. Aquí es donde esas palabras clave muy extrañas llegan a casa para descansar. Uno cruza el video de la familia del dedo con algunas cosas de superhéroes de acción en vivo, agregas algunas bromas raras y trollsas o algo así y de repente, llegas a un lugar muy extraño de hecho.
The stuff that tends to upset parents is the stuff that has kind of violent or sexual content, right? Children's cartoons getting assaulted, getting killed, weird pranks that actually genuinely terrify children. What you have is software pulling in all of these different influences to automatically generate kids' worst nightmares. And this stuff really, really does affect small children. Parents report their children being traumatized, becoming afraid of the dark, becoming afraid of their favorite cartoon characters. If you take one thing away from this, it's that if you have small children, keep them the hell away from YouTube.
Lo que tiende a molestar a los padres es el material que tiene un tipo de contenido violento o sexual, ¿verdad? Dibujos animados de niños siendo atacados, siendo asesinados, bromas extrañas que realmente aterrorizan a los niños. Lo que tienes es software que tira de todas estas influencias diferentes para generar automáticamente las peores pesadillas de los niños. Y esto realmente afecta a los niños pequeños. Los padres informan que sus hijos están traumatizados, tienen miedo a la oscuridad, tienen miedo de sus personajes de dibujos animados favoritos. Si se llevan una cosa de esto, es que si tienen niños pequeños, manténganlos lejos de YouTube.
(Applause)
(Aplausos)
But the other thing, the thing that really gets to me about this, is that I'm not sure we even really understand how we got to this point. We've taken all of this influence, all of these things, and munged them together in a way that no one really intended. And yet, this is also the way that we're building the entire world. We're taking all of this data, a lot of it bad data, a lot of historical data full of prejudice, full of all of our worst impulses of history, and we're building that into huge data sets and then we're automating it. And we're munging it together into things like credit reports, into insurance premiums, into things like predictive policing systems, into sentencing guidelines. This is the way we're actually constructing the world today out of this data. And I don't know what's worse, that we built a system that seems to be entirely optimized for the absolute worst aspects of human behavior, or that we seem to have done it by accident, without even realizing that we were doing it, because we didn't really understand the systems that we were building, and we didn't really understand how to do anything differently with it.
Pero otra cosa, lo que realmente me atrapa de esto, es que no estoy seguro de que realmente comprendamos cómo llegamos a este punto. Hemos tomado toda esta influencia, todas estas cosas, y las procesamos de manera que nadie realmente pretendía. Y, sin embargo, es también como estamos construyendo el mundo entero. Estamos tomando todos estos datos, muchos datos malos, una gran cantidad de datos históricos llenos de prejuicios, lleno de todos nuestros peores impulsos de la historia, y creamos enormes conjuntos de datos y luego los automatizamos. Y lo estamos procesando en cosas como informes de crédito, en primas de seguros, en cosas como sistemas de vigilancia predictiva, en pautas de sentencia. Es la forma en que realmente construimos el mundo de hoy con estos datos. Y no sé qué es peor, si construir un sistema que parece estar completamente optimizado para los peores aspectos absolutos del comportamiento humano, o parecer que lo hemos hecho por accidente, sin siquiera darnos cuenta de que lo hacíamos, porque realmente no entendíamos los sistemas que construíamos, y realmente no entendimos cómo hacer algo diferente con eso.
There's a couple of things I think that really seem to be driving this most fully on YouTube, and the first of those is advertising, which is the monetization of attention without any real other variables at work, any care for the people who are actually developing this content, the centralization of the power, the separation of those things. And I think however you feel about the use of advertising to kind of support stuff, the sight of grown men in diapers rolling around in the sand in the hope that an algorithm that they don't really understand will give them money for it suggests that this probably isn't the thing that we should be basing our society and culture upon, and the way in which we should be funding it.
Hay un par de cosas que creo que realmente parecen impulsar esto más plenamente en YouTube, y el primero es la publicidad, que es la monetización de la atención sin otras variables reales de trabajo, sin ningún cuidado de las personas que realmente desarrollan este contenido, la centralización del poder, la separación de esas cosas. Y creo que lo que sientes sobre el uso de la publicidad como apoyo de estas cosas, ver a hombres adultos en pañales rodando alrededor de la arena con la esperanza de que un algoritmo que realmente no entienden les dará dinero por ello sugiere que esto probablemente no es sobre lo que deberíamos basar nuestra sociedad y cultura, y la forma en que deberíamos financiarla.
And the other thing that's kind of the major driver of this is automation, which is the deployment of all of this technology as soon as it arrives, without any kind of oversight, and then once it's out there, kind of throwing up our hands and going, "Hey, it's not us, it's the technology." Like, "We're not involved in it." That's not really good enough, because this stuff isn't just algorithmically governed, it's also algorithmically policed. When YouTube first started to pay attention to this, the first thing they said they'd do about it was that they'd deploy better machine learning algorithms to moderate the content. Well, machine learning, as any expert in it will tell you, is basically what we've started to call software that we don't really understand how it works. And I think we have enough of that already. We shouldn't be leaving this stuff up to AI to decide what's appropriate or not, because we know what happens. It'll start censoring other things. It'll start censoring queer content. It'll start censoring legitimate public speech. What's allowed in these discourses, it shouldn't be something that's left up to unaccountable systems. It's part of a discussion all of us should be having.
Y la otra cosa que es el principal impulsor de esto es la automatización, que es el despliegue de toda esta tecnología tan pronto como llega, sin ningún tipo de supervisión, y cuando está ahí afuera, levantar las manos y decir: "Oye, no somos nosotros, es la tecnología". Como, "No estamos involucrados en eso". Eso no es realmente lo suficientemente bueno, porque esto no solo se rige algorítmicamente, también está controlado algorítmicamente. Cuando YouTube comenzó a prestar atención a esto, lo primero que dijo que haría fue que implementaría mejores algoritmos de aprendizaje automático para moderar el contenido. Bueno, el aprendizaje automático, como cualquier experto en ello les dirá, es básicamente lo que hemos comenzado a llamar software que no entendemos cómo funciona. Y creo que ya tenemos suficiente de eso. No deberíamos dejar esto en manos de la IA para decidir lo que es apropiado o no, porque sabemos lo que sucede. Comenzará a censurar otras cosas. Comenzará a censurar contenido queer. Comenzará a censurar el discurso público legítimo. Lo que se permite en estos discursos, no debería ser algo que haya quedado en sistemas inexplicables. Es parte de una discusión que todos deberíamos tener.
But I'd leave a reminder that the alternative isn't very pleasant, either. YouTube also announced recently that they're going to release a version of their kids' app that would be entirely moderated by humans. Facebook -- Zuckerberg said much the same thing at Congress, when pressed about how they were going to moderate their stuff. He said they'd have humans doing it. And what that really means is, instead of having toddlers being the first person to see this stuff, you're going to have underpaid, precarious contract workers without proper mental health support being damaged by it as well.
Pero dejaría un recordatorio que la alternativa tampoco es muy agradable. YouTube también anunció que va a lanzar una versión de la aplicación para niños que sería completamente moderada por humanos. Facebook; Zuckerberg dijo casi lo mismo en el Congreso, cuando se le preguntó sobre cómo iba a moderar sus cosas. Y dijo que tendrían humanos haciéndolo. Y lo que realmente significa es que en lugar de tener niños pequeños viendo esto por primera vez, van a tener trabajadores subcontratados y precarios sin el adecuado apoyo de salud mental siendo afectados también.
(Laughter)
(Risas)
And I think we can all do quite a lot better than that.
Y creo que todos podemos hacer mucho mejor que eso.
(Applause)
(Aplausos)
The thought, I think, that brings those two things together, really, for me, is agency. It's like, how much do we really understand -- by agency, I mean: how we know how to act in our own best interests. Which -- it's almost impossible to do in these systems that we don't really fully understand. Inequality of power always leads to violence. And we can see inside these systems that inequality of understanding does the same thing. If there's one thing that we can do to start to improve these systems, it's to make them more legible to the people who use them, so that all of us have a common understanding of what's actually going on here.
La idea, creo, que reúne esas dos cosas, realmente, para mí, es agencia. Es como, ¿cuánto entendemos realmente? Por agencia, quiero decir: cómo sabemos cómo actuar en nuestro propio interés. Lo que es casi imposible de hacer en estos sistemas que realmente no comprendemos del todo. La desigualdad de poder siempre conduce a la violencia. Y podemos ver dentro de estos sistemas esa desigualdad de entendimiento hace lo mismo. Si hay algo que podemos hacer para comenzar a mejorar estos sistemas, es hacerlos más legibles para las personas que los usan, para que todos tengamos un entendimiento común de lo que está sucediendo ahí.
The thing, though, I think most about these systems is that this isn't, as I hope I've explained, really about YouTube. It's about everything. These issues of accountability and agency, of opacity and complexity, of the violence and exploitation that inherently results from the concentration of power in a few hands -- these are much, much larger issues. And they're issues not just of YouTube and not just of technology in general, and they're not even new. They've been with us for ages. But we finally built this system, this global system, the internet, that's actually showing them to us in this extraordinary way, making them undeniable. Technology has this extraordinary capacity to both instantiate and continue all of our most extraordinary, often hidden desires and biases and encoding them into the world, but it also writes them down so that we can see them, so that we can't pretend they don't exist anymore. We need to stop thinking about technology as a solution to all of our problems, but think of it as a guide to what those problems actually are, so we can start thinking about them properly and start to address them.
La cosa, sin embargo, pienso más acerca de estos sistemas es que esto no es, como espero haber explicado, realmente sobre YouTube. Se trata de todo. Estos problemas de responsabilidad y agencia, de opacidad y complejidad, de la violencia y la explotación que resulta inherentemente de la concentración de poder en unas pocas manos, estos son problemas mucho, mucho más grandes. Y no solo son problemas de YouTube y no solo de la tecnología en general, y ni siquiera son nuevos. Han estado con nosotros por siglos. Pero finalmente construimos este sistema, este sistema global, Internet, que nos los muestra en realidad de esta manera extraordinaria, haciéndolos innegables. La tecnología tiene esta extraordinaria capacidad para hacer tangibles y continuos todos nuestros más extraordinarios, a menudo ocultos deseos y prejuicios y codificándolos en el mundo, pero también los escribe para que podamos verlos, para que no podamos pretender que ya no existen. Tenemos que dejar de pensar en la tecnología como una solución a todos nuestros problemas, y pensarla como una guía de lo que esos problemas son en realidad, para que podamos comenzar a pensar en ellos adecuadamente y empezar a abordarlos.
Thank you very much.
Muchas gracias.
(Applause)
(Aplausos)
Thank you.
Gracias.
(Applause)
(Aplausos)
Helen Walters: James, thank you for coming and giving us that talk. So it's interesting: when you think about the films where the robotic overlords take over, it's all a bit more glamorous than what you're describing. But I wonder -- in those films, you have the resistance mounting. Is there a resistance mounting towards this stuff? Do you see any positive signs, green shoots of resistance?
Helen Walters: James, gracias por venir y darnos esa charla. Es interesante: cuando piensas en películas donde jefes supremos robóticos toman el control, todo es un poco más glamoroso que lo que describes. Pero me pregunto: en esas películas, se monta la resistencia. ¿Hay una resistencia contra esto? ¿Ves signos positivos, brotes verdes de resistencia?
James Bridle: I don't know about direct resistance, because I think this stuff is super long-term. I think it's baked into culture in really deep ways. A friend of mine, Eleanor Saitta, always says that any technological problems of sufficient scale and scope are political problems first of all. So all of these things we're working to address within this are not going to be addressed just by building the technology better, but actually by changing the society that's producing these technologies. So no, right now, I think we've got a hell of a long way to go. But as I said, I think by unpacking them, by explaining them, by talking about them super honestly, we can actually start to at least begin that process.
James Bridle: No sé sobre la resistencia directa, porque creo que esto es a muy largo plazo. Creo que está profundamente arraigada en la cultura. Una amiga mía, Eleanor Saitta, siempre dice que cualquier problema tecnológico de escala y alcance suficientes es un problema político antes que nada. Todas estas cosas en las que estamos trabajando para enfrentarnos a esto no van a abordarse solo construyendo mejor tecnología, sino cambiando la sociedad que está produciendo estas tecnologías. Así que no, hoy, creo que tenemos un infierno que recorrer. Pero como dije, creo que al destaparlos, al explicarlos, al hablar de ellos superhonestamente, en realidad podemos comenzar al menos ese proceso.
HW: And so when you talk about legibility and digital literacy, I find it difficult to imagine that we need to place the burden of digital literacy on users themselves. But whose responsibility is education in this new world?
HW: Y cuando hablas de legibilidad y alfabetización digital, me resulta difícil de imaginar que debemos colocar la carga de la alfabetización digital en los usuarios. ¿Pero de quién es la educación en este nuevo mundo?
JB: Again, I think this responsibility is kind of up to all of us, that everything we do, everything we build, everything we make, needs to be made in a consensual discussion with everyone who's avoiding it; that we're not building systems intended to trick and surprise people into doing the right thing, but that they're actually involved in every step in educating them, because each of these systems is educational. That's what I'm hopeful about, about even this really grim stuff, that if you can take it and look at it properly, it's actually in itself a piece of education that allows you to start seeing how complex systems come together and work and maybe be able to apply that knowledge elsewhere in the world.
JB: Nuevamente, creo que esta responsabilidad depende de todos nosotros, todo lo que hacemos, todo lo que construimos, todo lo que creamos, debe hacerse en una discusión consensuada con todos los que lo evitan; que no estamos construyendo sistemas para engañar y sorprender a las personas haciendo lo correcto, pero que en realidad están involucrados en cada paso para educarlos, porque cada uno de estos sistemas es educativo. Es lo que me da esperanza, aun en esta cosa realmente sombría, que si puedes tomarla y mirarla correctamente, en realidad es en sí misma una pieza educativa que permite comenzar a ver cómo los sistemas complejos se unen y funcionan y tal vez ser capaz de aplicar ese conocimiento en otro lugar del mundo.
HW: James, it's such an important discussion, and I know many people here are really open and prepared to have it, so thanks for starting off our morning.
HW: James, es una discusión tan importante, y sé que muchos aquí están realmente abiertos y dispuestos a tenerla, así que gracias por comenzar nuestra mañana.
JB: Thanks very much. Cheers.
JB: Muchas gracias.
(Applause)
(Aplausos)