I'm James. I'm a writer and artist, and I make work about technology. I do things like draw life-size outlines of military drones in city streets around the world, so that people can start to think and get their heads around these really quite hard-to-see and hard-to-think-about technologies. I make things like neural networks that predict the results of elections based on weather reports, because I'm intrigued about what the actual possibilities of these weird new technologies are. Last year, I built my own self-driving car. But because I don't really trust technology, I also designed a trap for it.
Je m'appelle James. Je suis écrivain et artiste, et je créé des œuvres sur la technologie. Je fais des choses comme dessiner le contour de drones militaires à taille réelle dans des rues à travers le monde afin que les gens commencent à réfléchir et à comprendre ces technologies difficiles à voir et difficiles à imaginer. Je fais des choses telles que des réseaux neuronaux prévoyant le résultat des élections selon les bulletins météo car les réelles possibilités de ces étranges et nouvelles technologies m'intriguent. L'année dernière, j'ai créé ma voiture autonome. Puisque je ne fais pas confiance à la technologie, j'ai également conçu un piège.
(Laughter)
(Rires)
And I do these things mostly because I find them completely fascinating, but also because I think when we talk about technology, we're largely talking about ourselves and the way that we understand the world. So here's a story about technology.
Je fais ces choses surtout car je les trouve très fascinantes et car je pense que quand nous parlons de technologie, nous parlons principalement de nous-mêmes et comment nous comprenons le monde. Voici une histoire au sujet de la technologie.
This is a "surprise egg" video. It's basically a video of someone opening up loads of chocolate eggs and showing the toys inside to the viewer. That's it. That's all it does for seven long minutes. And I want you to notice two things about this. First of all, this video has 30 million views.
C'est une vidéo « œuf surprise ». C'est une vidéo de quelqu'un ouvrant un tas d’œufs en chocolat et montrant les jeux à l'intérieur au spectateur. C'est tout. C'est ce qu'elle fait pendant sept longues minutes. Je veux que vous remarquiez deux choses. Tout d'abord, cette vidéo a 30 millions de vues.
(Laughter)
(Rires)
And the other thing is, it comes from a channel that has 6.3 million subscribers, that has a total of eight billion views, and it's all just more videos like this -- 30 million people watching a guy opening up these eggs. It sounds pretty weird, but if you search for "surprise eggs" on YouTube, it'll tell you there's 10 million of these videos, and I think that's an undercount. I think there's way, way more of these. If you keep searching, they're endless. There's millions and millions of these videos in increasingly baroque combinations of brands and materials, and there's more and more of them being uploaded every single day. Like, this is a strange world. Right?
Et l'autre chose est qu'elle vient d'une chaîne qui a 6,3 millions d'abonnés, huit milliards de vues au total et il ne s'agit que de vidéos comme celle-ci -- 30 millions de personnes regardant quelqu'un ouvrir ces œufs. Cela semble bizarre, mais si vous cherchez « œuf surprise » sur YouTube, il vous dira qu'il y a 10 millions de vidéos et c'est une sous-estimation. Je crois qu'il y en a bien plus. Si vous continuez à chercher, c'est sans fin. Il y a des millions et des millions de ces vidéos dans des combinaisons de plus en plus baroques de marques et de contenu et il y en a de plus en plus téléchargées chaque jour. C'est un monde étrange, n'est-ce pas ?
But the thing is, it's not adults who are watching these videos. It's kids, small children. These videos are like crack for little kids. There's something about the repetition, the constant little dopamine hit of the reveal, that completely hooks them in. And little kids watch these videos over and over and over again, and they do it for hours and hours and hours. And if you try and take the screen away from them, they'll scream and scream and scream. If you don't believe me -- and I've already seen people in the audience nodding -- if you don't believe me, find someone with small children and ask them, and they'll know about the surprise egg videos. So this is where we start. It's 2018, and someone, or lots of people, are using the same mechanism that, like, Facebook and Instagram are using to get you to keep checking that app, and they're using it on YouTube to hack the brains of very small children in return for advertising revenue.
Le fait est que ce ne sont pas des adultes qui regardent ces vidéos. Ce sont des enfants, de jeunes enfants. Ces vidéos sont une drogue pour les enfants. Il y a quelque chose dans la répétition, dans la bouffée constante de dopamine à la révélation, qui les rend accros. Et les jeunes enfants regardent ces vidéos encore et encore, pendant des heures et des heures. Si vous essayez de leur enlever l'écran, ils vont crier sans fin. Si vous ne me croyez pas -- j'ai vu des gens dans le public acquiescer -- si vous ne me croyez pas, demandez à quelqu'un avec de jeunes enfants et ils connaîtront les vidéos d’œufs surprise. C'est là que nous commençons. Nous sommes en 2018 et quelqu'un, beaucoup de monde, utilise le même mécanisme que Facebook et Instagram utilisent pour vous garder sur l'application et l'utilise sur YouTube pour s'introduire dans le cerveau de jeunes enfants en échange de revenus publicitaires.
At least, I hope that's what they're doing. I hope that's what they're doing it for, because there's easier ways of making ad revenue on YouTube. You can just make stuff up or steal stuff. So if you search for really popular kids' cartoons like "Peppa Pig" or "Paw Patrol," you'll find there's millions and millions of these online as well. Of course, most of them aren't posted by the original content creators. They come from loads and loads of different random accounts, and it's impossible to know who's posting them or what their motives might be. Does that sound kind of familiar? Because it's exactly the same mechanism that's happening across most of our digital services, where it's impossible to know where this information is coming from. It's basically fake news for kids, and we're training them from birth to click on the very first link that comes along, regardless of what the source is. That's doesn't seem like a terribly good idea.
J'espère que telle est leur motivation. J'espère qu'ils le font pour cela car il y a des moyens plus simples d'avoir des revenus publicitaires sur YouTube. Vous pouvez inventer ou voler des trucs. Si vous cherchez des dessins animés populaires comme « Peppa Pig » ou « La Pat' Patrouille », vous trouverez des millions et millions de ces vidéos en ligne. La plupart ne sont pas postées par les créateurs du contenu original. Elles viennent de tout un tas de différents comptes aléatoires et il est impossible de savoir qui les poste ou quelles sont leurs motivations. Cela semble-t-il familier ? Car c'est également le même mécanisme qui a lieu pour la majorité de nos services numériques, où il est impossible de savoir d'où provient cette information. Ce sont des « fake news » pour les enfants et nous leur apprenons dès la naissance à cliquer sur le premier lien qui vient, peu importe sa source. Cela ne semble pas être une super bonne idée.
Here's another thing that's really big on kids' YouTube. This is called the "Finger Family Song." I just heard someone groan in the audience. This is the "Finger Family Song." This is the very first one I could find. It's from 2007, and it only has 200,000 views, which is, like, nothing in this game. But it has this insanely earwormy tune, which I'm not going to play to you, because it will sear itself into your brain in the same way that it seared itself into mine, and I'm not going to do that to you. But like the surprise eggs, it's got inside kids' heads and addicted them to it. So within a few years, these finger family videos start appearing everywhere, and you get versions in different languages with popular kids' cartoons using food or, frankly, using whatever kind of animation elements you seem to have lying around. And once again, there are millions and millions and millions of these videos available online in all of these kind of insane combinations. And the more time you start to spend with them, the crazier and crazier you start to feel that you might be.
Une autre chose très populaire sur YouTube pour enfants : « La chanson de la famille des doigts ». J'ai entendu quelqu'un grogner dans le public. C'est « la famille des doigts ». C'est la première que j'ai pu trouver. Elle est de 2007 et a seulement 200 000 vues, ce qui n'est rien. Il y a cette mélodie incroyablement entêtante, que je ne vais pas vous passer, car elle s'incrustera dans votre cerveau comme elle s'est incrustée dans le mien et je ne vais pas vous faire ça. Mais comme les œufs surprise, elle est entrée dans la tête des enfants et les a rendus accros. En quelques années, ces vidéos de la famille des doigts sont apparues partout et il y a des versions dans différentes langues, avec des dessins animés populaires, avec de la nourriture ou n'importe quel élément d'animation qui leur tombe sous la main. De nouveau, il y a des millions de vidéos disponibles en ligne avec toutes ces combinaisons folles. Plus vous passez de temps dessus, plus vous avez l'impression d'être fou.
And that's where I kind of launched into this, that feeling of deep strangeness and deep lack of understanding of how this thing was constructed that seems to be presented around me. Because it's impossible to know where these things are coming from. Like, who is making them? Some of them appear to be made of teams of professional animators. Some of them are just randomly assembled by software. Some of them are quite wholesome-looking young kids' entertainers. And some of them are from people who really clearly shouldn't be around children at all.
C'est à ce moment-là que je me suis lancé là-dedans, ce sentiment profond d'étrangeté et ce profond manque de compréhension quant à comment était construite la chose qui se présentait autour de moi. Car il est impossible de savoir d'où viennent ces choses. Qui les crée ? Elles semblent parfois créées par des équipes d'animateurs professionnels, parfois assemblées aléatoirement par un logiciel, parfois elles semblent être créées par de vrais artistes pour enfants. Certaines sont clairement de gens qui ne devraient pas s'approcher d'enfants.
(Laughter)
(Rires)
And once again, this impossibility of figuring out who's making this stuff -- like, this is a bot? Is this a person? Is this a troll? What does it mean that we can't tell the difference between these things anymore? And again, doesn't that uncertainty feel kind of familiar right now?
De nouveau, cette impossibilité de découvrir qui crée ces choses -- est-ce un bot ? Est-ce une personne ? Est-ce un troll ? Qu'est-ce que cela signifie que nous ne puissions plus différencier ces choses ? Cette incertitude ne semble-t-elle pas familière actuellement ?
So the main way people get views on their videos -- and remember, views mean money -- is that they stuff the titles of these videos with these popular terms. So you take, like, "surprise eggs" and then you add "Paw Patrol," "Easter egg," or whatever these things are, all of these words from other popular videos into your title, until you end up with this kind of meaningless mash of language that doesn't make sense to humans at all. Because of course it's only really tiny kids who are watching your video, and what the hell do they know? Your real audience for this stuff is software. It's the algorithms. It's the software that YouTube uses to select which videos are like other videos, to make them popular, to make them recommended. And that's why you end up with this kind of completely meaningless mash, both of title and of content.
La façon dont les gens ont des vues sur leurs vidéos -- les vues, ce sont de l'argent -- est de farcir les titres de ces vidéos avec des mots populaires. Vous prenez « œufs surprise » et « La Pat' Patrouille », « œuf de Pâques » ou quoi que ce soit d'autre, tous ces mots issus d'autres vidéos populaires dans votre titre jusqu'à finir avec ce mélange linguistique dénué de sens qui n'a aucun sens pour les êtres humains. Car seuls les jeunes enfants regardent votre vidéo et qu'en savent-ils ? Votre vrai public pour ces choses-là est logiciel. Ce sont les algorithmes. C'est le logiciel que YouTube utilise pour sélectionner quelles vidéos sont comme les autres, pour les rendre populaires, les recommander. C'est pourquoi vous finissez avec ce mélange complètement dénué de sens à la fois dans le titre et le contenu.
But the thing is, you have to remember, there really are still people within this algorithmically optimized system, people who are kind of increasingly forced to act out these increasingly bizarre combinations of words, like a desperate improvisation artist responding to the combined screams of a million toddlers at once. There are real people trapped within these systems, and that's the other deeply strange thing about this algorithmically driven culture, because even if you're human, you have to end up behaving like a machine just to survive.
Le fait est, rappelez-vous, il y a encore des gens au sein de ce système optimisé par algorithme qui sont de plus en plus forcés à mettre en scène ces combinaisons de mots de plus en plus bizarres, tels des artistes d'improvisation désespérés répondant aux cris d'un million d'enfants en même temps. Il y a de vraies personnes piégées dans ces systèmes et c'est l'autre aspect étrange de cette culture dirigée par les algorithmes car si vous êtes un être humain, vous devez agir comme une machine pour survivre.
And also, on the other side of the screen, there still are these little kids watching this stuff, stuck, their full attention grabbed by these weird mechanisms. And most of these kids are too small to even use a website. They're just kind of hammering on the screen with their little hands. And so there's autoplay, where it just keeps playing these videos over and over and over in a loop, endlessly for hours and hours at a time. And there's so much weirdness in the system now that autoplay takes you to some pretty strange places. This is how, within a dozen steps, you can go from a cute video of a counting train to masturbating Mickey Mouse. Yeah. I'm sorry about that. This does get worse. This is what happens when all of these different keywords, all these different pieces of attention, this desperate generation of content, all comes together into a single place. This is where all those deeply weird keywords come home to roost. You cross-breed the finger family video with some live-action superhero stuff, you add in some weird, trollish in-jokes or something, and suddenly, you come to a very weird place indeed.
De l'autre côté de l'écran, il y a encore de jeunes enfants regardant ces trucs, coincés, toute leur attention attirée par ces étranges mécanismes. Ces enfants sont trop petits pour utiliser un site internet. Ils se contentent de taper sur l'écran avec leurs petites mains. Il y a la lecture automatique, qui continue à lire ces vidéos en boucle de façon constante, sans cesse durant des heures et des heures. Il y a maintenant tellement d'étrangeté dans le système que la lecture automatique vous mène à des endroits étranges. C'est ainsi qu'en une dizaine d'étapes, vous pouvez passer d'une vidéo mignonne d'un train qui compte à Mickey Mouse se masturbant. Oui. Je suis désolé. Il y a pire. Voici ce qu'il se passe quand tous ces mots-clés, tous ces éléments d'attention, cette génération désespérée de contenu, sont réunis en un seul endroit. Voici où tous ces mots-clés très étranges se retournent contre vous. Vous croisez la vidéo de la famille des doigts avec un truc de super-héros en direct, ajoutez des blagues bizarres et de troll et soudain vous arrivez dans un lieu très étrange.
The stuff that tends to upset parents is the stuff that has kind of violent or sexual content, right? Children's cartoons getting assaulted, getting killed, weird pranks that actually genuinely terrify children. What you have is software pulling in all of these different influences to automatically generate kids' worst nightmares. And this stuff really, really does affect small children. Parents report their children being traumatized, becoming afraid of the dark, becoming afraid of their favorite cartoon characters. If you take one thing away from this, it's that if you have small children, keep them the hell away from YouTube.
Ce qui a tendance à déranger les parents est le contenu violent ou sexuel, n'est-ce pas ? Les personnages pour enfants se faisant agresser, se faisant tuer, des plaisanteries étranges qui terrifient les enfants. Vous avez un logiciel qui recherche toutes ces différentes influences pour générer automatiquement les pires cauchemars des enfants. Cela affecte vraiment les jeunes enfants. Les parents déclarent leurs enfants traumatisés, développant une peur du noir, une peur de leurs personnages de dessins animés préférés. Si vous retenez une chose de ceci, c'est que si vous avez de jeunes enfants, tenez-les éloignés de YouTube.
(Applause)
(Applaudissements)
But the other thing, the thing that really gets to me about this, is that I'm not sure we even really understand how we got to this point. We've taken all of this influence, all of these things, and munged them together in a way that no one really intended. And yet, this is also the way that we're building the entire world. We're taking all of this data, a lot of it bad data, a lot of historical data full of prejudice, full of all of our worst impulses of history, and we're building that into huge data sets and then we're automating it. And we're munging it together into things like credit reports, into insurance premiums, into things like predictive policing systems, into sentencing guidelines. This is the way we're actually constructing the world today out of this data. And I don't know what's worse, that we built a system that seems to be entirely optimized for the absolute worst aspects of human behavior, or that we seem to have done it by accident, without even realizing that we were doing it, because we didn't really understand the systems that we were building, and we didn't really understand how to do anything differently with it.
Mais l'autre chose, ce qui m'atteint vraiment, est que je ne suis pas sûr que nous comprenions comment nous en sommes arrivés là. Nous avons pris l'influence de toutes ces choses et créé un mélange que personne n'avait l'intention de faire. Pourtant, c'est aussi la façon dont nous créons le monde entier. Nous prenons toutes ces données, beaucoup de mauvaises données, beaucoup de données historiques pleines de préjugés, pleines de nos pires pulsions au cours de l'histoire, et en faisons d'énormes ensembles de données et les automatisons. Nous les incluons à des choses comme les rapports de crédit, les primes d'assurance, des systèmes de prévision policière, des directives de détermination des peines. Aujourd'hui, nous construisons le monde à partir de ces données. Je ne sais pas ce qui est le pire : que nous créions un système semblant entièrement optimisé pour les pires aspects du comportement humain ou que nous l'ayons fait par accident, sans même réaliser que nous le faisions car nous ne comprenions pas vraiment les systèmes que nous créions et nous ne comprenions pas vraiment comment faire les choses autrement.
There's a couple of things I think that really seem to be driving this most fully on YouTube, and the first of those is advertising, which is the monetization of attention without any real other variables at work, any care for the people who are actually developing this content, the centralization of the power, the separation of those things. And I think however you feel about the use of advertising to kind of support stuff, the sight of grown men in diapers rolling around in the sand in the hope that an algorithm that they don't really understand will give them money for it suggests that this probably isn't the thing that we should be basing our society and culture upon, and the way in which we should be funding it.
Il y a deux choses qui, à mon avis, semblent stimuler cela principalement sur YouTube et la première est la publicité, la monétisation de l'attention sans autre réelle variable à l’œuvre, sans s'inquiéter des personnes qui élaborent ce contenu, la centralisation du pouvoir, la séparation de ces choses-là. Je pense que peu importe votre avis sur l'utilisation de la publicité pour subventionner cela, la vision d'hommes adultes en couche se roulant dans le sable en espérant qu'un algorithme qu'ils ne comprennent pas vraiment leur donnera de l'argent suggère que ce n'est probablement pas ce sur quoi nous devrions baser notre société et culture ni la façon dont nous devrions les financer.
And the other thing that's kind of the major driver of this is automation, which is the deployment of all of this technology as soon as it arrives, without any kind of oversight, and then once it's out there, kind of throwing up our hands and going, "Hey, it's not us, it's the technology." Like, "We're not involved in it." That's not really good enough, because this stuff isn't just algorithmically governed, it's also algorithmically policed. When YouTube first started to pay attention to this, the first thing they said they'd do about it was that they'd deploy better machine learning algorithms to moderate the content. Well, machine learning, as any expert in it will tell you, is basically what we've started to call software that we don't really understand how it works. And I think we have enough of that already. We shouldn't be leaving this stuff up to AI to decide what's appropriate or not, because we know what happens. It'll start censoring other things. It'll start censoring queer content. It'll start censoring legitimate public speech. What's allowed in these discourses, it shouldn't be something that's left up to unaccountable systems. It's part of a discussion all of us should be having.
L'autre facteur-clé est l'automatisation, le déploiement de toute cette technologie dès qu'elle arrive, sans supervision, et, une fois disponible, nous levons les mains et disons : « Ce n'est pas nous, c'est la technologie. » Comme si nous n'étions pas impliqués. Cela ne suffit pas car ces trucs ne sont pas que dirigés par des algorithmes, ils sont surveillés par des algorithmes. Quand YouTube a commencé à prêter attention à cela, ils ont d'abord dit vouloir déployer de meilleurs algorithmes d'apprentissage automatique pour modérer le contenu. L'apprentissage automatique, comme vous le dirait n'importe quel expert, est ce que nous appelons un logiciel dont nous ne comprenons pas le fonctionnement. Nous en avons déjà assez. Nous ne devrions pas laisser l'IA décider ce qui est approprié ou pas, nous savons ce qu'il se passe. Il va censurer d'autres choses. Il va censurer le contenu queer. Il va censurer un discours public légitime. Ce qui est autorisé dans ces discours ne devrait pas dépendre de systèmes inexplicables et irresponsables. Cela fait partie d'une discussion nous devrions tous avoir.
But I'd leave a reminder that the alternative isn't very pleasant, either. YouTube also announced recently that they're going to release a version of their kids' app that would be entirely moderated by humans. Facebook -- Zuckerberg said much the same thing at Congress, when pressed about how they were going to moderate their stuff. He said they'd have humans doing it. And what that really means is, instead of having toddlers being the first person to see this stuff, you're going to have underpaid, precarious contract workers without proper mental health support being damaged by it as well.
Je vais également rappeler que l'alternative n'est pas très plaisante non plus. YouTube a récemment annoncé la mise en ligne d'une version de l'application pour enfants entièrement modérée par des êtres humains. Facebook, Zuckerberg a dit la même chose au Congrès quand on lui a demandé comment ils allaient modérer leur contenu : des êtres humains le feraient. Cela signifie que plutôt que ces choses soient vues d'abord par des enfants, il y aura des travailleurs contractuels sous-payés sans soutien psychologique adéquat auxquels elles nuiront aussi.
(Laughter)
(Rires)
And I think we can all do quite a lot better than that.
Nous pouvons tous faire bien mieux que cela.
(Applause)
(Applaudissements)
The thought, I think, that brings those two things together, really, for me, is agency. It's like, how much do we really understand -- by agency, I mean: how we know how to act in our own best interests. Which -- it's almost impossible to do in these systems that we don't really fully understand. Inequality of power always leads to violence. And we can see inside these systems that inequality of understanding does the same thing. If there's one thing that we can do to start to improve these systems, it's to make them more legible to the people who use them, so that all of us have a common understanding of what's actually going on here.
L'idée qui, pour moi, relie vraiment ces deux choses ensemble est la capacité d'action. Combien nous comprenons vraiment -- par capacité d'action, je parle de comment nous savons comment agir dans notre intérêt. C'est presque impossible à faire dans ces systèmes que nous ne comprenons pas complètement. L'inégalité des pouvoirs mène toujours à la violence. Nous voyons au sein de ces systèmes que l'inégalité de compréhension fait la même chose. S'il y a une chose que nous pouvons faire pour améliorer ces systèmes, c'est les rendre plus lisibles pour leurs utilisateurs afin que nous partagions une compréhension de ce qu'il se passe.
The thing, though, I think most about these systems is that this isn't, as I hope I've explained, really about YouTube. It's about everything. These issues of accountability and agency, of opacity and complexity, of the violence and exploitation that inherently results from the concentration of power in a few hands -- these are much, much larger issues. And they're issues not just of YouTube and not just of technology in general, and they're not even new. They've been with us for ages. But we finally built this system, this global system, the internet, that's actually showing them to us in this extraordinary way, making them undeniable. Technology has this extraordinary capacity to both instantiate and continue all of our most extraordinary, often hidden desires and biases and encoding them into the world, but it also writes them down so that we can see them, so that we can't pretend they don't exist anymore. We need to stop thinking about technology as a solution to all of our problems, but think of it as a guide to what those problems actually are, so we can start thinking about them properly and start to address them.
Le fait est que je pense que le problème avec ces systèmes est que, j'espère l'avoir expliqué, qu'il ne s'agit pas vraiment de YouTube. Il s'agit de tout. Ces problèmes de responsabilité et capacité d'action, d'opacité et de complexité, de violence et d'exploitation qui résultent de façon inhérente de la concentration du pouvoir dans quelques mains -- ce sont des problèmes bien plus larges. Ce ne sont pas des problèmes que pour YouTube mais pour la technologie en général et ils ne sont pas nouveaux. Ils existent depuis toujours. Nous avons finalement créé ce système, ce système mondial, internet, qui nous les montre de façon extraordinaire, les rendant incontestables. La technologie a cette capacité extraordinaire à instancier et à maintenir tous nos désirs et préjugés les plus extraordinaires et cachés et à les encoder dans le monde, mais également à les écrire afin que nous les voyions, afin que nous ne puissions pas prétendre qu'ils n'existent plus. Nous devons arrêter de voir la technologie comme la solution à tous nos problèmes et la voir comme un guide vers ce que sont nos problèmes afin de pouvoir y réfléchir correctement et commencer à y remédier.
Thank you very much.
Merci beaucoup.
(Applause)
(Applaudissements)
Thank you.
Merci.
(Applause)
(Applaudissements)
Helen Walters: James, thank you for coming and giving us that talk. So it's interesting: when you think about the films where the robotic overlords take over, it's all a bit more glamorous than what you're describing. But I wonder -- in those films, you have the resistance mounting. Is there a resistance mounting towards this stuff? Do you see any positive signs, green shoots of resistance?
Helen Walter : James, merci d'être venu et d'être intervenu ainsi. C'est intéressant : quand vous pensez aux films où des robots envahissent le monde, c'est un peu plus glamour que ce que vous décrivez. Je me demande -- dans ces films, la résistance s'organise. Y a-t-il une résistance qui s'organise au sujet de ces choses-là ? Voyez-vous des signes positifs, des précurseurs d'une résistance ?
James Bridle: I don't know about direct resistance, because I think this stuff is super long-term. I think it's baked into culture in really deep ways. A friend of mine, Eleanor Saitta, always says that any technological problems of sufficient scale and scope are political problems first of all. So all of these things we're working to address within this are not going to be addressed just by building the technology better, but actually by changing the society that's producing these technologies. So no, right now, I think we've got a hell of a long way to go. But as I said, I think by unpacking them, by explaining them, by talking about them super honestly, we can actually start to at least begin that process.
James Bridle : Une résistance directe, je ne sais pas, car ce sont des choses à très long terme. C'est intégré à la culture très profondément. Une amie à moi, Eleanor Saitta, dit toujours que tout problème technologique d'une certaine échelle et envergure est d'abord un problème politique. Tout ce à quoi nous essayons de remédier ne trouvera pas de solution en créant de meilleures technologies mais en changeant la société qui produit ces technologies. Actuellement, nous avons un très long chemin à parcourir. Je l'ai dit, en décortiquant les problèmes, en les expliquant, en en parlant très honnêtement, nous pouvons commencer ce processus.
HW: And so when you talk about legibility and digital literacy, I find it difficult to imagine that we need to place the burden of digital literacy on users themselves. But whose responsibility is education in this new world?
HW : Quand vous parler de lisibilité et d'alphabétisation numérique, j'ai du mal à imaginer que nous devons porter nous-mêmes le fardeau de l'alphabétisation numérique. De qui relève la responsabilité de l'éducation dans ce nouveau monde ?
JB: Again, I think this responsibility is kind of up to all of us, that everything we do, everything we build, everything we make, needs to be made in a consensual discussion with everyone who's avoiding it; that we're not building systems intended to trick and surprise people into doing the right thing, but that they're actually involved in every step in educating them, because each of these systems is educational. That's what I'm hopeful about, about even this really grim stuff, that if you can take it and look at it properly, it's actually in itself a piece of education that allows you to start seeing how complex systems come together and work and maybe be able to apply that knowledge elsewhere in the world.
JB : Je crois que c'est de notre responsabilité à tous, que tout ce que nous faisons, construisons et créons doit être fait au sein d'une discussion consensuelle avec tous ceux qui l'évitent ; nous ne créons pas de systèmes dans le but de piéger et surprendre les gens pour qu'ils agissent bien mais ils sont impliqués à chaque étape de leur éducation car chacun de ces systèmes est éducatif. C'est pour cela que j'ai espoir, même pour ce qui est sinistre, que si vous le prenez et l'observez correctement, c'est éducatif en soi et nous permet de voir comment des systèmes complexes fonctionnent ensemble et d'appliquer ce savoir ailleurs dans le monde.
HW: James, it's such an important discussion, and I know many people here are really open and prepared to have it, so thanks for starting off our morning.
HW : C'est une discussion si importante et beaucoup de gens ici sont ouverts et prêts à en discuter, merci d'avoir démarré notre matinée.
JB: Thanks very much. Cheers.
JB : Merci beaucoup.
(Applause)
(Applaudissements)