I'm James. I'm a writer and artist, and I make work about technology. I do things like draw life-size outlines of military drones in city streets around the world, so that people can start to think and get their heads around these really quite hard-to-see and hard-to-think-about technologies. I make things like neural networks that predict the results of elections based on weather reports, because I'm intrigued about what the actual possibilities of these weird new technologies are. Last year, I built my own self-driving car. But because I don't really trust technology, I also designed a trap for it.
Ik ben James. Ik ben schrijver en kunstenaar en mijn werk gaat over over technologie, zoals levensgrote contouren van militaire drones tekenen in straten van steden over de hele wereld, zodat mensen kunnen gaan nadenken en iets snappen van deze nogal wazige en moeilijk te begrijpen technologieën. Ik maak dingen als neurale netwerken die verkiezingsresultaten voorspellen op basis van weerberichten, want ik ben geïntrigeerd door de werkelijke mogelijkheden van deze vreemde nieuwe technologieën. Vorig jaar bouwde ik mijn eigen zelfrijdende auto. Maar omdat ik de technologie niet echt vertrouwde, ontwierp ik er eveneens een val voor.
(Laughter)
(Gelach)
And I do these things mostly because I find them completely fascinating, but also because I think when we talk about technology, we're largely talking about ourselves and the way that we understand the world. So here's a story about technology.
Ik doe dat vooral omdat ik ze helemaal fascinerend vind, maar ook omdat ik denk dat als we het hebben over technologie, we meestal over onszelf praten en de manier waarop we de wereld begrijpen. Dus hier een verhaal over technologie.
This is a "surprise egg" video. It's basically a video of someone opening up loads of chocolate eggs and showing the toys inside to the viewer. That's it. That's all it does for seven long minutes. And I want you to notice two things about this. First of all, this video has 30 million views.
Dit is een surprise-ei-video. Het is een video van iemand die wat chocolade-eieren opent en de kijker het speelgoed erin toont. Dat is het. Dat is alles wat hij zeven lange minuten doet. Twee dingen zijn hier belangrijk om weten. Allereerst is deze video 30 miljoen keer bekeken.
(Laughter)
(Gelach)
And the other thing is, it comes from a channel that has 6.3 million subscribers, that has a total of eight billion views, and it's all just more videos like this -- 30 million people watching a guy opening up these eggs. It sounds pretty weird, but if you search for "surprise eggs" on YouTube, it'll tell you there's 10 million of these videos, and I think that's an undercount. I think there's way, way more of these. If you keep searching, they're endless. There's millions and millions of these videos in increasingly baroque combinations of brands and materials, and there's more and more of them being uploaded every single day. Like, this is a strange world. Right?
En ten tweede komt hij van een kanaal met 6,3 miljoen abonnees, een totaal van acht miljard views, en het is één van een hoop video's zoals deze -- 30 miljoen mensen kijken naar iemand die deze eieren opendoet. Het klinkt raar, maar als je naar surprise-eieren op YouTube zoekt, kan ik je vertellen dat er 10 miljoen van deze video's bestaan, en ik denk dat dat een onderschatting is. Ik denk dat het er veel, veel meer zijn. Als je gaat zoeken, houdt het niet op. Er zijn miljoenen en miljoenen van deze video's, in toenemende barokke combinaties van merken en materialen, en er worden er elke dag meer en meer geüpload. Toch een vreemde wereld, niet?
But the thing is, it's not adults who are watching these videos. It's kids, small children. These videos are like crack for little kids. There's something about the repetition, the constant little dopamine hit of the reveal, that completely hooks them in. And little kids watch these videos over and over and over again, and they do it for hours and hours and hours. And if you try and take the screen away from them, they'll scream and scream and scream. If you don't believe me -- and I've already seen people in the audience nodding -- if you don't believe me, find someone with small children and ask them, and they'll know about the surprise egg videos. So this is where we start. It's 2018, and someone, or lots of people, are using the same mechanism that, like, Facebook and Instagram are using to get you to keep checking that app, and they're using it on YouTube to hack the brains of very small children in return for advertising revenue.
Maar het zijn geen volwassenen die naar deze video's kijken. Het zijn kinderen, kleine kinderen. Deze video's zijn als crack voor kleine kinderen. Iets in de herhaling die steeds weer een kleine dopamine-opstoot geeft, maakt ze er helemaal aan verslaafd. Kleine kinderen bekijken deze video’s opnieuw en opnieuw, uren aan een stuk. Probeer ze niet weg te halen van het scherm, want ze gaan krijsen en gillen. Als jullie me niet geloven -- ik zag al mensen knikken -- als je het niet gelooft, vraag dan iemand met kleine kinderen, zij kennen die surprise-ei-video's. Daar beginnen we mee. Het is 2018, en iemand, of veel mensen, gebruiken hetzelfde mechanisme om, net als Facebook en Instagram, te zorgen dat je die app opzoekt, en ze gebruiken het op YouTube om de hersenen van zeer kleine kinderen te hacken in ruil voor reclame-inkomsten.
At least, I hope that's what they're doing. I hope that's what they're doing it for, because there's easier ways of making ad revenue on YouTube. You can just make stuff up or steal stuff. So if you search for really popular kids' cartoons like "Peppa Pig" or "Paw Patrol," you'll find there's millions and millions of these online as well. Of course, most of them aren't posted by the original content creators. They come from loads and loads of different random accounts, and it's impossible to know who's posting them or what their motives might be. Does that sound kind of familiar? Because it's exactly the same mechanism that's happening across most of our digital services, where it's impossible to know where this information is coming from. It's basically fake news for kids, and we're training them from birth to click on the very first link that comes along, regardless of what the source is. That's doesn't seem like a terribly good idea.
Ik hoop tenminste dat het dat is wat ze doen. Ik hoop dat ze het daarvoor doen, omdat er makkelijker manieren zijn om advertentie-inkomsten te krijgen op YouTube. Je kunt gewoon dingen uitvinden of dingen jatten. Als je naar echt populaire kindercartoons als ‘Pepper Pig’ of ‘Paw Patrol’ zoekt, zal je er ook miljoenen en miljoenen online vinden. Natuurlijk komen de meeste niet van de makers van de originele strips. Ze komen uit heel verschillende willekeurige accounts en het is onmogelijk om te weten wie ze posten of wat hun mogelijke motieven zijn. Komt dat bekend voor? Want precies hetzelfde mechanisme zie je in de meeste digitale dienstverlening, waar je de herkomst van de informatie niet kunt achterhalen. Het is eigenlijk nepnieuws voor kinderen en we zorgen er vanaf de geboorte voor dat ze klikken op de eerste link die langs komt, ongeacht wat de bron is. Dat lijkt geen erg goed idee.
Here's another thing that's really big on kids' YouTube. This is called the "Finger Family Song." I just heard someone groan in the audience. This is the "Finger Family Song." This is the very first one I could find. It's from 2007, and it only has 200,000 views, which is, like, nothing in this game. But it has this insanely earwormy tune, which I'm not going to play to you, because it will sear itself into your brain in the same way that it seared itself into mine, and I'm not going to do that to you. But like the surprise eggs, it's got inside kids' heads and addicted them to it. So within a few years, these finger family videos start appearing everywhere, and you get versions in different languages with popular kids' cartoons using food or, frankly, using whatever kind of animation elements you seem to have lying around. And once again, there are millions and millions and millions of these videos available online in all of these kind of insane combinations. And the more time you start to spend with them, the crazier and crazier you start to feel that you might be.
Dit is ook echt populair op YouTube voor kinderen. Dit heet de ‘Finger Family Song’. Ik hoorde net iemand in het publiek kreunen. Dit is de ‘Finger Family Song’. Dit is de eerste die ik kon vinden. Hij is van 2007 en is slechts 200.000 keer bekeken, wat echt niets is in dit spel. Maar het muziekje is een echte oorworm, die ik jullie zal besparen, omdat hij zich in je hersenen brandt net zoals hij zich in de mijne inbrandde. Ik wil het jullie niet aandoen. Maar net als de surprise-eieren kroop het in de kinderhoofdjes en maakte hen eraan verslaafd. Binnen enkele jaren verschenen deze ‘vingerfamilie’- video’s overal, met versies in verschillende talen, met populaire kinderstrips met voedsel, of met eender wat voor animatie-elementen die je ter beschikking hebt. En er zijn miljoenen en miljoenen van deze video's online beschikbaar in allerlei soorten krankzinnige combinaties. Hoe meer tijd je eraan spendeert, des te gekker je je begint te voelen.
And that's where I kind of launched into this, that feeling of deep strangeness and deep lack of understanding of how this thing was constructed that seems to be presented around me. Because it's impossible to know where these things are coming from. Like, who is making them? Some of them appear to be made of teams of professional animators. Some of them are just randomly assembled by software. Some of them are quite wholesome-looking young kids' entertainers. And some of them are from people who really clearly shouldn't be around children at all.
Daar ben ik dan mee begonnen, over hoe dat gevoel van diepe vreemdheid en diep gebrek aan inzicht aan hoe dit ding, dat je overal ziet, in elkaar werd gestoken. Omdat het onmogelijk is om de herkomst te weten of wie ze maakt. Sommige lijken gemaakt door teams van professionele animators. Sommige lijken gewoon willekeurig samengesteld door software. Sommige zien eruit als heel normaal kindervermaak. En sommige lijken te komen van mensen die je beter weghoudt van kinderen.
(Laughter)
(Gelach)
And once again, this impossibility of figuring out who's making this stuff -- like, this is a bot? Is this a person? Is this a troll? What does it mean that we can't tell the difference between these things anymore? And again, doesn't that uncertainty feel kind of familiar right now?
En dan weer de onmogelijkheid om de bron te achterhalen -- zoals, is dit een bot? Of een persoon? Of een trol? Wat betekent het dat we het verschil tussen deze dingen niet meer zien? En komt dat gevoel van onzekerheid jullie ook niet een beetje bekend voor?
So the main way people get views on their videos -- and remember, views mean money -- is that they stuff the titles of these videos with these popular terms. So you take, like, "surprise eggs" and then you add "Paw Patrol," "Easter egg," or whatever these things are, all of these words from other popular videos into your title, until you end up with this kind of meaningless mash of language that doesn't make sense to humans at all. Because of course it's only really tiny kids who are watching your video, and what the hell do they know? Your real audience for this stuff is software. It's the algorithms. It's the software that YouTube uses to select which videos are like other videos, to make them popular, to make them recommended. And that's why you end up with this kind of completely meaningless mash, both of title and of content.
De belangrijkste manier om views te krijgen -- en views krijgen brengt geld op -- is deze video’s te voorzien van populaire termen. Bijvoorbeeld surprise-eieren koppel je aan ‘Paw Patrol’ of ‘Easter Egg’ of wat dan ook, en steek woorden uit andere populaire video’s in je titel tot een nietszeggende taalpuree zonder enige betekenis voor mensen. Want natuurlijk zijn het alleen erg kleine kinderen die je video bekijken en die beseffen het niet. Je echte publiek voor dit spul is software. Het zijn de algoritmen. Het is de software van YouTube die kiest welke video's net als andere video's zijn, om ze populair te maken, om ze aan te bevelen. En dat is waarom je eindigt met dit soort volkomen zinloze puree, zowel van titel als van inhoud.
But the thing is, you have to remember, there really are still people within this algorithmically optimized system, people who are kind of increasingly forced to act out these increasingly bizarre combinations of words, like a desperate improvisation artist responding to the combined screams of a million toddlers at once. There are real people trapped within these systems, and that's the other deeply strange thing about this algorithmically driven culture, because even if you're human, you have to end up behaving like a machine just to survive.
Maar je mag niet vergeten dat er nog steeds mensen zitten achter dit algoritmisch geoptimaliseerd systeem, mensen die meer en meer deze steeds meer bizarre woordcombinaties moeten naspelen als een wanhopige improvisatiekunstenaar die reageert op het gecombineerde gekrijs van een miljoen peuters. Er zitten echte mensen gevangen in deze systemen en dat is het andere zeer vreemde iets aan deze door algoritmen gedreven cultuur, want zelfs als mens, moet je je uiteindelijk als een machine gaan gedragen om te overleven.
And also, on the other side of the screen, there still are these little kids watching this stuff, stuck, their full attention grabbed by these weird mechanisms. And most of these kids are too small to even use a website. They're just kind of hammering on the screen with their little hands. And so there's autoplay, where it just keeps playing these videos over and over and over in a loop, endlessly for hours and hours at a time. And there's so much weirdness in the system now that autoplay takes you to some pretty strange places. This is how, within a dozen steps, you can go from a cute video of a counting train to masturbating Mickey Mouse. Yeah. I'm sorry about that. This does get worse. This is what happens when all of these different keywords, all these different pieces of attention, this desperate generation of content, all comes together into a single place. This is where all those deeply weird keywords come home to roost. You cross-breed the finger family video with some live-action superhero stuff, you add in some weird, trollish in-jokes or something, and suddenly, you come to a very weird place indeed.
En ook aan de andere kant van het scherm zitten nog steeds die kleine kinderen te kijken naar dit spul, vastgeplakt, hun volledige aandacht gegrepen door die rare mechanismen. De meesten zijn zelfs te klein om een website gebruiken. Ze tokkelen gewoon wat met hun kleine handjes op het scherm. En dus is er autoplay, waardoor deze video’s in een lus blijven doorspelen, onophoudelijk, uren en uren aan een stuk. Het systeem is nu zo raar dat autoplay je op hele vreemde plaatsen brengt. Zo kan je in een tiental stappen van een leuke video met een tellende trein bij een masturberende Mickey Mouse terechtkomen. Ja. Sorry daarvoor. Het wordt nog erger. Dit is wat er gebeurt wanneer al deze verschillende zoekwoorden, al deze verschillende aandachtspunten, deze wanhopige productie van inhoud, allemaal op een enkele plaats samenkomt. Daar vind je die zeer rare trefwoorden samen. Je bestuift de vingerfamilie-video met wat superheldenactie, doe er nog wat rare, trolse grappen of zoiets bij, en plotseling kom je op een zeer rare plek terecht.
The stuff that tends to upset parents is the stuff that has kind of violent or sexual content, right? Children's cartoons getting assaulted, getting killed, weird pranks that actually genuinely terrify children. What you have is software pulling in all of these different influences to automatically generate kids' worst nightmares. And this stuff really, really does affect small children. Parents report their children being traumatized, becoming afraid of the dark, becoming afraid of their favorite cartoon characters. If you take one thing away from this, it's that if you have small children, keep them the hell away from YouTube.
Bij dingen die ouders nogal van streek maken, dingen met een gewelddadige of seksuele inhoud. Kindercartoons met aangevallen worden, gedood worden, met rare, echt angstaanjagende dingen voor kinderen. Software die via al deze verschillende invloeden automatisch de ergste nachtmerries voor kinderen genereert. En dit spul heeft echt, echt invloed op kleine kinderen. Ouders zeggen dat hun kinderen getraumatiseerd zijn, altijd bang in het donker, altijd bang van hun striphelden. Het belangrijkste om te onthouden is dat als je kleine kinderen hebt, je ze absoluut moet weghouden van YouTube.
(Applause)
(Applaus)
But the other thing, the thing that really gets to me about this, is that I'm not sure we even really understand how we got to this point. We've taken all of this influence, all of these things, and munged them together in a way that no one really intended. And yet, this is also the way that we're building the entire world. We're taking all of this data, a lot of it bad data, a lot of historical data full of prejudice, full of all of our worst impulses of history, and we're building that into huge data sets and then we're automating it. And we're munging it together into things like credit reports, into insurance premiums, into things like predictive policing systems, into sentencing guidelines. This is the way we're actually constructing the world today out of this data. And I don't know what's worse, that we built a system that seems to be entirely optimized for the absolute worst aspects of human behavior, or that we seem to have done it by accident, without even realizing that we were doing it, because we didn't really understand the systems that we were building, and we didn't really understand how to do anything differently with it.
Wat mij pas echt verontrust, is dat ik betwijfel of we begrijpen hoe we zover zijn geraakt. We hebben al deze beïnvloeding, al deze dingen dooreen gemixt op een manier die niemand echt bedoelde. En toch is dit ook de manier waarop we de hele wereld opbouwen. We nemen al deze gegevens, een hoop slechte data, een hoop historische gegevens vol vooroordelen en onze slechtste neigingen uit ons verleden, en steken die in grote datasets die we dan automatiseren. We vermalen dat tot dingen als kredietrapporten, verzekeringspremies, voorspellende controlesystemen, veroordelingsrichtlijnen. Zo construeren we in feite de wereld van vandaag uit deze gegevens. En ik weet niet wat erger is, dat we een systeem bouwden dat volledig geoptimaliseerd lijkt voor de allerslechtste aspecten van het menselijk gedrag, of dat we het misschien per ongeluk deden, zonder zelfs maar te beseffen dat we het deden, omdat we de systemen die we bouwden niet echt begrepen en we niet echt doorhadden hoe er iets anders mee te doen.
There's a couple of things I think that really seem to be driving this most fully on YouTube, and the first of those is advertising, which is the monetization of attention without any real other variables at work, any care for the people who are actually developing this content, the centralization of the power, the separation of those things. And I think however you feel about the use of advertising to kind of support stuff, the sight of grown men in diapers rolling around in the sand in the hope that an algorithm that they don't really understand will give them money for it suggests that this probably isn't the thing that we should be basing our society and culture upon, and the way in which we should be funding it.
Er zijn een paar dingen waarvan ik denk dat ze dit lijken te sturen, vooral op YouTube, en het eerste is de reclame, dat is het te gelde maken van de aandacht zonder enige echte andere variabelen aan het werk, geen zorg voor de mensen die deze inhoud ontwikkelen, de centralisatie van de macht, de scheiding van die dingen. Ik denk dat wat je ook denkt over het gebruik van de reclame om iets te ondersteunen, dat de aanblik van volwassen mannen die in luiers ronddollen in het zand in de hoop dat een algoritme dat ze niet echt begrijpen hen er geld voor zal geven, suggereert dat dit niet de beste basis is voor onze samenleving en cultuur en van de manier waarop we ze financieren. En wat deze automatisering vooral ook aanstuurt,
And the other thing that's kind of the major driver of this is automation, which is the deployment of all of this technology as soon as it arrives, without any kind of oversight, and then once it's out there, kind of throwing up our hands and going, "Hey, it's not us, it's the technology." Like, "We're not involved in it." That's not really good enough, because this stuff isn't just algorithmically governed, it's also algorithmically policed. When YouTube first started to pay attention to this, the first thing they said they'd do about it was that they'd deploy better machine learning algorithms to moderate the content. Well, machine learning, as any expert in it will tell you, is basically what we've started to call software that we don't really understand how it works. And I think we have enough of that already. We shouldn't be leaving this stuff up to AI to decide what's appropriate or not, because we know what happens. It'll start censoring other things. It'll start censoring queer content. It'll start censoring legitimate public speech. What's allowed in these discourses, it shouldn't be something that's left up to unaccountable systems. It's part of a discussion all of us should be having.
is de toepassing van al deze technologie zodra ze er is, zonder enige vorm van toezicht, en eens ze er is, we onze handen in de lucht steken en roepen: “Hè, wij niet, het is de technologie. Wij zijn er niet bij betrokken.” Dat is echt niet goed genoeg, omdat dit spul niet alleen algoritmisch wordt bestuurd, maar ook algoritmisch gecontroleerd. Toen YouTube hier aandacht aan begon te geven, zeiden ze dat ze betere algoritmen voor machinaal leren zouden inzetten om de inhoud te matigen. Machineleren ... Elke deskundige kan je vertellen dat dit eigenlijk software is waarvan we niet echt begrijpen hoe hij werkt. Daar hebben we al genoeg van, zou ik denken. We moeten niet aan KI overlaten om te beslissen wat wel of niet geschikt is, omdat we weten wat er dan gebeurt. Het zal andere dingen gaan censureren. Bijvoorbeeld items over homo’s. Of het vrije woord. Wat hier mag, moet je niet overlaten aan onverantwoordelijke systemen. Aan deze discussie zouden we allemaal moeten deelnemen.
But I'd leave a reminder that the alternative isn't very pleasant, either. YouTube also announced recently that they're going to release a version of their kids' app that would be entirely moderated by humans. Facebook -- Zuckerberg said much the same thing at Congress, when pressed about how they were going to moderate their stuff. He said they'd have humans doing it. And what that really means is, instead of having toddlers being the first person to see this stuff, you're going to have underpaid, precarious contract workers without proper mental health support being damaged by it as well.
Maar ik zou er op willen wijzen dat het alternatief ook niet erg leuk is. YouTube kondigde onlangs ook aan dat er een versie van hun kinderapp uitkomt die volledig door mensen zou worden gemodereerd. Facebook –- Zuckerberg zei ongeveer hetzelfde in het Congres toen ze hem vroegen over hoe ze hun zaken zouden gaan matigen. Hij zei dat mensen het zouden gaan doen. Dat betekent in feite dat niet peuters dit als eersten zouden zien, maar wel onderbetaalde, losse werknemers met een contract, zonder juiste mentale ondersteuning en evengoed het slachtoffer ervan.
(Laughter)
(Gelach)
And I think we can all do quite a lot better than that.
Ik denk dat we dat allemaal veel beter kunnen doen.
(Applause)
(Applaus)
The thought, I think, that brings those two things together, really, for me, is agency. It's like, how much do we really understand -- by agency, I mean: how we know how to act in our own best interests. Which -- it's almost impossible to do in these systems that we don't really fully understand. Inequality of power always leads to violence. And we can see inside these systems that inequality of understanding does the same thing. If there's one thing that we can do to start to improve these systems, it's to make them more legible to the people who use them, so that all of us have a common understanding of what's actually going on here.
Wat volgens mij die twee dingen echt samenbrengt, is ‘agency’. Het gaat om hoeveel we echt begrijpen. Met agency bedoel ik: hoe weten we hoe te handelen in ons eigen belang. Wat bijna onmogelijk is om te doen met deze systemen die we niet ten volle begrijpen. Machtsongelijkheid leidt altijd tot geweld. En we kunnen zien dat in deze systemen ongelijkheid van begrip hetzelfde doet. Dat kunnen we al doen om deze systemen te verbeteren: ze begrijpelijker maken voor de gebruikers, zodat we allemaal weten wat hier werkelijk gaande is.
The thing, though, I think most about these systems is that this isn't, as I hope I've explained, really about YouTube. It's about everything. These issues of accountability and agency, of opacity and complexity, of the violence and exploitation that inherently results from the concentration of power in a few hands -- these are much, much larger issues. And they're issues not just of YouTube and not just of technology in general, and they're not even new. They've been with us for ages. But we finally built this system, this global system, the internet, that's actually showing them to us in this extraordinary way, making them undeniable. Technology has this extraordinary capacity to both instantiate and continue all of our most extraordinary, often hidden desires and biases and encoding them into the world, but it also writes them down so that we can see them, so that we can't pretend they don't exist anymore. We need to stop thinking about technology as a solution to all of our problems, but think of it as a guide to what those problems actually are, so we can start thinking about them properly and start to address them.
Het probleem met de meeste van deze systemen is dat dit niet alleen geldt, zoals ik hopelijk heb uitgelegd, voor YouTube. Het gaat over alles. Deze kwesties van verantwoording en agency, van ondoorzichtigheid en complexiteit, van het geweld en uitbuiting die inherent voortkomen uit de concentratie van macht in weinig handen -- dat zijn veel, veel grotere problemen. Niet alleen problemen van YouTube of van technologie in het algemeen, ze zijn zelfs niet nieuw. We hebben ze al eeuwen. Maar tenslotte bouwden wij dit systeem, dit mondiale systeem, het internet, dat ons de problemen laat zien op deze bijzondere manier, waardoor we ze niet kunnen ontkennen. Technologie heeft de buitengewone capaciteit om al onze meest bijzondere, vaak verborgen verlangens en vooroordelen te presenteren en te continueren en ze in de wereld te coderen, maar ze ook op te schrijven, zodat we ze kunnen zien, zodat we niet meer kunnen doen alsof ze niet bestaan. We moeten stoppen met denken over technologie als een oplossing voor al onze problemen, maar ze zien als een gids voor wat die problemen werkelijk zijn, zodat we er op de juiste manier aan gaan denken en ze beginnen aan te pakken.
Thank you very much.
Veel dank.
(Applause)
(Applaus)
Thank you.
Dank je.
(Applause)
(Applaus)
Helen Walters: James, thank you for coming and giving us that talk. So it's interesting: when you think about the films where the robotic overlords take over, it's all a bit more glamorous than what you're describing. But I wonder -- in those films, you have the resistance mounting. Is there a resistance mounting towards this stuff? Do you see any positive signs, green shoots of resistance?
Helen Walters: James, ik dank je voor je komst en je talk. Dit is interessant: als je denkt aan de films waar robotheersers het overnemen, is het allemaal een beetje blitser dan wat jij beschrijft. Maar ik vraag me af -- in die films zie je de weerstand toenemen. Neemt de weerstand tegen dit spul ook toe? Zie je geen positieve signalen, tekenen van verzet?
James Bridle: I don't know about direct resistance, because I think this stuff is super long-term. I think it's baked into culture in really deep ways. A friend of mine, Eleanor Saitta, always says that any technological problems of sufficient scale and scope are political problems first of all. So all of these things we're working to address within this are not going to be addressed just by building the technology better, but actually by changing the society that's producing these technologies. So no, right now, I think we've got a hell of a long way to go. But as I said, I think by unpacking them, by explaining them, by talking about them super honestly, we can actually start to at least begin that process.
James Bridle: Ik zie geen directe weerstand, ik denk dat dit over superlange termijn werkt. Ik denk dat het diep ingebakken zit in de cultuur. Een vriend van mij, Eleanor Saitta, zegt altijd dat alle technologische problemen van voldoende omvang en reikwijdte in de eerste plaats politieke problemen zijn. Dus gaan al die dingen waaraan we willen werken niet worden aangepakt door alleen maar betere technologie, maar door de samenleving te veranderen waarin deze technologieën ontstonden. Nee, ik denk dat we nog een heel lange weg hebben te gaan. Maar ik zei al dat door ze te ontleden, door ze uit te leggen, er heel eerlijk over te praten, we tenminste met dat proces kunnen beginnen.
HW: And so when you talk about legibility and digital literacy, I find it difficult to imagine that we need to place the burden of digital literacy on users themselves. But whose responsibility is education in this new world?
HW: Wanneer je het hebt over begrip en digitale geletterdheid vind ik het moeilijk voor te stellen dat we de last van digitale geletterdheid bij de gebruikers zelf moeten leggen. Wie wordt verantwoordelijk voor opvoeding in deze nieuwe wereld?
JB: Again, I think this responsibility is kind of up to all of us, that everything we do, everything we build, everything we make, needs to be made in a consensual discussion with everyone who's avoiding it; that we're not building systems intended to trick and surprise people into doing the right thing, but that they're actually involved in every step in educating them, because each of these systems is educational. That's what I'm hopeful about, about even this really grim stuff, that if you can take it and look at it properly, it's actually in itself a piece of education that allows you to start seeing how complex systems come together and work and maybe be able to apply that knowledge elsewhere in the world.
JB: Het gaat ieders verantwoordelijkheid worden, dat alles wat we doen, alles wat we bouwen, alles wat we maken, moet worden gemaakt in samenspraak met iedereen die ze uit de weg gaat. Dat we geen systemen bouwen bedoeld om mensen te verleiden om het juiste te doen, maar ze daadwerkelijk betrekken bij elke stap van hun opvoeding, omdat al deze systemen educatief zijn. Hoe grimmig het ook is, ik hoop dat als je het aanpakt en er vanuit de juiste hoek naar kijkt, het op zichzelf al een stuk opvoeding is dat je toelaat om te zien hoe complexe systemen samenkomen en werken en misschien deze kennis elders in de wereld kunnen toepassen.
HW: James, it's such an important discussion, and I know many people here are really open and prepared to have it, so thanks for starting off our morning.
HW: James, dit is zo'n belangrijke discussie en veel mensen hier staan ervoor open, dus bedankt om onze voormiddag te beginnen.
JB: Thanks very much. Cheers.
JB: Heel erg bedankt.
(Applause)
(Applaus)