I'm James. I'm a writer and artist, and I make work about technology. I do things like draw life-size outlines of military drones in city streets around the world, so that people can start to think and get their heads around these really quite hard-to-see and hard-to-think-about technologies. I make things like neural networks that predict the results of elections based on weather reports, because I'm intrigued about what the actual possibilities of these weird new technologies are. Last year, I built my own self-driving car. But because I don't really trust technology, I also designed a trap for it.
Eu sunt James. Sunt scriitor și artist și domeniul meu este tehnologia. Desenez schițe în mărime naturală pentru drone militare pe străzile orașelor de prin lume pentru ca oamenii să se poată gândi și să poată înțelege această tehnologie greu de văzut și greu de imaginat. Eu concep lucruri precum rețele neurale care prezic rezultatele alegerilor, având la bază prognozele vremii, pentru că sunt intrigat de posibilitățile propriu-zise pe care le au aceste tehnologii bizare. Acum un an mi-am făcut o mașină care se conduce singură. Însă, pentru că nu prea mă încred în tehnologie, i-am creat și o capcană.
(Laughter)
(Râsete)
And I do these things mostly because I find them completely fascinating, but also because I think when we talk about technology, we're largely talking about ourselves and the way that we understand the world. So here's a story about technology.
Și fac toate acestea în special pentru că le consider absolut fascinante, dar și pentru că eu cred că atunci când vorbim despre tehnologie, vorbim, în mare măsură, despre noi înșine și despre modul în care înțelegem lumea. Așa că, iată o poveste despre tehnologie.
This is a "surprise egg" video. It's basically a video of someone opening up loads of chocolate eggs and showing the toys inside to the viewer. That's it. That's all it does for seven long minutes. And I want you to notice two things about this. First of all, this video has 30 million views.
Acesta este un filmuleț despre „ouă cu surprize”. Este un filmuleț cu cineva care desface o grămadă de ouă de ciocolată și arată jucăriile din interior. Asta e tot. Numai asta face timp de șapte minute lungi. Și aș vrea să observați două aspecte despre acest lucru. În primul rând, acest filmuleț are 30 milioane de vizualizări.
(Laughter)
(Râsete)
And the other thing is, it comes from a channel that has 6.3 million subscribers, that has a total of eight billion views, and it's all just more videos like this -- 30 million people watching a guy opening up these eggs. It sounds pretty weird, but if you search for "surprise eggs" on YouTube, it'll tell you there's 10 million of these videos, and I think that's an undercount. I think there's way, way more of these. If you keep searching, they're endless. There's millions and millions of these videos in increasingly baroque combinations of brands and materials, and there's more and more of them being uploaded every single day. Like, this is a strange world. Right?
Și celălalt lucru: el provine de pe un canal care are 6,3 milioane de abonați, care are opt miliarde de vizualizări, și sunt doar alte filmulețe ca acesta - 30 de milioane de oameni urmărind un om care desface aceste ouă. Sună destul de ciudat, dar dacă am căuta „ouă cu surprize” pe YouTube, vom vedea că sunt 10 milioane de astfel de filmulețe, și cred că asta e o vagă estimare. Cred că sunt mult, mult mai multe. Dacă vom continua să căutăm, sunt infinite. Sunt milioane și milioane de astfel de filme în nenumărate combinații sofisticate de firme și materiale, și tot mai multe sunt încărcate în fiecare zi. Chiar că e o lume ciudată. Nu-i așa?
But the thing is, it's not adults who are watching these videos. It's kids, small children. These videos are like crack for little kids. There's something about the repetition, the constant little dopamine hit of the reveal, that completely hooks them in. And little kids watch these videos over and over and over again, and they do it for hours and hours and hours. And if you try and take the screen away from them, they'll scream and scream and scream. If you don't believe me -- and I've already seen people in the audience nodding -- if you don't believe me, find someone with small children and ask them, and they'll know about the surprise egg videos. So this is where we start. It's 2018, and someone, or lots of people, are using the same mechanism that, like, Facebook and Instagram are using to get you to keep checking that app, and they're using it on YouTube to hack the brains of very small children in return for advertising revenue.
Dar chestia e că nu adulții vizionează aceste filmulețe. Ci puștii, copiii mici. Aceste filmulețe sunt ca un drog pentru copii. S-ar părea că prezentarea repetată, mica doză de dopamină dată de descoperirea surprizei e ceea ce îi atrage foarte tare. Și copiii urmăresc aceste filmulețe iarăși și iarăși, și o fac ore întregi. Și dacă încerci să le iei ecranul, vor începe să țipe mult și bine. Dacă nu mă credeți - și deja am și văzut persoane din public dând din cap - dacă nu mă credeți, căutați pe cineva care are copii, întrebați-i și vă vor spune ei despre filmele cu ouă cu surpriză. Așadar, de aici începem. E anul 2018 și cineva sau chiar mai mulți oameni folosesc același mecanism care, la fel ca Facebook și Instagram, ne fac să ne tot verificăm aplicația, și folosesc asta și pe YouTube pentru a „subjuga” creierul copiilor mici în schimbul veniturilor din publicitate.
At least, I hope that's what they're doing. I hope that's what they're doing it for, because there's easier ways of making ad revenue on YouTube. You can just make stuff up or steal stuff. So if you search for really popular kids' cartoons like "Peppa Pig" or "Paw Patrol," you'll find there's millions and millions of these online as well. Of course, most of them aren't posted by the original content creators. They come from loads and loads of different random accounts, and it's impossible to know who's posting them or what their motives might be. Does that sound kind of familiar? Because it's exactly the same mechanism that's happening across most of our digital services, where it's impossible to know where this information is coming from. It's basically fake news for kids, and we're training them from birth to click on the very first link that comes along, regardless of what the source is. That's doesn't seem like a terribly good idea.
Cel puțin, sper că asta fac. Sper că pentru asta o fac, pentru că sunt căi mai simple de a obține vebituri din publicitate pe YouTube. Poți să inventezi ceva sau să furi ceva. Așa că, atunci când cauți desene animate foarte populare ca „Peppa Pig” sau „Paw Patrol”, vei afla că sunt milioane și milioane din acestea online. Desigur, cele mai multe nu sunt postate de creatorii originali. Ele vin din încărcări peste încărcări din diferite conturi și este imposibil să afli cine le postează sau care ar putea fi motivele lor. Toate astea vă sună cumva cunoscut? Pentru că e exact același mecanism folosit de multe dintre serviciile noastre digitale în care e imposibil să afli de unde vine informația. De fapt, e știre falsă pentru copii, iar noi îi pregătim încă de la naștere să acceseze chiar primul link care apare, indiferent de sursă. Nu pare să fie o idee prea bună.
Here's another thing that's really big on kids' YouTube. This is called the "Finger Family Song." I just heard someone groan in the audience. This is the "Finger Family Song." This is the very first one I could find. It's from 2007, and it only has 200,000 views, which is, like, nothing in this game. But it has this insanely earwormy tune, which I'm not going to play to you, because it will sear itself into your brain in the same way that it seared itself into mine, and I'm not going to do that to you. But like the surprise eggs, it's got inside kids' heads and addicted them to it. So within a few years, these finger family videos start appearing everywhere, and you get versions in different languages with popular kids' cartoons using food or, frankly, using whatever kind of animation elements you seem to have lying around. And once again, there are millions and millions and millions of these videos available online in all of these kind of insane combinations. And the more time you start to spend with them, the crazier and crazier you start to feel that you might be.
Iată altceva care are mare succes pe YouTube pentru copii. Se numește „Cântecul Familiei Degețel.” Am auzit pe cineva oftând în public. Iată „Cântecul Familiei Degețel.” E chiar primul pe care l-am putut găsi. E din 2007 și are doar 200.000 de vizualizări, ceea ce e foarte puțin în acest „joc”. Dar are o melodie îngrozitor de pregnantă, pe care n-am să v-o pun acum, pentru că vi s-ar „lipi” de creier, așa cum s-a întâmplat în cazul meu, și n-am de gând să vă fac așa ceva. Dar, ca și ouăle cu surprize, melodia a intrat în capul copiilor și i-a făcut dependenți de ea. În doar câțiva ani, filmele cu familia Degețel au tot apărut peste tot, în variante în diverse limbi, cu desene animate care folosesc mâncare sau, sincer, orice fel de elemente de animație pe care le ai în preajma ta. Sunt milioane și milioane de astfel de filmulețe accesibile pe internet, în tot felul de combinații ciudate. Cu cât începi să petreci mai mult timp cu ele, cu atât ai senzația că te înnebunesc.
And that's where I kind of launched into this, that feeling of deep strangeness and deep lack of understanding of how this thing was constructed that seems to be presented around me. Because it's impossible to know where these things are coming from. Like, who is making them? Some of them appear to be made of teams of professional animators. Some of them are just randomly assembled by software. Some of them are quite wholesome-looking young kids' entertainers. And some of them are from people who really clearly shouldn't be around children at all.
Ăsta e momentul în care am început să mă ocup de asta, de acel sentiment bizar dat de lipsa de înțelegere a felului în care era conceput acel ceva prezent mereu în jurul meu. Căci e imposibil să știm de unde vin aceste lucruri. Cum ar fi, cine le face? Unele par a fi concepute de echipe de animatori profesioniști. Altele sunt asamblate întâmplător de vreun program software, Unele sunt chiar niște superbi animatori pentru copii. Unele vin din partea unor oameni care nu ar trebui lăsați în preajma copiilor.
(Laughter)
(Râsete)
And once again, this impossibility of figuring out who's making this stuff -- like, this is a bot? Is this a person? Is this a troll? What does it mean that we can't tell the difference between these things anymore? And again, doesn't that uncertainty feel kind of familiar right now?
Repet, această imposibilitate de a ști cine creează aceste lucruri - o fi un program de calculator sau e o persoană? E un trol? Ce înseamnă să nu mai putem face diferența dintre aceste lucruri? Mai mult, nu vi se pare că această nesiguranța vă este familiară?
So the main way people get views on their videos -- and remember, views mean money -- is that they stuff the titles of these videos with these popular terms. So you take, like, "surprise eggs" and then you add "Paw Patrol," "Easter egg," or whatever these things are, all of these words from other popular videos into your title, until you end up with this kind of meaningless mash of language that doesn't make sense to humans at all. Because of course it's only really tiny kids who are watching your video, and what the hell do they know? Your real audience for this stuff is software. It's the algorithms. It's the software that YouTube uses to select which videos are like other videos, to make them popular, to make them recommended. And that's why you end up with this kind of completely meaningless mash, both of title and of content.
În principal, oamenii își asigură vizualizările — reținem, vizualizările înseamnă bani — folosind în titlurile filmulețelor termeni foarte populari. Luăm, de pildă, „ouăle cu surprize” plus „Patrula Cățelușilor”, „Ouă de Paște” sau orice altceva, cuvinte din alte filmulețe populare, aduse în titlu, până obținem un soi de terci lingvistic fără înțeles, ce nu mai are niciun sens pentru oameni. Căci doar copiii mici se uită la astfel de filmulețe și ce naiba știu ei? Publicul tău țintă e programul software. Sunt algoritmii. Programul de soft folosit de YouTube pentru a alege ce filmulețe se aseamănă, pentru a le face populare, pentru a le recomanda. Așa ne alegem cu un amestec total lipsit de sens în titlu și în conținut.
But the thing is, you have to remember, there really are still people within this algorithmically optimized system, people who are kind of increasingly forced to act out these increasingly bizarre combinations of words, like a desperate improvisation artist responding to the combined screams of a million toddlers at once. There are real people trapped within these systems, and that's the other deeply strange thing about this algorithmically driven culture, because even if you're human, you have to end up behaving like a machine just to survive.
Dar, să nu uităm, încă există oameni în acest sistem optimizat algoritmic, care sunt forțați să răspundă la aceste combinații bizare de cuvinte, precum un artist de improvizație reacționând în fața țipetelor simultane ale milioane de copilași. Oameni adevărați sunt captivi în aceste sisteme, un alt aspect deosebit de straniu al culturii dirijate prin algoritmi, căci, deși suntem oameni, ajungem să ne purtăm precum mașini doar pentru a supraviețui.
And also, on the other side of the screen, there still are these little kids watching this stuff, stuck, their full attention grabbed by these weird mechanisms. And most of these kids are too small to even use a website. They're just kind of hammering on the screen with their little hands. And so there's autoplay, where it just keeps playing these videos over and over and over in a loop, endlessly for hours and hours at a time. And there's so much weirdness in the system now that autoplay takes you to some pretty strange places. This is how, within a dozen steps, you can go from a cute video of a counting train to masturbating Mickey Mouse. Yeah. I'm sorry about that. This does get worse. This is what happens when all of these different keywords, all these different pieces of attention, this desperate generation of content, all comes together into a single place. This is where all those deeply weird keywords come home to roost. You cross-breed the finger family video with some live-action superhero stuff, you add in some weird, trollish in-jokes or something, and suddenly, you come to a very weird place indeed.
De cealaltă parte a ecranului, încă îi avem pe copilașii care vizionează captivați, total absorbiți de aceste mecanisme ciudate. Majoritatea sunt prea mici să intre pe pagina web. Doar lovesc ecranul cu mâinile lor mici. Și filmulețul repornește și o ia mereu de la început ca într-o buclă temporală, ore și ore, la nesfârșit. Și e atâta ciudățenie în sistem acum, încât reluările ne duc în niște locuri bizare. Astfel încât, cu doar câțiva pași, poți ajunge de la un filmuleț simpatic cu un trenuleț care numără la un Mickey Mouse care se masturbează. Da. Îmi pare rău pentru asta. Și asta se înrăutățește. Iată ce se întâmplă când toate aceste cuvinte cheie diferite, toată atenția, toată generarea disperată de conținut, ajung să fie puse împreună în același loc. Acolo unde aceste cuvinte cheie bizare dau rod. Combinând filmulețul cu familia Degețel cu ceva acțiune cu super eroi, și adăugând ceva chestii ciudate, ---------- triviale, se ajunge într-o zonă cu adevărat stranie.
The stuff that tends to upset parents is the stuff that has kind of violent or sexual content, right? Children's cartoons getting assaulted, getting killed, weird pranks that actually genuinely terrify children. What you have is software pulling in all of these different influences to automatically generate kids' worst nightmares. And this stuff really, really does affect small children. Parents report their children being traumatized, becoming afraid of the dark, becoming afraid of their favorite cartoon characters. If you take one thing away from this, it's that if you have small children, keep them the hell away from YouTube.
Ceea ce îi deranjează pe părinți este un material cu conținut violent sau sexual, nu-i așa? Desene animate pentru copii, cu violență, sau cu omoruri, farse bizare care, literalmente, îi sperie pe copii. E vorba de programe ce folosesc toate astea pentru a le crea copiilor cele mai urâte coșmaruri. Și copiii mici sunt cu adevărat marcați. Părinții se plâng că le sunt traumatizați copiii, că le e frică de întuneric, că se tem de personajele favorite din desenele animate. Dacă ar fi să rețineți ceva de aici, în cazul în care aveți copii mici, faceți bine și țineți-i departe de YouTube.
(Applause)
(Aplauze)
But the other thing, the thing that really gets to me about this, is that I'm not sure we even really understand how we got to this point. We've taken all of this influence, all of these things, and munged them together in a way that no one really intended. And yet, this is also the way that we're building the entire world. We're taking all of this data, a lot of it bad data, a lot of historical data full of prejudice, full of all of our worst impulses of history, and we're building that into huge data sets and then we're automating it. And we're munging it together into things like credit reports, into insurance premiums, into things like predictive policing systems, into sentencing guidelines. This is the way we're actually constructing the world today out of this data. And I don't know what's worse, that we built a system that seems to be entirely optimized for the absolute worst aspects of human behavior, or that we seem to have done it by accident, without even realizing that we were doing it, because we didn't really understand the systems that we were building, and we didn't really understand how to do anything differently with it.
Un alt lucru care mă îngrijorează, referitor la această problemă, este că nu sunt sigur că noi înțelegem cum s-a ajuns în acest punct. Am preluat toată această influență, toate lucrurile astea, și le-am combinat într-o manieră pe care n-a dorit-o nimeni. Totuși, acesta este felul în care ne construim întreaga lume. Luăm toate informațiile, multe dintre ele proaste, date istorice pline de prejudecăți și de cele mai rele impulsuri ale istoriei și concepem astfel seturi imense de date pe care le automatizăm. Și le concentrăm în rapoarte de credit, asigurări premium, sisteme de predicție în munca poliției, regulamente și directive. Așa ne concepem lumea de azi, din astfel de date. Și nu știu ce e mai rău: că am construit un sistem care pare optimizat pentru aspectele negative ale comportamentului uman sau faptul că pare că am comis-o din greșeală, fără a ne da seama că am făcut-o pentru că nu înțelegeam pe deplin sistemul pe care îl cream, pentru că nu înțelegeam pe deplin cum să schimbăm ceva prin el.
There's a couple of things I think that really seem to be driving this most fully on YouTube, and the first of those is advertising, which is the monetization of attention without any real other variables at work, any care for the people who are actually developing this content, the centralization of the power, the separation of those things. And I think however you feel about the use of advertising to kind of support stuff, the sight of grown men in diapers rolling around in the sand in the hope that an algorithm that they don't really understand will give them money for it suggests that this probably isn't the thing that we should be basing our society and culture upon, and the way in which we should be funding it.
Ar fi o serie de lucruri care controlează totul mai ales pe YouTube, iar primul ar fi publicitatea, adică monetizarea atenției, fără a ține cont de alte variabile reale, de oamenii care creează, de fapt, acest conținut, de centralizarea puterii sau de separarea acestor lucruri. Și, orice am crede despre utilizarea publicității ca fiind un fel de sprijin, imaginea unor adulți în scutece, tăvălindu-se prin nisip, sperând că un algoritm pe care nu-l înțeleg pe deplin îi va îmbogăți, sugerează că, probabil, nu pe așa ceva ar trebui să bazăm societatea și cultura, și că nu așa ar trebui s-o finanțăm.
And the other thing that's kind of the major driver of this is automation, which is the deployment of all of this technology as soon as it arrives, without any kind of oversight, and then once it's out there, kind of throwing up our hands and going, "Hey, it's not us, it's the technology." Like, "We're not involved in it." That's not really good enough, because this stuff isn't just algorithmically governed, it's also algorithmically policed. When YouTube first started to pay attention to this, the first thing they said they'd do about it was that they'd deploy better machine learning algorithms to moderate the content. Well, machine learning, as any expert in it will tell you, is basically what we've started to call software that we don't really understand how it works. And I think we have enough of that already. We shouldn't be leaving this stuff up to AI to decide what's appropriate or not, because we know what happens. It'll start censoring other things. It'll start censoring queer content. It'll start censoring legitimate public speech. What's allowed in these discourses, it shouldn't be something that's left up to unaccountable systems. It's part of a discussion all of us should be having.
Cealaltă cauză majoră a acestui proces e automatismul, adică utilizarea acestei tehnologii de îndată ce apare, fără nicio omisiune, și, odată ce e lansată, ne aruncăm mâinile în aer zicând: „Nu noi suntem de vină, ci tehnologia.” Adică „Noi nu suntem implicați.” Asta nu e de ajuns, căci toate acestea nu sunt doar guvernate de algoritmi, ci și controlate de algoritmi. Când YouTube a început să acorde atenție acestui aspect, primul lucru pe care au zis că-l vor face a fost să aplice algoritmi de învățare automată mai buni ca să controleze conținutul. Ei bine, așa cum v-ar spune orice expert, învățarea automată este ceea ce generic numim program software pe care nu-l înțelegem pe deplin. Și cred că avem deja destule. N-ar trebui să lăsăm IA să decidă ce e potrivit și ce nu, pentru că știm ce se întâmplă. Va cenzura alte lucruri. Va cenzura conținut suspicios. Va cenzura discursuri publice bune. Ceea ce e permis în aceste discursuri n-ar trebui să fie decis de sisteme arbitrare. Face parte dintr-o discuție pe care ar trebui să o avem cu toții.
But I'd leave a reminder that the alternative isn't very pleasant, either. YouTube also announced recently that they're going to release a version of their kids' app that would be entirely moderated by humans. Facebook -- Zuckerberg said much the same thing at Congress, when pressed about how they were going to moderate their stuff. He said they'd have humans doing it. And what that really means is, instead of having toddlers being the first person to see this stuff, you're going to have underpaid, precarious contract workers without proper mental health support being damaged by it as well.
Dar aș lăsa drept memento faptul că nici alternativa nu este mai plăcută. YouTube a mai anunțat recent că va lansa o versiune a aplicației pentru copii ce este moderată în întregime de oameni. Facebook - Zuckerberg a spus cam același lucru la Congres, întrebat insistent cum își vor modera conținutul. A zis că oamenii vor rezolva asta. Asta înseamnă, de fapt, nu copiii vor fi primii care vor vedea materialele, ci niște angajați prost plătiți, cu un contract precar, fără pregătire psihologică potrivită care vor avea și ei de suferit.
(Laughter)
(Râsete)
And I think we can all do quite a lot better than that.
Eu cred că putem mai mult.
(Applause)
(Aplauze)
The thought, I think, that brings those two things together, really, for me, is agency. It's like, how much do we really understand -- by agency, I mean: how we know how to act in our own best interests. Which -- it's almost impossible to do in these systems that we don't really fully understand. Inequality of power always leads to violence. And we can see inside these systems that inequality of understanding does the same thing. If there's one thing that we can do to start to improve these systems, it's to make them more legible to the people who use them, so that all of us have a common understanding of what's actually going on here.
Consider că ceea ce poate reuni aceste două lucruri este implicarea. Anume, cât de mult înțelegem cu adevărat - prin implicare, mă refer la cum știm ce să facem pentru a acționa în interesul nostru. Ceea ce e aproape imposibil de făcut în aceste sisteme pe care nu le înțelegem pe deplin. Disproporția de putere întotdeauna generează violență. Și în interiorul acestor sisteme, înțelegerea inegală duce la același lucru. Dacă e să putem face ceva pentru a îmbunătăți aceste sisteme, e să le facem mai accesibile celor care le utilizează, astfel încât noi toți să putem înțelege ce se întâmplă cu adevărat.
The thing, though, I think most about these systems is that this isn't, as I hope I've explained, really about YouTube. It's about everything. These issues of accountability and agency, of opacity and complexity, of the violence and exploitation that inherently results from the concentration of power in a few hands -- these are much, much larger issues. And they're issues not just of YouTube and not just of technology in general, and they're not even new. They've been with us for ages. But we finally built this system, this global system, the internet, that's actually showing them to us in this extraordinary way, making them undeniable. Technology has this extraordinary capacity to both instantiate and continue all of our most extraordinary, often hidden desires and biases and encoding them into the world, but it also writes them down so that we can see them, so that we can't pretend they don't exist anymore. We need to stop thinking about technology as a solution to all of our problems, but think of it as a guide to what those problems actually are, so we can start thinking about them properly and start to address them.
Problema cu aceste sisteme nu e, de fapt, așa cum sper că am reușit să explic, legată doar de YouTube. E legată de totul din jur. Chestiunile legate de responsabilitate și implicare, de transparență și complexitate, de violență și exploatare, ce rezultă, în mod inevitabil, din comasarea puterii în doar câteva mâini -- sunt niște chestiuni mult, mult mai ample. Nu sunt chestiuni legate doar de YouTube sau de tehnologie, în general, și nici măcar nu sunt noi. Ne preocupă de mult timp. Doar că am construit acest sistem global, care este internetul, care acum ni le pune în fața ochilor într-un mod extraordinar, făcându-le parte din realitate. Tehnologia are această capacitate fabuloasă de a scoate la lumină și a exploata cele mai grozave, adesea ascunse, dorințe și prejudecăți ale noastre și de a le „exprima” în lume, dar și de a le scrie, astfel încât să le vedem, să nu mai putem pretinde că ele nu mai există. Trebuie să încetăm să mai credem că soluția la probleme este tehnologia și să o considerăm, mai degrabă, un ghid pentru ceea ce reprezintă ele, pentru a ne putea concentra asupra lor și pentru a începe să le rezolvăm.
Thank you very much.
Vă mulțumesc foarte mult.
(Applause)
(Aplauze)
Thank you.
Mulțumesc.
(Applause)
(Aplauze)
Helen Walters: James, thank you for coming and giving us that talk. So it's interesting: when you think about the films where the robotic overlords take over, it's all a bit more glamorous than what you're describing. But I wonder -- in those films, you have the resistance mounting. Is there a resistance mounting towards this stuff? Do you see any positive signs, green shoots of resistance?
Helen Walters: James, îți mulțumesc că ai venit și ne-ai vorbit. Așadar, e interesant: dacă ne gândim la filmele în care roboții supremi preiau controlul, pare mai fermecător decât ce ne descrii. Dar, mă întreb: în acele filme, există o luptă pentru supremație. Întâlnim așa ceva și în cazul materialelor în discuție? Vezi vreun semn pozitiv, vreo tendință de rezistență?
James Bridle: I don't know about direct resistance, because I think this stuff is super long-term. I think it's baked into culture in really deep ways. A friend of mine, Eleanor Saitta, always says that any technological problems of sufficient scale and scope are political problems first of all. So all of these things we're working to address within this are not going to be addressed just by building the technology better, but actually by changing the society that's producing these technologies. So no, right now, I think we've got a hell of a long way to go. But as I said, I think by unpacking them, by explaining them, by talking about them super honestly, we can actually start to at least begin that process.
James Bridle: Nu știu ce să zic legat de rezistență, consider că e o chestiune pe termen foarte lung. Cred că e foarte adânc imprimată în cultură. O prietenă, Eleanor Saitta, zice mereu că orice probleme tehnologice cu destulă greutate și scop sunt, înainte de toate, probleme politice. Așa că, toate aceste chestiuni pe care vrem să le rezolvăm nu se vor putea rezolva doar concepând o tehnologie mai bună, ci prin schimbarea societății care o produce. Deci nu, acum cred că încă mai avem un drum al naibii de lung. Dar, cred că dacă defalcăm problemele, dacă vorbim despre ele cu toată sinceritatea, putem măcar să începem procesul de schimbare.
HW: And so when you talk about legibility and digital literacy, I find it difficult to imagine that we need to place the burden of digital literacy on users themselves. But whose responsibility is education in this new world?
HW: Când vorbești despre accesibilitate și cultură digitală, mi-e greu să-mi imaginez că trebuie să punem povara culturalizării digitale în sarcina utilizatorului. Dar a cui este responsabilitatea educației în această lume nouă?
JB: Again, I think this responsibility is kind of up to all of us, that everything we do, everything we build, everything we make, needs to be made in a consensual discussion with everyone who's avoiding it; that we're not building systems intended to trick and surprise people into doing the right thing, but that they're actually involved in every step in educating them, because each of these systems is educational. That's what I'm hopeful about, about even this really grim stuff, that if you can take it and look at it properly, it's actually in itself a piece of education that allows you to start seeing how complex systems come together and work and maybe be able to apply that knowledge elsewhere in the world.
JB: O spun din nou, responsabilitatea ne cam aparține nouă, tuturor, căci tot ceea ce facem, tot ce construim, tot ceea ce creăm, trebuie să fie făcut într-o discuție consensuală cu toți cei care o evită; că nu construim sisteme ce urmăresc să înșele, să păcălească oamenii să facă ce e bine. ci să se implice în fiecare pas al educației lor, căci fiecare dintre aceste sisteme e educativ. Asta e ceea ce sper, sper că și aceste aspecte sinistre, dacă sunt privite corespunzător, pot constitui forme de educație care să ne permită să vedem cât de complexe sunt sistemele în lucru și să utilizăm cunoștințele dobândite oriunde altundeva în lume.
HW: James, it's such an important discussion, and I know many people here are really open and prepared to have it, so thanks for starting off our morning.
HW: James, e o discuție foarte importantă și știu că mulți din cei prezenți sunt deschiși și pregătiți, îți mulțumim pentru că ai „deschis” ziua.
JB: Thanks very much. Cheers.
JB: Mulțumesc mult. Noroc.
(Applause)
(Aplauze)