I'm James. I'm a writer and artist, and I make work about technology. I do things like draw life-size outlines of military drones in city streets around the world, so that people can start to think and get their heads around these really quite hard-to-see and hard-to-think-about technologies. I make things like neural networks that predict the results of elections based on weather reports, because I'm intrigued about what the actual possibilities of these weird new technologies are. Last year, I built my own self-driving car. But because I don't really trust technology, I also designed a trap for it.
Зовем се Џејмс. Писац сам и уметник и стварам дела о технологији. Цртам ствари као што су обриси војних дронова у природној величини на градским улицама широм света да би људи почели да размишљају и да разумеју ове технологије које се прилично ретко виђају и о којима се ретко размишља. Правим неуронске мреже које предвиђају резултате избора на основу временских извештаја, јер сам заинтригиран стварним могућностима ових чудних нових технологија. Прошле године сам направио свој самовозећи аутомобил. Међутим, пошто баш не верујем технологији, дизајнирао сам и клопку за њега.
(Laughter)
(Смех)
And I do these things mostly because I find them completely fascinating, but also because I think when we talk about technology, we're largely talking about ourselves and the way that we understand the world. So here's a story about technology.
Ове ствари углавном радим јер мислим да су потпуно фасцинантне, али и зато што мислим да, када причамо о технологији, у већини случајева причамо о нама самима и начину на који разумемо свет. Ево једне приче о технологији.
This is a "surprise egg" video. It's basically a video of someone opening up loads of chocolate eggs and showing the toys inside to the viewer. That's it. That's all it does for seven long minutes. And I want you to notice two things about this. First of all, this video has 30 million views.
Ово је видео о киндер јајету. То је, у ствари, снимак некога ко отвара гомилу чоколадних јаја и гледаоцу показује играчке из њих. То је то. То је све што се дешава током седам дугих минута. Желим да обратите пажњу на две ствари у вези са тим. Прво, овај видео има 30 милиона прегледа.
(Laughter)
(Смех)
And the other thing is, it comes from a channel that has 6.3 million subscribers, that has a total of eight billion views, and it's all just more videos like this -- 30 million people watching a guy opening up these eggs. It sounds pretty weird, but if you search for "surprise eggs" on YouTube, it'll tell you there's 10 million of these videos, and I think that's an undercount. I think there's way, way more of these. If you keep searching, they're endless. There's millions and millions of these videos in increasingly baroque combinations of brands and materials, and there's more and more of them being uploaded every single day. Like, this is a strange world. Right?
Друга ствар је да се налази на каналу који има 6,3 милиона пратилаца и укупно осам милијарди прегледа, а садржи једино још више оваквих видеа. Тридесет милиона људи гледа овог момка како отвара ова јаја. Звучи прилично чудно, али ако укуцате „киндер јаја“ у претраживач Јутјуба, рећи ће вам да постоји десет милиона ових видеа, а мислим да је тај број потцењен. Мислим да их има много, много више. Ако наставите претрагу, нема им краја. Има на милионе и милионе ових видеа у све учесталијим барокним комбинацијама брендова и материјала, а све се више и више њих поставља сваког дана. Чудан је ово свет, зар не?
But the thing is, it's not adults who are watching these videos. It's kids, small children. These videos are like crack for little kids. There's something about the repetition, the constant little dopamine hit of the reveal, that completely hooks them in. And little kids watch these videos over and over and over again, and they do it for hours and hours and hours. And if you try and take the screen away from them, they'll scream and scream and scream. If you don't believe me -- and I've already seen people in the audience nodding -- if you don't believe me, find someone with small children and ask them, and they'll know about the surprise egg videos. So this is where we start. It's 2018, and someone, or lots of people, are using the same mechanism that, like, Facebook and Instagram are using to get you to keep checking that app, and they're using it on YouTube to hack the brains of very small children in return for advertising revenue.
Међутим, ствар је у томе да ове видео-снимке не гледају одрасли, већ деца, мала деца. Ови видео-снимци су као кокаин за малу децу. Нешто у вези са понављањем, непрекидном малом налету допамина приликом открића, их у потпуности навлачи. Мала деца гледају ове видео-снимке опет и опет и опет, а то раде из сата у сат. Ако покушате да их одвојите од екрана, урлаће и урлаће и урлаће. Ако ми не верујете - а већ сам видео људе у публици како климају главом - ако ми не верујете, нађите неког ко има малу децу и питајте их, и знаће за видео снимке о киндер јајима. Овде почињемо. У 2018. години смо, а неко, или много људи, користи исти механизам који Фејсбук и Инстаграм користе да вас натерају да проверавате ту апликацију, а користе је на Јутјубу да хакују мозгове веома мале деце у замену за приход од реклама.
At least, I hope that's what they're doing. I hope that's what they're doing it for, because there's easier ways of making ad revenue on YouTube. You can just make stuff up or steal stuff. So if you search for really popular kids' cartoons like "Peppa Pig" or "Paw Patrol," you'll find there's millions and millions of these online as well. Of course, most of them aren't posted by the original content creators. They come from loads and loads of different random accounts, and it's impossible to know who's posting them or what their motives might be. Does that sound kind of familiar? Because it's exactly the same mechanism that's happening across most of our digital services, where it's impossible to know where this information is coming from. It's basically fake news for kids, and we're training them from birth to click on the very first link that comes along, regardless of what the source is. That's doesn't seem like a terribly good idea.
Макар се надам да је то оно што раде. Надам се да због тога то раде, јер постоје лакши начини да се оствари приход од реклама на Јутјубу. Можете једноставно направити или украсти нешто. Ако тражите веома популарне дечије цртане филмове као што су „Пепа прасе“ или „Патролне шапе“, видећете да постоје и милиони оваквих видеа на интернету. Наравно, већину њих нису поставили прави ствараоци садржаја. Потичу са мноштва различитих, насумичних налога, а немогуће је знати ко их поставља или који би им мотиви могли бити. Да ли то звучи донекле познато? Јер то је тачно исти механизам који се примењује широм већине наших дигиталних услуга, при чему је немогуће знати одакле ове информације долазе. То су, у суштини, лажне вести за децу, а обучавамо их од рођења да кликну баш на први линк који се појави без обзира на то који је извор. То не делује као посебно добра идеја.
Here's another thing that's really big on kids' YouTube. This is called the "Finger Family Song." I just heard someone groan in the audience. This is the "Finger Family Song." This is the very first one I could find. It's from 2007, and it only has 200,000 views, which is, like, nothing in this game. But it has this insanely earwormy tune, which I'm not going to play to you, because it will sear itself into your brain in the same way that it seared itself into mine, and I'm not going to do that to you. But like the surprise eggs, it's got inside kids' heads and addicted them to it. So within a few years, these finger family videos start appearing everywhere, and you get versions in different languages with popular kids' cartoons using food or, frankly, using whatever kind of animation elements you seem to have lying around. And once again, there are millions and millions and millions of these videos available online in all of these kind of insane combinations. And the more time you start to spend with them, the crazier and crazier you start to feel that you might be.
Ево још једне веома популарне ствари на дечијем Јутјубу. Зове се „Породица прстићи“. Управо сам чуо да је неко у публици уздахнуо. Ово је „Породица прстићи“. Ово је најранија коју сам успео да пронађем. Из 2007. године је и има само двесто хиљада прегледа, што је ништа у овој игри. Међутим, има ову невероватно заразну мелодију, коју вам нећу пустити, јер ће вам се урезати у мозак исто онако како се мени урезала у мозак, а нећу то да вам урадим. Али, као и киндер јаја, увукла се у дечије мозгове и учинила их је зависним. За неколико година, ови видео-снимци „Породице прстићи“ се свугде појављују, а имате верзије на различитим језицима са популарним ликовима из цртаних филмова са храном или, искрено говорећи, било каквом анимацијом која је надохват руке. Да поновим, милиони, милиони и милиони ових видео снимака су доступни на интернету у свим овим донекле суманутим комбинацијама. А што више времена почнете да проводите уз њих, све луђе и луђе почињете да се осећате.
And that's where I kind of launched into this, that feeling of deep strangeness and deep lack of understanding of how this thing was constructed that seems to be presented around me. Because it's impossible to know where these things are coming from. Like, who is making them? Some of them appear to be made of teams of professional animators. Some of them are just randomly assembled by software. Some of them are quite wholesome-looking young kids' entertainers. And some of them are from people who really clearly shouldn't be around children at all.
Ту сам се упустио у ово, у овај осећај велике необичности и великог недостатка разумевања по питању тога како је направљена ова ствар која делује да је представљена око мене. Јер је немогуће знати одакле ове ствари потичу. Као, ко их прави? Делује да неке праве групе професионалних аниматора. Неке је само насумично саставио софтвер. Неки од њих су млади дечији забављачи који изгледају прилично нормално, а неки су људи који сасвим сигурно уопште не би требало да буду у близини деце. (Смех)
(Laughter)
And once again, this impossibility of figuring out who's making this stuff -- like, this is a bot? Is this a person? Is this a troll? What does it mean that we can't tell the difference between these things anymore? And again, doesn't that uncertainty feel kind of familiar right now?
Поново, ова немогућност да се открије ко прави ове ствари - шта, ово је бот? Да ли је то особа? Да ли је то трол? Шта значи то што више не можемо да направимо разлику између ових ствари? Не изгледа ли та неизвесност помало познато управо сада?
So the main way people get views on their videos -- and remember, views mean money -- is that they stuff the titles of these videos with these popular terms. So you take, like, "surprise eggs" and then you add "Paw Patrol," "Easter egg," or whatever these things are, all of these words from other popular videos into your title, until you end up with this kind of meaningless mash of language that doesn't make sense to humans at all. Because of course it's only really tiny kids who are watching your video, and what the hell do they know? Your real audience for this stuff is software. It's the algorithms. It's the software that YouTube uses to select which videos are like other videos, to make them popular, to make them recommended. And that's why you end up with this kind of completely meaningless mash, both of title and of content.
Главни начин на који се добијају прегледи ових видеа - а прегледи значе новац - је да натрпају популарне изразе у наслове ових видеа. Тако узмете „киндер јаја“ и додате „Патролне шапе“, „Ускршње јаје“ или шта год су ове ствари, све ове речи из осталих популарних видеа у ваш наслов док не завршите са овом донекле бесмисленом мешавином речи која уопште нема никаквог смисла за људска бића. Јер, наравно, само веома мала деца гледају ваш видео, а шта они, до врага, знају? Ваша права публика за ово је софтвер, алгоритми, софтвер који Јутјуб користи да изабере који видео-снимци су као остали, да их учини популарним, да их препоручи. И зато завршите са овом донекле потпуно бесмисленом мешавином у наслову и садржају.
But the thing is, you have to remember, there really are still people within this algorithmically optimized system, people who are kind of increasingly forced to act out these increasingly bizarre combinations of words, like a desperate improvisation artist responding to the combined screams of a million toddlers at once. There are real people trapped within these systems, and that's the other deeply strange thing about this algorithmically driven culture, because even if you're human, you have to end up behaving like a machine just to survive.
Али, морате да запамтите да још увек постоје људи унутар овог система који је оптимизован алгоритмима, људи који су све више приморани да одглуме ове све бизарније комбинације речи, као очајни уметници-импровизатори који реагују на удружену, истовремену вриску једног милиона мале деце. Постоје стварни људи који су заробљени у овим системима, и то је друга веома чудна ствар по питању ове културе којом управљају алгоритми, јер, чак иако сте људско биће, на крају морате да се понашате као машина само да бисте преживели. Такође, са друге стране екрана
And also, on the other side of the screen, there still are these little kids watching this stuff, stuck, their full attention grabbed by these weird mechanisms. And most of these kids are too small to even use a website. They're just kind of hammering on the screen with their little hands. And so there's autoplay, where it just keeps playing these videos over and over and over in a loop, endlessly for hours and hours at a time. And there's so much weirdness in the system now that autoplay takes you to some pretty strange places. This is how, within a dozen steps, you can go from a cute video of a counting train to masturbating Mickey Mouse. Yeah. I'm sorry about that. This does get worse. This is what happens when all of these different keywords, all these different pieces of attention, this desperate generation of content, all comes together into a single place. This is where all those deeply weird keywords come home to roost. You cross-breed the finger family video with some live-action superhero stuff, you add in some weird, trollish in-jokes or something, and suddenly, you come to a very weird place indeed.
су још увек ова мала деца која гледају те ствари, опчињена, а пуну пажњу су им преотели ови чудни механизми. Већина ове деце су још увек превише мала да би користила сајт. Они само лупају по екрану својим ручицама. Зато постоји аутоплеј, који једноставно пушта ове видео снимке изнова у круг, бесконачно, сатима. Много чудних ствари је сада у систему, па вас аутоплеј води на нека прилично чудна места. Ево како у дванаест корака можете стићи од симпатичног видеа воза који броји до Микија Мауса који мастурбира. Да. Извините због тога. Постаје горе. Ово се дешава када се све ове разне кључне речи, сви ови различити делићи пажње и ово очајничко стварање садржаја нађу на једном месту. Овде све те веома чудне кључне речи праве дар-мар. Укрстите видео о „Породици прстићи“ са стварима које суперхероји изводе уживо, додате неке чудне интерне шале о троловима или већ нешто и изненада стижете на заиста веома чудно место.
The stuff that tends to upset parents is the stuff that has kind of violent or sexual content, right? Children's cartoons getting assaulted, getting killed, weird pranks that actually genuinely terrify children. What you have is software pulling in all of these different influences to automatically generate kids' worst nightmares. And this stuff really, really does affect small children. Parents report their children being traumatized, becoming afraid of the dark, becoming afraid of their favorite cartoon characters. If you take one thing away from this, it's that if you have small children, keep them the hell away from YouTube.
Родитеље углавном узнемиравају ствари са насилним и сексуалним садржајем, зар не? Цртани ликови су физички нападнути, убијени, чудне неслане шале које, у ствари, заправо престраве децу. Имате софтвер који користи све ове утицаје како би аутоматски створио најгоре дечије кошмаре. Ове ствари заиста, заиста утичу на нашу малу децу. Родитељи потврђују да су им деца трауматизована, да почињу да се боје мрака, да почињу да се боје својих омиљених цртаних јунака. Ако ћете једну ствар урадити после овога, нека то буде, ако имате малу децу, да их држите подаље од Јутјуба.
(Applause)
(Аплауз)
But the other thing, the thing that really gets to me about this, is that I'm not sure we even really understand how we got to this point. We've taken all of this influence, all of these things, and munged them together in a way that no one really intended. And yet, this is also the way that we're building the entire world. We're taking all of this data, a lot of it bad data, a lot of historical data full of prejudice, full of all of our worst impulses of history, and we're building that into huge data sets and then we're automating it. And we're munging it together into things like credit reports, into insurance premiums, into things like predictive policing systems, into sentencing guidelines. This is the way we're actually constructing the world today out of this data. And I don't know what's worse, that we built a system that seems to be entirely optimized for the absolute worst aspects of human behavior, or that we seem to have done it by accident, without even realizing that we were doing it, because we didn't really understand the systems that we were building, and we didn't really understand how to do anything differently with it.
Али, друга ствар, она која ме заиста нервира у вези са овим је то што нисам сигуран да уопште разумемо како смо дошли довде. Узели смо све ове утицаје, све ове ствари и изманипулисали их на начин на који нико заиста није намеравао. А ипак, ово је и начин на који градимо цео свет. Користимо све ове податке, много лоших података, много старих података пуних предрасуда, пуних свих наших најгорих побуда из историје, и то уграђујемо у огромне скупове података, а онда их аутоматизујемо. Све то изманипулишемо у ствари као што су извештаји о кредитној историји, рате за осигурање, системе за предвиђене полицијске ације, директиве за одређивање казни. Ово је начин на који ми сада, у ствари, стварамо свет користећи ове податке. Не знам шта је горе - то што правимо систем који делује да је у потпуности оптимизован за најгоре могуће видове људског понашања или то што изгледа да смо то случајно урадили, а да уопште нисмо схватили да смо то радили јер заиста нисмо разумели системе које смо правили и заиста нисмо разумели како да урадимо нешто другачије са тим.
There's a couple of things I think that really seem to be driving this most fully on YouTube, and the first of those is advertising, which is the monetization of attention without any real other variables at work, any care for the people who are actually developing this content, the centralization of the power, the separation of those things. And I think however you feel about the use of advertising to kind of support stuff, the sight of grown men in diapers rolling around in the sand in the hope that an algorithm that they don't really understand will give them money for it suggests that this probably isn't the thing that we should be basing our society and culture upon, and the way in which we should be funding it.
Мислим да постоје две ствари које изгледа да заиста покрећу ово највише на Јутјубу, а прва је рекламирање, што је начин да се заради од пажње без било којих других стварних варијабли на делу, бриге о људима који заиста праве овај садржај, централизације моћи, разграничавања ових ствари. Мислим да без обзира на то шта мислите о коришћењу рекламирања да се ове ствари подржавају, призор одраслих мушкараца у пеленама који се ваљају у песку надајући се да ће им неки алгоритам који баш не разумеју дати новац за то ми говори да ово вероватно није ствар на којој би требало да заснивамо наше друштво и културу нити начин на који би требало да га финансирамо.
And the other thing that's kind of the major driver of this is automation, which is the deployment of all of this technology as soon as it arrives, without any kind of oversight, and then once it's out there, kind of throwing up our hands and going, "Hey, it's not us, it's the technology." Like, "We're not involved in it." That's not really good enough, because this stuff isn't just algorithmically governed, it's also algorithmically policed. When YouTube first started to pay attention to this, the first thing they said they'd do about it was that they'd deploy better machine learning algorithms to moderate the content. Well, machine learning, as any expert in it will tell you, is basically what we've started to call software that we don't really understand how it works. And I think we have enough of that already. We shouldn't be leaving this stuff up to AI to decide what's appropriate or not, because we know what happens. It'll start censoring other things. It'll start censoring queer content. It'll start censoring legitimate public speech. What's allowed in these discourses, it shouldn't be something that's left up to unaccountable systems. It's part of a discussion all of us should be having.
Друга ствар која је, на неки начин, главни покретач ове аутоматизације је примена све ове технологије чим се појави без икакве врсте надзора, а када је ту, некако дижемо руке и кажемо: „Хеј, нисмо ми криви. Технологија је.“ У фазону: „Немамо ништа са тим.“ То није баш довољно добро јер овим не само да управља алгоритам, већ га алгоритам и надгледа. Када је Јутјуб први пут почео да обраћа пажњу на ово, прво су рекли да ће применити боље алгоритме за машинско учење како би уређивали садржај. Па, машинско учење, као што ће вам сваки стручњак из те области рећи, је оно што смо почели да називамо софтвером чији начин рада не разумемо. Мислим да тога већ имамо довољно. Не би требало да препуштамо вештачкој интелигенцији да одлучује шта је прикладно или не, јер знамо шта ће се десити. Почеће да цензурише остале ствари. Почеће да цензурише хомосексуални садржај. Почеће да цензурише легитимно јавно изражавање. Оно што је дозвољено у овим разговорима не би требало да се препусти системима који немају одговорност. Ово је део разговора који бисмо сви морали да водимо.
But I'd leave a reminder that the alternative isn't very pleasant, either. YouTube also announced recently that they're going to release a version of their kids' app that would be entirely moderated by humans. Facebook -- Zuckerberg said much the same thing at Congress, when pressed about how they were going to moderate their stuff. He said they'd have humans doing it. And what that really means is, instead of having toddlers being the first person to see this stuff, you're going to have underpaid, precarious contract workers without proper mental health support being damaged by it as well.
Међутим, подсетићу вас да ни алтернатива није веома пријатна. Јутјуб је недавно објавио да ће пустити у рад верзију своје апликације за децу којом ће у потпуности управљати људска бића. Фејсбук - Закерберг је рекао нешто веома слично у Конгресу када су га притиснули по питању тога како ће уређивати свој садржај. Рекао је да ће људска бића то радити. А то стварно значи да ће, уместо да мала деца прва виде ове ствари, слабо плаћени радници на уговор са нестабилним запослењем и без одговарајуће заштите менталног здравља такође бити тиме упропашћени. (Смех)
(Laughter)
Мислим да сви можемо да урадимо прилично више од тога.
And I think we can all do quite a lot better than that.
(Аплауз)
(Applause)
The thought, I think, that brings those two things together, really, for me, is agency. It's like, how much do we really understand -- by agency, I mean: how we know how to act in our own best interests. Which -- it's almost impossible to do in these systems that we don't really fully understand. Inequality of power always leads to violence. And we can see inside these systems that inequality of understanding does the same thing. If there's one thing that we can do to start to improve these systems, it's to make them more legible to the people who use them, so that all of us have a common understanding of what's actually going on here.
Мислим да је идеја која повезује ове две ствари залагање. Колико ми то заиста разумемо? Кад кажем залагање, мислим на то како знамо да радимо у свом најбољем интересу. То је скоро немогуће радити у овим системима које заиста не разумемо у потпуности. Неједнакост моћи увек води ка насиљу. А унутар ових система можемо видети да неједнакост разумевања чини исто. Ако постоји једна ствар коју можемо да урадимо да почнемо да побољшавамо ове системе, то је да их учинимо јаснијим за људе који их користе како бисмо сви ми разумели шта се заиста овде дешава.
The thing, though, I think most about these systems is that this isn't, as I hope I've explained, really about YouTube. It's about everything. These issues of accountability and agency, of opacity and complexity, of the violence and exploitation that inherently results from the concentration of power in a few hands -- these are much, much larger issues. And they're issues not just of YouTube and not just of technology in general, and they're not even new. They've been with us for ages. But we finally built this system, this global system, the internet, that's actually showing them to us in this extraordinary way, making them undeniable. Technology has this extraordinary capacity to both instantiate and continue all of our most extraordinary, often hidden desires and biases and encoding them into the world, but it also writes them down so that we can see them, so that we can't pretend they don't exist anymore. We need to stop thinking about technology as a solution to all of our problems, but think of it as a guide to what those problems actually are, so we can start thinking about them properly and start to address them.
Ипак, мислим да је код већине ових система ствар у томе да се овде заиста не ради о Јутјубу, што се надам да сам објаснио. У питању је све. Ова питања одговорности, залагања, нејасноће, сложености, насиља и експлоатације који су суштинска последица концентрације моћи у рукама неколицине - ово су много, много већа питања. Нису то питања која се тичу само Јутјуба и само технологије уопште, а нису чак ни нова; са нама су од давнина. Међутим, коначно смо направили овај систем, глобални систем, интернет, који нам их приказује на невероватан начин и чини их неоспорним. Технологија има неоспорну способност да подржи и настави већину наших невероватних, често скривених жеља и предрасуда и да их преноси у свет, али их такође и записује како бисмо могли да их видимо, да више не можемо да се претварамо да не постоје. Морамо да престанемо да размишљамо о технологији као о решењу за све наше проблеме, и да размишљамо о њој као о водиљи ка ономе шта су ти проблеми у ствари да бисмо почели да размишљамо о њима на прави начин и да почнемо да их решавамо.
Thank you very much.
Хвала пуно.
(Applause)
(Аплауз)
Thank you.
Хвала.
(Applause)
(Аплауз)
Helen Walters: James, thank you for coming and giving us that talk. So it's interesting: when you think about the films where the robotic overlords take over, it's all a bit more glamorous than what you're describing. But I wonder -- in those films, you have the resistance mounting. Is there a resistance mounting towards this stuff? Do you see any positive signs, green shoots of resistance?
Хелен Волтерс: Џејмс, хвала ти што си дошао и одржао овај говор. Занимљиво је да је, када помислимо да филмове у којима роботизовани господари преузму контролу, све много привлачније од овога што ти описујеш. Међутим, питам се - у тим филмовима је присутан отпор који се појачава. Да ли се појачава отпор према овоме? Да ли видиш позитивне знаке, обнову отпора?
James Bridle: I don't know about direct resistance, because I think this stuff is super long-term. I think it's baked into culture in really deep ways. A friend of mine, Eleanor Saitta, always says that any technological problems of sufficient scale and scope are political problems first of all. So all of these things we're working to address within this are not going to be addressed just by building the technology better, but actually by changing the society that's producing these technologies. So no, right now, I think we've got a hell of a long way to go. But as I said, I think by unpacking them, by explaining them, by talking about them super honestly, we can actually start to at least begin that process.
Џејмс Бридл: Нисам сигуран по питању директног отпора, јер мислим да је ово веома дуготрајно. Мислим да је дубоко усађено у културу. Моја пријатељица Еленор Саита увек каже да су било који технолошки проблеми великих размера и опсега првенствено политички проблеми. Тако да све ове ствари на чијем решењу радимо неће се решити тако што ће се једноставно направити боља технологија, већ тако што ће се променити друштво које производи ове технологије. Не. Управо сада, мислим да нам предстоји веома дугачак пут. Опет, мислим да, ако их анализирамо, објаснимо и веома искрено причамо о њима, можемо, у ствари, макар започети тај процес. ХВ: Када говориш о јасноћи и дигиталној писмености,
HW: And so when you talk about legibility and digital literacy, I find it difficult to imagine that we need to place the burden of digital literacy on users themselves. But whose responsibility is education in this new world?
тешко ми је да замислим да морамо да ставимо терет дигиталне писмености на саме кориснике. Чија је одговорност образовање у овом новом свету?
JB: Again, I think this responsibility is kind of up to all of us, that everything we do, everything we build, everything we make, needs to be made in a consensual discussion with everyone who's avoiding it; that we're not building systems intended to trick and surprise people into doing the right thing, but that they're actually involved in every step in educating them, because each of these systems is educational. That's what I'm hopeful about, about even this really grim stuff, that if you can take it and look at it properly, it's actually in itself a piece of education that allows you to start seeing how complex systems come together and work and maybe be able to apply that knowledge elsewhere in the world.
ЏБ: Још једном, мислим да је ова одговорност на свима нама, да све што радимо, све што градимо, све што правимо мора бити направљено уз пристанак у разговору са свима који га избегавају; да не правимо системе чија је сврха да преваре и изненаде људе да ураде праву ствар, већ да су они заиста укључени у сваки корак њиховог образовања, јер је сваки од ових система образовни. Надам се, чак и по питању ових веома страшних ствари, да је, ако их можете узети и прописно сагледати, то, само по себи, део образовања које вам омогућава да почнете да видите како се сложени системи удружују и раде и да ћете можда моћи да примените то знање негде другде у свету.
HW: James, it's such an important discussion, and I know many people here are really open and prepared to have it, so thanks for starting off our morning.
ХВ: Џејмс, ово је толико важан разговор и знам да су многи људи овде отворени и спремни за њега, стога ти захваљујем што си започео јутро.
JB: Thanks very much. Cheers.
ЏБ: Хвала пуно. Све најбоље.
(Applause)
(Аплауз)