Аз съм Джеймс. Аз съм писател и творец, и създавам работи, свързани с технологиите. Аз правя неща като да рисувам очертания в реален размер на военни самолети върху градските улици по света, за да хората започнат да мислят и да поразмишляват за тези доста трудно видими и доста трудни за обмисляне технологии. Аз правя неща като невронни комютърни мрежи, които предвиждат резултатите от изборите въз основа на прогнози за времето, защото съм заинтругуван какви са реалните възможности на тези странни нови технологии. Миналата година създадох моя собствена самокараща се кола. Но понеже не вярвам много на технологиите, аз ѝ устроих и капан.
I'm James. I'm a writer and artist, and I make work about technology. I do things like draw life-size outlines of military drones in city streets around the world, so that people can start to think and get their heads around these really quite hard-to-see and hard-to-think-about technologies. I make things like neural networks that predict the results of elections based on weather reports, because I'm intrigued about what the actual possibilities of these weird new technologies are. Last year, I built my own self-driving car. But because I don't really trust technology, I also designed a trap for it.
(Смях)
(Laughter)
И правя тези неща, предимно защото ги намирам за напълно завладяващи, но също защото мисля, че когато говорим за технологии, ние говорим до голяма степен говорим за нас и за начина, по който разбираме света. И така, ето една история, свързана с технологиите.
And I do these things mostly because I find them completely fascinating, but also because I think when we talk about technology, we're largely talking about ourselves and the way that we understand the world. So here's a story about technology.
Това е видео за "яйца-изненада". В общи линии това е видео, в което някой отваря много шоколадови яйца и показва на зрителите играчките вътре. Това е. Това е всичко, което се случва за седем дълги минути. И искам да забележете две неща относно това. Първо, това видео има 30 милиона гледания.
This is a "surprise egg" video. It's basically a video of someone opening up loads of chocolate eggs and showing the toys inside to the viewer. That's it. That's all it does for seven long minutes. And I want you to notice two things about this. First of all, this video has 30 million views.
(Смях)
(Laughter)
А другото нещо е, че идва от канал, който има 6.3 милиона редовни зрители, който има сумарно 8 билиона гледания, и всичките те са просто на още видеа като това - 30 милиона души гледат някакъв тип, който отваря такива яйца. Звучи доста странно, но ако потърсите "яйца-изненада" в Ютуб, ще ви покаже, че има 10 милиона от тези видеа. И мисля, че подценявам бройката. Мисля, че има доста, доста повече от тези. Ако продължите да търсите, те ще са безкрайни. Има милиони, и милиони от тези видеа в покачващо се барокови комбинации от брандове и материали, и има все повече, и повече от тях, които биват качвани всеки един ден. Това е странен свят, нали?
And the other thing is, it comes from a channel that has 6.3 million subscribers, that has a total of eight billion views, and it's all just more videos like this -- 30 million people watching a guy opening up these eggs. It sounds pretty weird, but if you search for "surprise eggs" on YouTube, it'll tell you there's 10 million of these videos, and I think that's an undercount. I think there's way, way more of these. If you keep searching, they're endless. There's millions and millions of these videos in increasingly baroque combinations of brands and materials, and there's more and more of them being uploaded every single day. Like, this is a strange world. Right?
Но въпросът е, че не възрастните са тези, които гледат подобни видеа. Това са децата, малките деца. Тези видеа са като наркотик за малки деца. Има нещо в повторението, в постоянната малка доза допамин при разкриването, което изцяло ги пристрастява. И малките деца гледат тези видеа отново, и отново, и отново, и го правят за часове, и часове, и часове. И ако се опиташ да им да им отнемеш екрана, те ще крещят, и ще крещят, и ще крещят. Ако не ми вярвате, а вече видях хора в публиката да кимат, ако не ми вярвате, намерете някого с малко дете и го попитайте, и ще знае за видеата с яйца-изненада. Ето къде започваме. 2018-та година сме и някой или пък много хора използват същия механизъм, който Фейсбук и Инстаграм използват, за да ви накарат да проверявате постоянно апликациите им, а те го използват в Ютуб, за да хакнат мозъците на много малки деца, за да получат в замяна печалба от реклами.
But the thing is, it's not adults who are watching these videos. It's kids, small children. These videos are like crack for little kids. There's something about the repetition, the constant little dopamine hit of the reveal, that completely hooks them in. And little kids watch these videos over and over and over again, and they do it for hours and hours and hours. And if you try and take the screen away from them, they'll scream and scream and scream. If you don't believe me -- and I've already seen people in the audience nodding -- if you don't believe me, find someone with small children and ask them, and they'll know about the surprise egg videos. So this is where we start. It's 2018, and someone, or lots of people, are using the same mechanism that, like, Facebook and Instagram are using to get you to keep checking that app, and they're using it on YouTube to hack the brains of very small children in return for advertising revenue.
Поне, надявам се, че това правят. Надявам се, че затова го правят, защото има по-лесни начини да печелиш от реклами в Ютуб. Можеш да си измисляш неща или да крадеш неща. Ако потърсите наистина популярни анимационни, като "Пепа Прасето" или "Отряд на лапи", ще намерите милиони, и милиони и от тези видеа онлайн. Разбира се, по-голямата част от тях не са публикувани от оригиналните им създатели. Те идват от много, много различни случайни акаунти и е невъзможно да разбереш кой ги публикува или какви могат да са техните мотиви. Звучи ли ви познато? Това е, защото същият механизъм се прилага върху повечето от нашите дигатални услуги, където е невъзможно да разбереш откъде идва тази информация. Общо взето, това са фалшиви новини за деца, а ние ги обучаваме от раждането им да кликат върху първия линк, който видят, независимо от какъв източник идва той. Това не изглежда като невероятно добра идея.
At least, I hope that's what they're doing. I hope that's what they're doing it for, because there's easier ways of making ad revenue on YouTube. You can just make stuff up or steal stuff. So if you search for really popular kids' cartoons like "Peppa Pig" or "Paw Patrol," you'll find there's millions and millions of these online as well. Of course, most of them aren't posted by the original content creators. They come from loads and loads of different random accounts, and it's impossible to know who's posting them or what their motives might be. Does that sound kind of familiar? Because it's exactly the same mechanism that's happening across most of our digital services, where it's impossible to know where this information is coming from. It's basically fake news for kids, and we're training them from birth to click on the very first link that comes along, regardless of what the source is. That's doesn't seem like a terribly good idea.
Ето още нещо, което е много популярно в детския Ютуб. То е наречено "Песента на семейство Пръсти", и отново дочух някой да изохква в публиката, това е "Песента на семейство Пръсти". Това е първата, която успях да намеря. Тя е от 2007-ма и има само 200 000 гледания, което е общо взето нищo в тази игра. Но има безумно паразитна мелодия, която няма да ви пускам, защото ще се притъпи в мозъците ви по същия начин, по който се притъпи в моя, и аз няма да ви го причиня. Но също като яйцата-изненада, тя е влязла в главите на децата и те са пристрастени към нея. И така, след няколко години тези видеа за семейства пръсти започват да се появяват навсякъде и сега има версии на различни езици, с популярни анимационни, използвайки храна или честно казано с кавито и да е анимационни елементи си намерите около вас. И отново - има милиони, и милиони, и милиони от тези видеа, достъпни онлайн във всичките тези налудничеви комбинации. И колкото повече време прекарвате с тях, толкова по-луди, и луди започвате да чувствате, че вероятно сте.
Here's another thing that's really big on kids' YouTube. This is called the "Finger Family Song." I just heard someone groan in the audience. This is the "Finger Family Song." This is the very first one I could find. It's from 2007, and it only has 200,000 views, which is, like, nothing in this game. But it has this insanely earwormy tune, which I'm not going to play to you, because it will sear itself into your brain in the same way that it seared itself into mine, and I'm not going to do that to you. But like the surprise eggs, it's got inside kids' heads and addicted them to it. So within a few years, these finger family videos start appearing everywhere, and you get versions in different languages with popular kids' cartoons using food or, frankly, using whatever kind of animation elements you seem to have lying around. And once again, there are millions and millions and millions of these videos available online in all of these kind of insane combinations. And the more time you start to spend with them, the crazier and crazier you start to feel that you might be. And that's where I kind of launched into this,
И горе-долу така попаднах на това. На това чувство на дълбока странност и на липса на разбиране за това как това нещо е конструирано и съществува покрай мен. Защото е невъзможно да знаеш откъде идват тези неща. Като например, кой ги прави? Някои от тях изглежда, че са направени от екип от професионални аниматори. Някои от тях са случайно сглобени от софтуер. Някои изглеждат като благотворни развлечения за малки деца. А други са направни от хора, които очевидно не трябва въобще да стоят около деца.
that feeling of deep strangeness and deep lack of understanding of how this thing was constructed that seems to be presented around me. Because it's impossible to know where these things are coming from. Like, who is making them? Some of them appear to be made of teams of professional animators. Some of them are just randomly assembled by software. Some of them are quite wholesome-looking young kids' entertainers. And some of them are from people who really clearly shouldn't be around children at all.
(Смях) Нали?
(Laughter)
И ... Отново се връщаме на тази невъзможност да разберем кой създава тези неща. Дали е робот? Дали е човек? Дали е интернет трол? Какво означава, че вече не правим разликата между всички тези неща? И отново, това чувство за несигурност не ни ли е познато в момента?
And once again, this impossibility of figuring out who's making this stuff -- like, this is a bot? Is this a person? Is this a troll? What does it mean that we can't tell the difference between these things anymore? And again, doesn't that uncertainty feel kind of familiar right now?
Основният начин, по който хората получават гледания е, запомнете, гледанията означават пари, че те наблъскват заглавията на видеата с популярни термини, Взимате "яйца-изненада", например, и след това добавяте "Отряд на лапи", "Великденски яйца" или кавито и да са тези неща, всичките тези думи от други популярни видеа в заглавието, и така получавате този вид безмислена синтактична каша, която въобще няма логика за хората. Защото, разбира се, само мъничките деца гледат видеата, а какво, по дяволите, разбират те? Истинската аудитория за тези неща е софтуерът. Това са алгоритмите. Това е софтуерът, който Ютуб използва, за да избере кои видеа наподобяват други видеа, за да ги направи популярни, за да ги препоръча. И ето защо резултатът е тази, общо взето, безмислена каша, както в заглавието, така и в съдържанието.
So the main way people get views on their videos -- and remember, views mean money -- is that they stuff the titles of these videos with these popular terms. So you take, like, "surprise eggs" and then you add "Paw Patrol," "Easter egg," or whatever these things are, all of these words from other popular videos into your title, until you end up with this kind of meaningless mash of language that doesn't make sense to humans at all. Because of course it's only really tiny kids who are watching your video, and what the hell do they know? Your real audience for this stuff is software. It's the algorithms. It's the software that YouTube uses to select which videos are like other videos, to make them popular, to make them recommended. And that's why you end up with this kind of completely meaningless mash, both of title and of content.
Но въпросът е, че трябва да запомните, че хората реално са част от тази алгоритмично оптимизирана система, хора, които стават все по-принудени да извършат тези все по-странни комбинации от думи като отчаян творец-импровизатор, който отговаря на комбинацията от викове на милиони малки деца наведнъж. Има истински хора в капана на тези системи. И това е другото дълбоко странно нещо, в тази култура, водена от алгоритмите, че дори и да си човек, трябва да се държиш като машина само за да оцелееш.
But the thing is, you have to remember, there really are still people within this algorithmically optimized system, people who are kind of increasingly forced to act out these increasingly bizarre combinations of words, like a desperate improvisation artist responding to the combined screams of a million toddlers at once. There are real people trapped within these systems, and that's the other deeply strange thing about this algorithmically driven culture, because even if you're human, you have to end up behaving like a machine just to survive.
Освен това, от другата страна на екрана все още стоят тези малки деца и гледат тези неща - приклещени. Цялото им внимание е заграбено от тези странни механизми. И повечето от тези деца са прекалено малки дори да ползват уебсайтове. Те просто удрят по екраните с техните малки ръчички. Има и автоматично пускане, което просто пуска тези видеа отново, и отново, и отново... безкрайно - за часове, и часове наведнъж. Има толкова много странности в сегашната система, че автоматичното пускане те води на доста странни места. Затова с дузина стъпки, можете да започнете от сладко видео с броящ влак до мастурбиращ Мики Маус. Да, съжалавам, за което. И става все по-зле. Това се случва, когато всички тези различни ключови думи, всички тези различни парчета внимание, това отчайващо поколение от съдържание, се съберат на едно единствено място. Това е там, където тези дълбоко странни ключови думи се прибират да си починат. Ако кръстосаш видеото за семейство Пръсти с някакви неща за екшън супергерои, добавиш странна тролска вътрешна шега или нещо, изведнъж, ще отидеш на много странно място, определено.
And also, on the other side of the screen, there still are these little kids watching this stuff, stuck, their full attention grabbed by these weird mechanisms. And most of these kids are too small to even use a website. They're just kind of hammering on the screen with their little hands. And so there's autoplay, where it just keeps playing these videos over and over and over in a loop, endlessly for hours and hours at a time. And there's so much weirdness in the system now that autoplay takes you to some pretty strange places. This is how, within a dozen steps, you can go from a cute video of a counting train to masturbating Mickey Mouse. Yeah. I'm sorry about that. This does get worse. This is what happens when all of these different keywords, all these different pieces of attention, this desperate generation of content, all comes together into a single place. This is where all those deeply weird keywords come home to roost. You cross-breed the finger family video with some live-action superhero stuff, you add in some weird, trollish in-jokes or something, and suddenly, you come to a very weird place indeed.
Нещата, които изглежда, че разстройват родителите са тези с агресивно или сексуално съдържание, нали? Детските герои са нападани, убивани, подлежат на странни шеги, които искрено ужасяват децата. Това, което имаме, е софтуер, който събира всичките различни влияния, за да генерира автоматично най-ужасяващите детски кошмари. А тези неща наистина, наистина оказват влияние върху малките деца. Родителите докладват, че децата им са травматизирани, започват да се страхуват от тъмното, започват да е страхуват от техните любими анимационни герои. Ако си вземете една поука, нека бъде, че ако имате малки деца, дръжте ги далеч от Ютуб, по дяволите.
The stuff that tends to upset parents is the stuff that has kind of violent or sexual content, right? Children's cartoons getting assaulted, getting killed, weird pranks that actually genuinely terrify children. What you have is software pulling in all of these different influences to automatically generate kids' worst nightmares. And this stuff really, really does affect small children. Parents report their children being traumatized, becoming afraid of the dark, becoming afraid of their favorite cartoon characters. If you take one thing away from this, it's that if you have small children, keep them the hell away from YouTube.
(Аплодисменти)
(Applause)
Но другото нещо, което ме притеснява е, че не съм сигурен, че разбираме как стигнахме до този етап. Взели сме цялото това влияние, всичките тези неща, и сме ги групирали заедно по начин, който никой не е предвидил. И все пак, това е същия начин, по който ние конструираме света. Става дума за всичките тези данни, много некачествени данни, много остарели данни, пълни с предразсъдъци, пълни с нашите най-лоши импулси в историята, и ги изграждаме в огромни набори от данни а след това ги автоматизираме. Сглобяваме ги заедно в неща като кредитни доклади, застрахователни премии, в неща като превантивни полицейски системи, като насоки за издаване на присъди. Това е начинът, по който изграждаме светът днес, чрез тези данни. И не знам кое е по-лошото - че сме изградили система, която е изцяло оптимизирана за най-ужасните аспекти на човешкото поведение или че изглежда, че сме го направили по случайност без дори да осъзнаваме какво вършим, защото ние не разбираме съвсем системите, които изграждаме, не разбираме изцяло как да направим нещо различно с тях.
But the other thing, the thing that really gets to me about this, is that I'm not sure we even really understand how we got to this point. We've taken all of this influence, all of these things, and munged them together in a way that no one really intended. And yet, this is also the way that we're building the entire world. We're taking all of this data, a lot of it bad data, a lot of historical data full of prejudice, full of all of our worst impulses of history, and we're building that into huge data sets and then we're automating it. And we're munging it together into things like credit reports, into insurance premiums, into things like predictive policing systems, into sentencing guidelines. This is the way we're actually constructing the world today out of this data. And I don't know what's worse, that we built a system that seems to be entirely optimized for the absolute worst aspects of human behavior, or that we seem to have done it by accident, without even realizing that we were doing it, because we didn't really understand the systems that we were building, and we didn't really understand how to do anything differently with it.
Мисля, че има няколко неща, които изглежда подклаждат това предимно в Ютуб. Първото е рекламата, което е монетизация на внимание без да се взимат предвид други реални фактори, без грижа за хората, които всъщност създават това съдържание, централизацията на правомощията или разграничаването на тези неща. Мисля, че както и да се чувствате спрямо използването на реклама за вид подкрепа на работи, гледката на зрели мъже в памперси, които се въргалят в пясъка с надеждата, че алгоритъм, който не разбират съвсем, ще им донесе пари, предполага, че най-вероятно това не е нещото, на което трябва да основем обществото и културата си, и начинът, по който да я спонсорираме.
There's a couple of things I think that really seem to be driving this most fully on YouTube, and the first of those is advertising, which is the monetization of attention without any real other variables at work, any care for the people who are actually developing this content, the centralization of the power, the separation of those things. And I think however you feel about the use of advertising to kind of support stuff, the sight of grown men in diapers rolling around in the sand in the hope that an algorithm that they don't really understand will give them money for it suggests that this probably isn't the thing that we should be basing our society and culture upon, and the way in which we should be funding it.
Другото нещо, което е може би най-значимият двигател на това е автоматизацията, което е внедряването на цялата тази технология веднага щом е създадена, без никакви предпазни мерки. Щом веднъж вече се ползва, си вдигаме ръцете във въздуха и казваме: "Хей, не бяхме ние - беше технологията." Тип: "Ние не сме замесени". Това съвсем не е достатъчно, защото тези неща не просто се оправляват с алгоритми, но също се следят с алгоритми. Когато Ютуб започна да обръща внимание на това, първото нещо, което казаха, че ще направят, беше да внедрят по-добри системи за самообучение, за да модерират съдържанието. Машинното самообучение, както всеки експерт би ви казал, е общо взето е това, което сме започнали да наричаме софтуера, който не разбираме съвсем как работи. Но мисля, че вече ни е омръзнало от това. Не трябва да оставяме изкуственият интелект да решава какво е подходящо и какво не е, защото знаем какво ще се случи. Ще започне да цензурира други работи. Ще започне да цензурира хомосексуално съдържание. Ще започне да цензурира законната публична реч. Това, което е позволено в тези беседи, не трябва да бъде нещо, което зависи от необясними системи. Това е част от дискусията, която всеки от нас трябва да води.
And the other thing that's kind of the major driver of this is automation, which is the deployment of all of this technology as soon as it arrives, without any kind of oversight, and then once it's out there, kind of throwing up our hands and going, "Hey, it's not us, it's the technology." Like, "We're not involved in it." That's not really good enough, because this stuff isn't just algorithmically governed, it's also algorithmically policed. When YouTube first started to pay attention to this, the first thing they said they'd do about it was that they'd deploy better machine learning algorithms to moderate the content. Well, machine learning, as any expert in it will tell you, is basically what we've started to call software that we don't really understand how it works. And I think we have enough of that already. We shouldn't be leaving this stuff up to AI to decide what's appropriate or not, because we know what happens. It'll start censoring other things. It'll start censoring queer content. It'll start censoring legitimate public speech. What's allowed in these discourses, it shouldn't be something that's left up to unaccountable systems. It's part of a discussion all of us should be having.
Но ще ви напомня, че алтернативата също не е много приятна. Ютуб анонсира наскоро също, че те ще издадат версия на тяхната апликация за деца, която ще е изцяло модерирана от хора. Фейсбук, Зъкърбърг каза горе-долу същото нещо на конгреса, когато го притиснаха за това как ще модерират нещата си. Той каза, че ще назначат хора да го правят. Това, което всъщност означава това е, че вместо малките деца да са първите хора, които гледат тези неща, ще има нисколатени случайни контрактори без подходяща подкрепа за психичното им здраве, които също ще бъдат повредени от тях.
But I'd leave a reminder that the alternative isn't very pleasant, either. YouTube also announced recently that they're going to release a version of their kids' app that would be entirely moderated by humans. Facebook -- Zuckerberg said much the same thing at Congress, when pressed about how they were going to moderate their stuff. He said they'd have humans doing it. And what that really means is, instead of having toddlers being the first person to see this stuff, you're going to have underpaid, precarious contract workers without proper mental health support being damaged by it as well.
(Смях)
(Laughter)
Мисля, че всички ние можем да се справим доста по-добре от това.
And I think we can all do quite a lot better than that.
(Аплодисменти)
(Applause)
Според мен идеята, която събира тези две неща заедно, за мен наистина е посредничеството. Колко всъщност наистина разбираме ние от посредничеството? Имам предвид - как разбираме, че работим за нашите най-добри интереси, което е почти невъзможно да се направи в тези системи, които не разбираме изцяло. Неравнството в правомощията винаги води до насилие. А в тези системи можем да видим, че неравенството в разбирането прави същото нещо. Има едно нещо, което може да направим, за да започнем да подобряваме тези системи, това е да ги направим по-разбираеми за хората, които ги ползват, за да може всички ние да имаме обща култура за това, което всъщност наистина се случва тук.
The thought, I think, that brings those two things together, really, for me, is agency. It's like, how much do we really understand -- by agency, I mean: how we know how to act in our own best interests. Which -- it's almost impossible to do in these systems that we don't really fully understand. Inequality of power always leads to violence. And we can see inside these systems that inequality of understanding does the same thing. If there's one thing that we can do to start to improve these systems, it's to make them more legible to the people who use them, so that all of us have a common understanding of what's actually going on here.
Обаче това, за което мисля предимно за повечето от тези системи, е (както се надявам вече поясних), че това не е свързано само с Ютуб. Става дума за всичко. Тези проблеми с отговорността и посредничеството, с неяснотата и сложността, с насилието и експлоатацията, които по своята същност произтичат от концентрацията на правомощие в ръцете на малцина - това са много, много по-големи проблеми. И това не са само проблемите на Ютуб, и не само на технологиите като цяло, а дори не са нови. Те са с нас от години. Но най-накрая изработихме тази глобална система, интернетът, която ни ги показа по този невероятен начин, който ги прави неоспорими. Технологията има невероятения потенциал едновременно да ни покаже нагледно и да продължи всички наши най-невероятни, често прикривани желания и предразсъдъци и да ги внедри в света, но и да ги запише така, че да можем да ги видим, за да не можем да се преструваме повече, че те не съществуват. Трябва да спрем да мислим за технологиите като за решение на всичките ни проблеми, а да мислим за тях като пътеводител към това какво представляват тези проблеми, за да можем да започнем да мислим за тях подобаващо и да започнем да ги адресираме.
The thing, though, I think most about these systems is that this isn't, as I hope I've explained, really about YouTube. It's about everything. These issues of accountability and agency, of opacity and complexity, of the violence and exploitation that inherently results from the concentration of power in a few hands -- these are much, much larger issues. And they're issues not just of YouTube and not just of technology in general, and they're not even new. They've been with us for ages. But we finally built this system, this global system, the internet, that's actually showing them to us in this extraordinary way, making them undeniable. Technology has this extraordinary capacity to both instantiate and continue all of our most extraordinary, often hidden desires and biases and encoding them into the world, but it also writes them down so that we can see them, so that we can't pretend they don't exist anymore. We need to stop thinking about technology as a solution to all of our problems, but think of it as a guide to what those problems actually are, so we can start thinking about them properly and start to address them. Thank you very much.
Благодаря ви много.
(Applause)
(Аплодисменти)
Благодаря.
Thank you.
(Аплодисменти)
(Applause)
Хелън Уолтърс: Джеймс, благодаря ти, че дойде, за да ни представиш тази реч. Толкова е интересно, когато се замислиш за филмите, където множество роботи ни завземат, изглежда малко по-ефектно, отколкото това, което ти обясняваш. Но се чудя, в тези филми съпротивата обикновено се надига. Има ли съпротива, която се надига срещу тези неща? Виждаш ли положителни знаци, зелени изстрели от съпротивата?
Helen Walters: James, thank you for coming and giving us that talk. So it's interesting: when you think about the films where the robotic overlords take over, it's all a bit more glamorous than what you're describing. But I wonder -- in those films, you have the resistance mounting. Is there a resistance mounting towards this stuff? Do you see any positive signs, green shoots of resistance?
Джеймс Брайдъл: Не знам за директна съпротива, защото мисля, че тези неща са много дълготрайни. Мисля, че са внедрени в културата ни по много дълбоки начини.
James Bridle: I don't know about direct resistance, because I think this stuff is super long-term. I think it's baked into culture in really deep ways.
Една моя приятелка, Елеонор Саита, винаги казва, че всеки технологичен проблем със задоволитен мащаб и досег е преди всичко политически проблем. Така че всичко, върху което работим, за да адресираме това, няма да се разрешат чрез изграждането на по-добра технология, а всъщност като променим обществото, което създава въпросните технологии. Така че - не, за момента мисля, че имаме дяволски дълъг път за изминаване. Но, както казах, като ги разнищим, като ги обясним, като говорим за тях супер честно, така поне можем да започнем процеса.
A friend of mine, Eleanor Saitta, always says that any technological problems of sufficient scale and scope are political problems first of all. So all of these things we're working to address within this are not going to be addressed just by building the technology better, but actually by changing the society that's producing these technologies. So no, right now, I think we've got a hell of a long way to go. But as I said, I think by unpacking them, by explaining them, by talking about them super honestly, we can actually start to at least begin that process.
Хелън Уолтърс: Когато говориш за честливост и дигитална грамотност, аз намирам за трудно да си представя, че трябва да поставим бремето на грамотността върху самите потребители. Но чия е отговорността за образование в този нов свят?
HW: And so when you talk about legibility and digital literacy, I find it difficult to imagine that we need to place the burden of digital literacy on users themselves. But whose responsibility is education in this new world?
Джеймс Брайдъл: Отново, мисля, че отговорността е на всички нас, че всичко, което правим, което градим, което създаваме, трябва да бъде направено в дискусия по взаимно съгласие между всички, които я избягват; че не изграждаме системи, предназначени да излъжат или изненадат хората, за да вършат правилното нещо, а те да са включени във всяка стъпка в образоването им, защото всяка от тези системи е образователна. На това се надявам дори спрямо тези наистина мрачни работи, че ако ги вземеш и ги разгледаш добре, ще видиш в тях парче образование, което позволява да започнем да виждаме как сложни системи са събрани и работят и може би да приложим това знание някъде другаде в света. Хелън Уолтърс: Джеймс, това е толква важна дискусия
JB: Again, I think this responsibility is kind of up to all of us, that everything we do, everything we build, everything we make, needs to be made in a consensual discussion with everyone who's avoiding it; that we're not building systems intended to trick and surprise people into doing the right thing, but that they're actually involved in every step in educating them, because each of these systems is educational. That's what I'm hopeful about, about even this really grim stuff, that if you can take it and look at it properly, it's actually in itself a piece of education that allows you to start seeing how complex systems come together and work and maybe be able to apply that knowledge elsewhere in the world. HW: James, it's such an important discussion,
и знам, че има много хора тук са отворени и подготвени да се включат, така че благодаря, че откри сутринта ни. Джеймс Брайдъл: Благодаря много за поканата. Поздрави!
and I know many people here are really open and prepared to have it, so thanks for starting off our morning. JB: Thanks very much. Cheers.
(Аплодисменти)
(Applause)