I'm James. I'm a writer and artist, and I make work about technology. I do things like draw life-size outlines of military drones in city streets around the world, so that people can start to think and get their heads around these really quite hard-to-see and hard-to-think-about technologies. I make things like neural networks that predict the results of elections based on weather reports, because I'm intrigued about what the actual possibilities of these weird new technologies are. Last year, I built my own self-driving car. But because I don't really trust technology, I also designed a trap for it.
저는 제임스라고 합니다. 작가 겸 예술가이고, 과학기술을 소재로 한 작품을 만듭니다. 실제 크기의 군사용 드론의 윤곽을 전 세계 여러 도시의 거리에 그리는 등의 작업을 하죠. 사람들이 접하기도 상상하기도 어려운 과학기술에 대해 생각해 보고 알아 보는 기회를 제공하는 셈이죠. 또, 선거결과를 예측하는 컴퓨터 신경망을 만들기도 하는데, 일기예보에 기반을 둔 것입니다. 이런 별난 신 기술들이 가지고 있는 실제 가능성에 대해 관심이 많기 때문에 가능한 일이죠. 작년엔 무인 자동차도 직접 만들어 봤어요. 제가 기술을 신봉하진 않기 때문에, 그 차를 잡아 둘 올가미까지 디자인 했습니다.
(Laughter)
(웃음)
And I do these things mostly because I find them completely fascinating, but also because I think when we talk about technology, we're largely talking about ourselves and the way that we understand the world. So here's a story about technology.
아주 큰 매력을 느끼기 때문에 이런 작업을 하기도 하지만, 과학기술을 논할 때, 대부분 우리 자신에 대한 것이고, 우리가 세상을 이해하는 방식에 국한되기 때문입니다. 과학기술에 관련된 이야기를 하나 해 드릴게요.
This is a "surprise egg" video. It's basically a video of someone opening up loads of chocolate eggs and showing the toys inside to the viewer. That's it. That's all it does for seven long minutes. And I want you to notice two things about this. First of all, this video has 30 million views.
"서프라이즈 에그" 영상입니다. 누군가 수많은 알 모양의 초콜릿을 열어, 안에 들어 있는 장난감을 시청자들에게 보여주는 거죠. 그게 다에요. 7분 동안이나 계속 됩니다. 여기서 주목할 것이 두 가지 있습니다. 우선, 이 영상의 조회수가 3천만 회라는 것입니다.
(Laughter)
(웃음)
And the other thing is, it comes from a channel that has 6.3 million subscribers, that has a total of eight billion views, and it's all just more videos like this -- 30 million people watching a guy opening up these eggs. It sounds pretty weird, but if you search for "surprise eggs" on YouTube, it'll tell you there's 10 million of these videos, and I think that's an undercount. I think there's way, way more of these. If you keep searching, they're endless. There's millions and millions of these videos in increasingly baroque combinations of brands and materials, and there's more and more of them being uploaded every single day. Like, this is a strange world. Right?
그리고 또 하나, 630만명이 이 채널에 등록되어 있고, 전체 조회수가 80억회에 달하는데, 모두 이런 종류의 영상들이란 거죠. 한 사람이 알을 까는 장면을 3천만명이 보고 있다는 것입니다. 별나게 들리지만, 유튜브에서 "서프라이즈 에그"를 검색해 보면, 천만개 정도의 결과가 나옵니다. 제가 조금 덜 센 것 같네요. 아마 훨씬 더 많겠죠. 계속 찾아 보면, 끝도 없이 나올 거예요. 이런 종류의 영상들은 수 백만 개가 넘습니다. 브랜드와 소재가 어지럽게 뒤엉킨 이런 영상들은 매일 점점 더 많이 올라옵니다. 신기한 세상이죠. 맞나요?
But the thing is, it's not adults who are watching these videos. It's kids, small children. These videos are like crack for little kids. There's something about the repetition, the constant little dopamine hit of the reveal, that completely hooks them in. And little kids watch these videos over and over and over again, and they do it for hours and hours and hours. And if you try and take the screen away from them, they'll scream and scream and scream. If you don't believe me -- and I've already seen people in the audience nodding -- if you don't believe me, find someone with small children and ask them, and they'll know about the surprise egg videos. So this is where we start. It's 2018, and someone, or lots of people, are using the same mechanism that, like, Facebook and Instagram are using to get you to keep checking that app, and they're using it on YouTube to hack the brains of very small children in return for advertising revenue.
하지만, 이런 영상을 보는 이들은 어른들이 아니라, 아이들이죠, 어린 아이들이요. 아이들에게 이런 영상들은 마약과도 같습니다. 계속해서 반복되는 장면들, 알 속의 내용물을 확인할 때마다 조금씩 발생하는 '도파민'은 아이들을 중독시키죠. 어린 아이들은 이런 영상을 계속해서 보면서, 몇 시간을 보내기도 합니다. 여러분들이 더 이상 못 보게 하면 울고 불고 난리가 날 거예요. 저를 못 믿겠으면 이미 몇분은 고개를 끄덕이는데요. 그럼, 어린 애를 키우는 분에게 한번 물어보세요. 분명히 이 '서프라이즈 에그' 영상에 대해 알고 있을 겁니다. 여기가 오늘 강연의 시작입니다. 2018년이 된 지금, 누군가, 아니면 많은 사람들이 '페이스북'이나 '인스타그램'에서 사용하는 방식들을 이용해 사람들로 하여금 계속 어플을 확인하게 하고, 어린 아이들까지 유튜브에 중독되게 만들고 있습니다. 모두 광고 수익을 위한 일이죠.
At least, I hope that's what they're doing. I hope that's what they're doing it for, because there's easier ways of making ad revenue on YouTube. You can just make stuff up or steal stuff. So if you search for really popular kids' cartoons like "Peppa Pig" or "Paw Patrol," you'll find there's millions and millions of these online as well. Of course, most of them aren't posted by the original content creators. They come from loads and loads of different random accounts, and it's impossible to know who's posting them or what their motives might be. Does that sound kind of familiar? Because it's exactly the same mechanism that's happening across most of our digital services, where it's impossible to know where this information is coming from. It's basically fake news for kids, and we're training them from birth to click on the very first link that comes along, regardless of what the source is. That's doesn't seem like a terribly good idea.
적어도, 그게 전부였으면 합니다. 그게 전부였으면 하는데, 더 쉽게 유튜브에서 광고로 돈 벌 수 있는 방법들이 있기 때문이죠. 무작정 꾸며내거나 도용하면 되니까요. 아주 인기 많은 어린이 만화를 검색해 보면, "페파 피그" 또는 "파우 패트롤" 같은 것들이죠, 수 백만개가 넘는 영상들이 뜹니다. 물론, 대부분은 원작자가 아닌 이들에 의해 올라온 것들이죠. 무작위로 만들어진 수많은 계정으로부터 올려졌고, 누가, 왜 그런 영상들을 올리는지 알 수도 없습니다. 어디서 들어본 얘기 같지 않나요? 우리가 디지털 서비스를 이용할 때와 같은 방식이기 때문입니다. 정보들의 출처를 알 수 없는 그 방식 말이죠. 말하자면 아동용 가짜 뉴스들이고, 그 아이들이 태어나면서부터 검색 결과 중 맨 위에 있는 링크를 누르도록 훈련시키는 것과 같습니다. 그 출처와는 상관없이 말이죠. 결코 바람직한 일이 아닙니다.
Here's another thing that's really big on kids' YouTube. This is called the "Finger Family Song." I just heard someone groan in the audience. This is the "Finger Family Song." This is the very first one I could find. It's from 2007, and it only has 200,000 views, which is, like, nothing in this game. But it has this insanely earwormy tune, which I'm not going to play to you, because it will sear itself into your brain in the same way that it seared itself into mine, and I'm not going to do that to you. But like the surprise eggs, it's got inside kids' heads and addicted them to it. So within a few years, these finger family videos start appearing everywhere, and you get versions in different languages with popular kids' cartoons using food or, frankly, using whatever kind of animation elements you seem to have lying around. And once again, there are millions and millions and millions of these videos available online in all of these kind of insane combinations. And the more time you start to spend with them, the crazier and crazier you start to feel that you might be.
아동용 유튜브에서 인기가 많은 것이 하나 더 있죠. "핑거 패밀리 송"입니다. 방금 누군가 한숨을 쉬시네요. 이것이 "핑거 패밀리 송"입니다. 제가 가장 먼저 찾은 영상이죠. 2007년에 올라온 이 영상은 조회수가 20만회 정도였어요. 다른 것들에 비하면 대단한 것도 아니죠. 여기 정말 따라 부르기 쉬운 노래가 하나 있는데, 여러분께 들려 드리진 않으려구요. 한 번 들으면 머리 속에서 떠나질 않거든요. 지금도 제 머리 속에 남아 있는데, 여러분들까지 그렇게 만들 순 없죠. '서프라이즈 에그' 처럼, 이 영상도 아이들의 머리 속에 들어가 그들을 중독시켰습니다. 그리고 몇 년 안돼, 이 '핑거 패밀리' 영상도 어디를 가나 볼 수 있게 됐죠. 음식이나 만화의 소재가 되는 것이라면 뭐든 이용해 만든 인기 많은 어린이 만화들을 이제 다양한 종류와 언어로 접할 수 있게 된 것이죠. 다시 말해, 이런 말도 안되는 영상들이 온라인 상에 몇 백만 개나 돌아 다니는 겁니다. 이런 것들을 보는데, 시간을 쓰면 쓸수록 점점 미쳐가는 기분을 느낄 수도 있습니다.
And that's where I kind of launched into this, that feeling of deep strangeness and deep lack of understanding of how this thing was constructed that seems to be presented around me. Because it's impossible to know where these things are coming from. Like, who is making them? Some of them appear to be made of teams of professional animators. Some of them are just randomly assembled by software. Some of them are quite wholesome-looking young kids' entertainers. And some of them are from people who really clearly shouldn't be around children at all.
바로 제가 이런 기분에 빠지게 된 이유죠. 제 주변에서 이런 일들이 어떻게 가능하게 됐는지, 도저히 알 수 없는 아주 묘한 그런 기분이요. 어디서 시작됐는지 알 수가 없기 때문입니다. 도대체 누가 이런 것들을 만드는 걸까요? 어떤 것들은 만화 제작자들에 의해 전문적으로 만들어 지기도 하고, 어떤 것들은 대충 짜집기한 티가 납니다. 어떤 것들은 아이들이 즐기기에 괜찮아 보이는 것도 있습니다. 어떤 것들은 아이들 곁에 있어선 절대 안 되는 사람들이 만든 것도 있습니다.
(Laughter)
(웃음)
And once again, this impossibility of figuring out who's making this stuff -- like, this is a bot? Is this a person? Is this a troll? What does it mean that we can't tell the difference between these things anymore? And again, doesn't that uncertainty feel kind of familiar right now?
다시 말해, 누가 이런 것들을 만드는지 알 수가 없다는 것 자동처리 프로그램? 사람인가? 아니면 트롤인가? 우리가 이제 이런 것들을 구별할 수 없다는 것이 무엇을 의미할까요? 다시 말해, 이런 불확실함에 익숙하지 않으세요?
So the main way people get views on their videos -- and remember, views mean money -- is that they stuff the titles of these videos with these popular terms. So you take, like, "surprise eggs" and then you add "Paw Patrol," "Easter egg," or whatever these things are, all of these words from other popular videos into your title, until you end up with this kind of meaningless mash of language that doesn't make sense to humans at all. Because of course it's only really tiny kids who are watching your video, and what the hell do they know? Your real audience for this stuff is software. It's the algorithms. It's the software that YouTube uses to select which videos are like other videos, to make them popular, to make them recommended. And that's why you end up with this kind of completely meaningless mash, both of title and of content.
사람들이 조회수를 올리기 위해 쓰는 주된 방법은 조회수는 곧 돈이란 걸 기억하세요. 사람들이 많이 찾는 말을 제목에 붙여 쓰는 것입니다. 예를 들어, "서프라이즈 에그"를 제목에 붙이고, "파우 패트롤", "부활절 달걀" 같은 말들을 마구잡이로 가져다가 곁들이는 거죠. 인간으로서 이해할 수 없는 의미없는 말들을 줄줄이 엮어 사람들로 하여금 그 영상들을 보게 하는 것입니다. 어차피 그런 영상을 보는건 어린 아이들인데, 그 아이들이 무슨 죄죠? 사실 이런 영상들의 실질적인 시청자는 소프트웨어입니다. 알고리즘이죠. 유튜브에서 사용하는 이 소프트웨어는 영상들을 선별하고, 인기나 추천을 많이 받게 만듭니다. 그래서 이 황당한 말들이 제목과 내용 설명에 마구 쓰여지는 거죠.
But the thing is, you have to remember, there really are still people within this algorithmically optimized system, people who are kind of increasingly forced to act out these increasingly bizarre combinations of words, like a desperate improvisation artist responding to the combined screams of a million toddlers at once. There are real people trapped within these systems, and that's the other deeply strange thing about this algorithmically driven culture, because even if you're human, you have to end up behaving like a machine just to survive.
하지만, 꼭 명심할 것은 알고리즘으로 최적화된 이런 시스템 상에서 점점 더 괴상한 말의 조합들을 쏟아 내야하는 환경이 조장된다는 것입니다. 마치 수 많은 아이들의 함성에 굶주린 절박한 즉흥연기자처럼 말이죠. 실제로 사람들은 이런 시스템 안에 갇히게 되고, 알고리즘에 의해 지배되는 사회라는 아주 기이한 현상을 초래했습니다. 인간임에도 불구하고, 살아남기 위해, 기계처럼 행동하게 된 것이죠.
And also, on the other side of the screen, there still are these little kids watching this stuff, stuck, their full attention grabbed by these weird mechanisms. And most of these kids are too small to even use a website. They're just kind of hammering on the screen with their little hands. And so there's autoplay, where it just keeps playing these videos over and over and over in a loop, endlessly for hours and hours at a time. And there's so much weirdness in the system now that autoplay takes you to some pretty strange places. This is how, within a dozen steps, you can go from a cute video of a counting train to masturbating Mickey Mouse. Yeah. I'm sorry about that. This does get worse. This is what happens when all of these different keywords, all these different pieces of attention, this desperate generation of content, all comes together into a single place. This is where all those deeply weird keywords come home to roost. You cross-breed the finger family video with some live-action superhero stuff, you add in some weird, trollish in-jokes or something, and suddenly, you come to a very weird place indeed.
그리고, 화면 반대편에는 어린 아이들이 여전히 이런 영상들을 보고 있고, 이 기이한 구조에 푹 빠져 버립니다. 이런 웹사이트를 이용하는 아이들은 대부분 아주 어리죠. 작은 손으로 화면을 두들기는 것 뿐입니다. 그래서 자동재생 기능이 있는 거죠. 이런 영상들이 계속 반복해서 보여지도록 말입니다. 한 번에 몇 시간씩 끝도 없습니다. 현재 이런 시스템에는 정말 이상한 것들이 많은데, 자동재생이 되면서 뜻밖의 영상이 보여 지기도 하죠. 열 몇 번 정도를 거치면, 기차의 수를 세는 이 깜찍한 영상에서 시작해, 미키마우스가 자위하는 영상까지 보게 됩니다. 맞습니다. 안타까운 일이죠. 이제 더 심각해집니다. 이런 것들은, 이 다양한 키워드들, 이 다양한 관심들, 이 필사적인 콘텐츠의 양산 등이 한 데 모이면서 발생합니다. 이상한 검색어들이 모여 부메랑 효과를 가져오는 거죠. '핑거 패밀리' 영상과 슈퍼영웅이 나오는 영화들을 함께 검색해 보면, 그냥 장난으로 별난 검색어를 쳤을 뿐인데, 뜻밖에 아주 이상한 결과에 접하게 됩니다.
The stuff that tends to upset parents is the stuff that has kind of violent or sexual content, right? Children's cartoons getting assaulted, getting killed, weird pranks that actually genuinely terrify children. What you have is software pulling in all of these different influences to automatically generate kids' worst nightmares. And this stuff really, really does affect small children. Parents report their children being traumatized, becoming afraid of the dark, becoming afraid of their favorite cartoon characters. If you take one thing away from this, it's that if you have small children, keep them the hell away from YouTube.
부모님들을 주로 화나게 하는 폭력적이거나 성적인 것들이죠. 맞나요? 폭행이나 살인, 짖궂은 장난 등을 보여주는 어린이 만화들은 아이들을 겁에 질리게 합니다. 다양하게 영향을 미치는 영상물들을 긁어 모으는 소프트웨어가 아이들에게 아주 끔찍한 악몽들을 기계적으로 제공하는 것이죠. 어린 아이들은 아주 큰 영향을 받게 됩니다. 부모님들은 아이들이 정신적인 충격을 받고, 어둠을 무서워하게 되고, 좋아하던 만화 주인공들까지 기피하게 됐다고 말합니다. 오늘 꼭 기억해야 할 것 하나는, 혹시 어린 자녀분들이 계시다면, 유튜브는 절대 쓰지 못하게 하란 것입니다.
(Applause)
(박수)
But the other thing, the thing that really gets to me about this, is that I'm not sure we even really understand how we got to this point. We've taken all of this influence, all of these things, and munged them together in a way that no one really intended. And yet, this is also the way that we're building the entire world. We're taking all of this data, a lot of it bad data, a lot of historical data full of prejudice, full of all of our worst impulses of history, and we're building that into huge data sets and then we're automating it. And we're munging it together into things like credit reports, into insurance premiums, into things like predictive policing systems, into sentencing guidelines. This is the way we're actually constructing the world today out of this data. And I don't know what's worse, that we built a system that seems to be entirely optimized for the absolute worst aspects of human behavior, or that we seem to have done it by accident, without even realizing that we were doing it, because we didn't really understand the systems that we were building, and we didn't really understand how to do anything differently with it.
그런데, 또 하나 저를 괴롭히는 건 어쩌다 상황이 이렇게까지 됐는지 알 수가 없다는 것입니다. 이런 영향력을 가진 모든 것들을 가져다 뒤섞어, 누구도 예상치 못한 기이한 현상을 만들어 낸 것입니다. 그런데, 이것이 오늘날 우리가 세상을 만들어 가는 방식이죠. 이런 모든 데이터를 가지고, 좋지 않은 것들이 많은데요. 편견으로 가득한 과거의 기록들, 역사상 최악의 충동적인 사건 사고들을 모아 거대한 데이터 집합을 만들어 자동화시키고 있습니다. 우리는 그 데이터들을 함께 섞어, 신용평가 보고서, 보험료 산정, 치안 예측 시스템, 양형기준 등을 정하는 데 쓰고 있습니다. 오늘날 우리가 세상을 만들어 가는 방식이 이런 데이터들에 의해 결정되는 것이죠. 뭐가 더 나쁜 건지 모르겠어요. 인간이 할 수 있는 최악의 행위에 최적화된 시스템을 일부러 만들어 내는 것과, 부지불식간에 어쩌다가 그렇게 되버리는 것 중 말이죠. 우리가 만들고 있는 이 시스템들의 활용 방법 또한 전혀 알지 못하기 때문입니다.
There's a couple of things I think that really seem to be driving this most fully on YouTube, and the first of those is advertising, which is the monetization of attention without any real other variables at work, any care for the people who are actually developing this content, the centralization of the power, the separation of those things. And I think however you feel about the use of advertising to kind of support stuff, the sight of grown men in diapers rolling around in the sand in the hope that an algorithm that they don't really understand will give them money for it suggests that this probably isn't the thing that we should be basing our society and culture upon, and the way in which we should be funding it.
이런 현상을 이끄는 두 가지 요인이 있습니다. 거의 유튜브에서 말이죠. 첫번째, 광고입니다. 사람들의 관심을 끌어 수익을 창출하는 것 말이죠. 사실 다른 이유는 찾아보기 힘듭니다. 실제 이런 콘텐츠를 만드는 사람들, 권력의 중앙 집권화와 분산 등은 신경도 쓰지 않습니다. 결국 이런 현상을 부추기는 광고의 사용에 대해 어떻게 생각하실지 모르지만, 사실 제대로 알지도 못하는 알고리즘을 통해 혹시 돈이 될까 하고 만든, 다 큰 어른이 기저귀를 차고 모래사장에서 뒹구는 이 영상이 시사하는 것은, 이런 것들이 우리 사회와 문화의 기반이 되어서도, 투자의 대상이 되어서도 안된다는 것입니다.
And the other thing that's kind of the major driver of this is automation, which is the deployment of all of this technology as soon as it arrives, without any kind of oversight, and then once it's out there, kind of throwing up our hands and going, "Hey, it's not us, it's the technology." Like, "We're not involved in it." That's not really good enough, because this stuff isn't just algorithmically governed, it's also algorithmically policed. When YouTube first started to pay attention to this, the first thing they said they'd do about it was that they'd deploy better machine learning algorithms to moderate the content. Well, machine learning, as any expert in it will tell you, is basically what we've started to call software that we don't really understand how it works. And I think we have enough of that already. We shouldn't be leaving this stuff up to AI to decide what's appropriate or not, because we know what happens. It'll start censoring other things. It'll start censoring queer content. It'll start censoring legitimate public speech. What's allowed in these discourses, it shouldn't be something that's left up to unaccountable systems. It's part of a discussion all of us should be having.
이런 현상을 이끄는 또 다른 요인은 자동화입니다. 소개되자마자 아무런 검증도 없이 상용화되는 과학기술의 단면이죠. 일단 그렇게 된 후에는, 그저 포기 한 것처럼, "봐, 우리가 아니라, 그 기술이 문제야." "우리하곤 상관 없어" 하는 것 처럼 말이죠. 이건 변명에 불과합니다. 단순히 알고리즘에 의해 지배되고 있을 뿐 아니라, 규제까지 받고 있기 때문이죠. 유튜브가 이 문제에 처음 관심을 가지면서 제일 먼저 약속했던 건, 콘텐츠의 관리를 위해 보다 나은 기계 학습 알고리즘을 활용하겠다는 것이었습니다. 글쎄요, 전문가라면 말하겠지만, 기계 학습은, 우리가 흔히 예측 불가능한 소프트웨어에 쓰는 말이죠. 이미 주변에서 이런 것들은 충분히 볼 수 있습니다. 올바르거나, 그렇지 않은 것의 판단을 인공지능에 맡겨서는 안되겠죠. 어떤 일이 벌어질지 우리는 잘 알고 있습니다. 엉뚱한 것들을 검열하기 시작하겠죠. 동성애 관련 콘텐츠를 검열하기 시작할 겁니다. 합법적인 대중을 향한 연설도 검열하기 시작할 겁니다. 이런 강연을 통해 전달할 수 있는 것들이, 책임의 소재가 없는 시스템에 의해 결정되어서는 안되겠죠. 우리 모두 토론해 봐야 할 문제 중 하나입니다.
But I'd leave a reminder that the alternative isn't very pleasant, either. YouTube also announced recently that they're going to release a version of their kids' app that would be entirely moderated by humans. Facebook -- Zuckerberg said much the same thing at Congress, when pressed about how they were going to moderate their stuff. He said they'd have humans doing it. And what that really means is, instead of having toddlers being the first person to see this stuff, you're going to have underpaid, precarious contract workers without proper mental health support being damaged by it as well.
그런데 그에 대한 대안 조차도 그다지 유쾌하지만은 않습니다. 유튜브에서 최근 발표한 전적으로 사람에 의해 관리되는 새로운 아동용 어플입니다. 페이스북의 '저커버그'도 국회 청문회에서 같은 말을 했죠. 콘텐츠 관리에 대해 다그침을 받았을 때 말입니다. 기계가 아닌 사람들이 그 일을 할 것이라고 했습니다. 그 말인 즉슨 이런 영상들을 먼저 접하던 아이들을 대신해 박봉에 불안정한 생활을 하고, 정신 건강을 위한 지원도 받지 못하며 이미 그런 영상들에 의해 피폐해진 계약직원들을 내세우는 것이죠.
(Laughter)
(웃음)
And I think we can all do quite a lot better than that.
우리 모두 이보단 훨씬 더 잘 할 수 있을 거라고 믿습니다.
(Applause)
(박수)
The thought, I think, that brings those two things together, really, for me, is agency. It's like, how much do we really understand -- by agency, I mean: how we know how to act in our own best interests. Which -- it's almost impossible to do in these systems that we don't really fully understand. Inequality of power always leads to violence. And we can see inside these systems that inequality of understanding does the same thing. If there's one thing that we can do to start to improve these systems, it's to make them more legible to the people who use them, so that all of us have a common understanding of what's actually going on here.
제 생각에, 그 두가지 문제를 모두 해결하기 위해 필요한건 바로 중재입니다. 제가 말하는 중재는 얼마나 우리가 이해하고 있고, 우리 스스로의 이익을 위해 행동하는 방식을 말합니다. 우리가 그 시스템을 제대로 이해하지 못한다면 거의 불가능한 일이겠죠. 힘의 불균형은 언제나 폭력을 야기합니다. 이런 시스템 상에서도 마찬가지죠. 이해의 불균형 역시 같은 결과를 초래합니다. 이런 시스템의 개선을 위한 한가지 방법이 있다면, 사용자들에게 더 쉽게 만들어, 어떤 일들이 벌어지는지 다 함께 이해하는 것입니다.
The thing, though, I think most about these systems is that this isn't, as I hope I've explained, really about YouTube. It's about everything. These issues of accountability and agency, of opacity and complexity, of the violence and exploitation that inherently results from the concentration of power in a few hands -- these are much, much larger issues. And they're issues not just of YouTube and not just of technology in general, and they're not even new. They've been with us for ages. But we finally built this system, this global system, the internet, that's actually showing them to us in this extraordinary way, making them undeniable. Technology has this extraordinary capacity to both instantiate and continue all of our most extraordinary, often hidden desires and biases and encoding them into the world, but it also writes them down so that we can see them, so that we can't pretend they don't exist anymore. We need to stop thinking about technology as a solution to all of our problems, but think of it as a guide to what those problems actually are, so we can start thinking about them properly and start to address them.
이 시스템들에 관련된 문제들이 제가 잘 설명을 했으면 하는데, 단지 유튜브에 국한된 것은 아니죠. 세상 모든 일들에 연관되어 있습니다. 책임과 중재, 불투명함과 복잡함, 폭력과, 소수에 집중된 권력으로부터의 착취 등이 더욱 더 심각한 문제들입니다. 단지 유튜브와 과학기술 전반의 문제만이 아니죠. 사실 새로운 일도 아니고, 우리는 오랜동안 이런 문제들과 함께 했습니다. 그런데, 결국 인터넷이라는 글로벌 시스템이 소개되면서, 이런 현상들이 우리들에게 노출된 것입니다. 더이상 부정할 수 없게 말이죠. 과학기술의 힘은 정말 놀랍습니다. 때론 숨겨진 엄청난 욕망과 편견들을 예시하고 지속되게 하며, 그것들을 암호화해 세상에 뿌리기도 하죠. 우리가 직접 볼 수 있도록, 글로 옮기기도 합니다. 우리가 그것들의 존재를 부인할 수 없도록 말이죠. 과학기술이 모든 문제들을 해결해 줄 거라 생각하는 대신, 그 문제들을 파악하는 데 참고로 사용해야만, 정확한 판단을 하고, 해결까지 할 수 있겠죠.
Thank you very much.
대단히 감사합니다.
(Applause)
(박수)
Thank you.
감사합니다.
(Applause)
(박수)
Helen Walters: James, thank you for coming and giving us that talk. So it's interesting: when you think about the films where the robotic overlords take over, it's all a bit more glamorous than what you're describing. But I wonder -- in those films, you have the resistance mounting. Is there a resistance mounting towards this stuff? Do you see any positive signs, green shoots of resistance?
헬렌 월터스(Helen Walters): 제임스, 오늘 좋은 강연 감사드려요. 그러니까 흥미로운 건, 영화에 등장하는 로봇들이 지배하는 세상은 지금 말씀하신 것보다 훨씬 더 매력적으로 느껴지기도 하는데요. 제가 궁금한건, 그런 영화에는 항상 저항세력이 등장하는데, 지금도 이런 추세에 저항하는 사람들이 있을까요? 어떤 긍정적인 움직임이나, 발전의 조짐 등이 보이나요?
James Bridle: I don't know about direct resistance, because I think this stuff is super long-term. I think it's baked into culture in really deep ways. A friend of mine, Eleanor Saitta, always says that any technological problems of sufficient scale and scope are political problems first of all. So all of these things we're working to address within this are not going to be addressed just by building the technology better, but actually by changing the society that's producing these technologies. So no, right now, I think we've got a hell of a long way to go. But as I said, I think by unpacking them, by explaining them, by talking about them super honestly, we can actually start to at least begin that process.
제임스: 전면적인 저항이 있는지는 잘 모르겠어요. 장기적인 문제라고 생각해요. 문화 속 깊이 뿌리내리고 있기 때문이죠. 엘레노어 사이터(Eleanor Saitta)란 제 친구는 항상 말합니다, 어느 정도 영향력을 가진 과학기술에 관련된 문제들은 우선 정치에 관련돼 있다는 거죠. 그래서 우리가 해결하려는 이 모든 문제들은 단순한 과학기술의 발전이 아니라, 이런 기술을 만들어 내는 사회를 변화시켜야 가능하단 거죠. 그래서 지금 당장은, 아직 갈 길이 멀다고 생각합니다. 하지만 제가 말했듯이, 이 문제를 풀어 헤치고, 밝혀내고, 솔직하게 토론하면서, 적어도 그 시작은 할 수 있다고 생각합니다.
HW: And so when you talk about legibility and digital literacy, I find it difficult to imagine that we need to place the burden of digital literacy on users themselves. But whose responsibility is education in this new world?
헬렌 : 그리고, 가독성과 디지털 문해력에 대한 얘기를 들으면서 제가 상상하기 어려웠던 건, 그 책임을 사용자들에게 지우는 것인데요. 그럼 교육에 관한 책임은 새로운 이 세상 속 누구의 몫일까요?
JB: Again, I think this responsibility is kind of up to all of us, that everything we do, everything we build, everything we make, needs to be made in a consensual discussion with everyone who's avoiding it; that we're not building systems intended to trick and surprise people into doing the right thing, but that they're actually involved in every step in educating them, because each of these systems is educational. That's what I'm hopeful about, about even this really grim stuff, that if you can take it and look at it properly, it's actually in itself a piece of education that allows you to start seeing how complex systems come together and work and maybe be able to apply that knowledge elsewhere in the world.
제임스: 다시 말하지만, 우리 모두에게 있다고 생각해요. 우리가 행하고, 구축하고, 만드는 모든 것들이 그것들을 회피하는 모든 이들도 대체로 동의하게 끔 논의를 거쳐야 한다고 생각해요. 올바른 일을 하기 위해, 사람들을 속이고 경악케 하는 시스템을 구축하진 않겠죠. 그 교육의 모든 단계에 연관되어 있습니다. 왜냐면 각각의 시스템으로부터 배울 것들이 있기 때문이죠. 아주 우울한 문제지만, 바로 거기에 희망이 있습니다. 우리가 그것을 가져다 잘 살펴보면, 그 자체가 일종의 교육이겠죠. 복잡한 시스템들이 하나로 움직이는 방식을 보고, 아마도 그 지식을 세상 여러 곳에 활용할 수 있겠죠.
HW: James, it's such an important discussion, and I know many people here are really open and prepared to have it, so thanks for starting off our morning.
헬렌 : 아주 중요한 문제이고, 많은 분들이 실제로 마음을 열고, 받아들일 준비가 되어 있는 것 같아요. 아침부터 아주 좋은 시간 감사드립니다.
JB: Thanks very much. Cheers.
제임스 : 감사합니다.
(Applause)
(박수)