I'm James. I'm a writer and artist, and I make work about technology. I do things like draw life-size outlines of military drones in city streets around the world, so that people can start to think and get their heads around these really quite hard-to-see and hard-to-think-about technologies. I make things like neural networks that predict the results of elections based on weather reports, because I'm intrigued about what the actual possibilities of these weird new technologies are. Last year, I built my own self-driving car. But because I don't really trust technology, I also designed a trap for it.
Benim adım James. Yazar ve sanatçıyım ve teknoloji alanında çalışıyorum. Dünyanın farklı şehirlerinde askeri dronların tam boyutlu taslaklarını çizmek gibi işler yapıyorum; görmesi ve düşünmesi oldukça zor olan bu teknolojileri insanlar düşünmeye ve anlamaya başlasın diye. Seçim sonuçlarını hava durumuna dayanarak tahmin eden nöronal devreler gibi şeyler yapıyorum, çünkü bu garip yeni teknolojilerin asıl potansiyellerinin ne olduğu konusuna çok merak duyuyorum. Geçen yıl, kendi kendine giden arabamı yaptım. Ama teknolojiye pek güvenmediğim için ona bir tuzak da hazırladım.
(Laughter)
(Kahkaha)
And I do these things mostly because I find them completely fascinating, but also because I think when we talk about technology, we're largely talking about ourselves and the way that we understand the world. So here's a story about technology.
Bu şeyleri yapmamın asıl nedeni onları fazlasıyla ilginç bulmam ama öyle düşünüyorum ki teknolojiden bahsettiğimizde büyük oranda kendimizden ve dünyayı anlayış şeklimizden bahsediyoruz. İşte teknolojiyle ilgili bir hikaye.
This is a "surprise egg" video. It's basically a video of someone opening up loads of chocolate eggs and showing the toys inside to the viewer. That's it. That's all it does for seven long minutes. And I want you to notice two things about this. First of all, this video has 30 million views.
Bu bir "sürpriz yumurta" videosu. Birisinin bir sürü çikolotadan yumurtayı açıp içlerindeki oyuncakları izleyiciye gösterdiği bir video. Bu kadar. Yedi uzun dakika boyunca olan tek şey bu. Bununla ilgili iki şeyi fark etmenizi istiyorum. İlk olarak, bu videonun 30 milyon görüntülenmesi var.
(Laughter)
(Kahkaha)
And the other thing is, it comes from a channel that has 6.3 million subscribers, that has a total of eight billion views, and it's all just more videos like this -- 30 million people watching a guy opening up these eggs. It sounds pretty weird, but if you search for "surprise eggs" on YouTube, it'll tell you there's 10 million of these videos, and I think that's an undercount. I think there's way, way more of these. If you keep searching, they're endless. There's millions and millions of these videos in increasingly baroque combinations of brands and materials, and there's more and more of them being uploaded every single day. Like, this is a strange world. Right?
Diğer şey şu, 6,3 milyon abonesi, toplamda sekiz milyar görüntülenmesi olan bir kanaldan geliyor ve kanaldaki bütün videolar böyle -- adamın birinin bu yumurtaları açmasını izleyen 30 milyon insan. Kulağa garip geliyor ama Youtube'da "sürpriz yumurta"yı aratırsanız size bu videolardan 10 milyon tane olduğunu söyler ve bence bu sayı düşük. Bence bu videolardan çok daha fazla var. Eğer aramaya devam ederseniz sonu gelmez. Marka ve ürünlere ilişkin giderek artan abartı kombinasyonlarda bu videolardan milyonlarca var ve her geçen gün daha da fazlası yükleniyor. Garip bir dünya.
But the thing is, it's not adults who are watching these videos. It's kids, small children. These videos are like crack for little kids. There's something about the repetition, the constant little dopamine hit of the reveal, that completely hooks them in. And little kids watch these videos over and over and over again, and they do it for hours and hours and hours. And if you try and take the screen away from them, they'll scream and scream and scream. If you don't believe me -- and I've already seen people in the audience nodding -- if you don't believe me, find someone with small children and ask them, and they'll know about the surprise egg videos. So this is where we start. It's 2018, and someone, or lots of people, are using the same mechanism that, like, Facebook and Instagram are using to get you to keep checking that app, and they're using it on YouTube to hack the brains of very small children in return for advertising revenue.
Ama asıl önemli kısım şu, bu videoları izleyenler yetişkinler değil. Çocuklar, küçük çocuklar. Bu videolar sanki çocuklara özel uyuşturucu. Tekrarlanma ile ilgili bir şey var, onları tamamen bağımlı yapan, yumurtadan çıkanın sabit küçük dopamin vuruşlarıyla ilgili. Küçük çocuklar bu videoları tekrar tekrar izliyorlar ve bunu saatlerce yapıyorlar. Ekranı onlardan uzaklaştırmaya çalışırsanız durmadan bağıracaklardır. Eğer bana inanmıyorsanız -ki seyircilerden başıyla onaylayanları gördüm- inanmıyorsanız küçük çocuğu olan birini bulup sorun, sürpriz yumurta videolarını bileceklerdir. İşte burada başlıyoruz. Yıl 2018, birisi veya birçok kişi, Facebook ve Instagram'ın kullandığı, sizde bu uygulamaları sürekli kontrol etme ihtiyacı uyandıran o mekanizmanın aynısını kullanıyor. Bunu çok küçük çocukların beyinlerini ele geçirmek için Youtube'da reklam geliri karşılığında kullanıyorlar.
At least, I hope that's what they're doing. I hope that's what they're doing it for, because there's easier ways of making ad revenue on YouTube. You can just make stuff up or steal stuff. So if you search for really popular kids' cartoons like "Peppa Pig" or "Paw Patrol," you'll find there's millions and millions of these online as well. Of course, most of them aren't posted by the original content creators. They come from loads and loads of different random accounts, and it's impossible to know who's posting them or what their motives might be. Does that sound kind of familiar? Because it's exactly the same mechanism that's happening across most of our digital services, where it's impossible to know where this information is coming from. It's basically fake news for kids, and we're training them from birth to click on the very first link that comes along, regardless of what the source is. That's doesn't seem like a terribly good idea.
En azından, umarım yaptıkları budur. Umarım bunun için yapıyorlardır çünkü Youtube'da reklamdan gelir elde etmenin daha kolay yolları var. Bir şeyler uydurabilir ya da çalabilirsiniz. Eğer "Pegga Pig" veya "Paw Petrol" gibi popüler çizgi filmleri ararsanız internet üzerinde bunlardan milyonlarcasını bulabilirsiniz. Tabii ki bunların çoğu orjinal içerik yaratıcıları tarafından konulmaz. Rastgele birçok farklı hesap tarafından konuluyorlar ve bunları kimin koyduğunu veya amaçlarının ne olduğunu bilmek imkânsız. Tanıdık geldi mi? Çünkü dijital hizmetlerin çoğunda var olan mekanizmanın tamamen aynısı bu, bilginin nereden geldiğini bilmek imkânsız. Bu resmen çocuklar için sahte haber ve onları doğduklarından itibaren önlerine gelen ilk linke tıklamaları için eğitiyoruz, kaynağının ne olduğunu bile umursamadan. Bu çok da iyi bir fikir gibi durmuyor.
Here's another thing that's really big on kids' YouTube. This is called the "Finger Family Song." I just heard someone groan in the audience. This is the "Finger Family Song." This is the very first one I could find. It's from 2007, and it only has 200,000 views, which is, like, nothing in this game. But it has this insanely earwormy tune, which I'm not going to play to you, because it will sear itself into your brain in the same way that it seared itself into mine, and I'm not going to do that to you. But like the surprise eggs, it's got inside kids' heads and addicted them to it. So within a few years, these finger family videos start appearing everywhere, and you get versions in different languages with popular kids' cartoons using food or, frankly, using whatever kind of animation elements you seem to have lying around. And once again, there are millions and millions and millions of these videos available online in all of these kind of insane combinations. And the more time you start to spend with them, the crazier and crazier you start to feel that you might be.
YouTube'da gerçekten sevilen bir diğer şey daha var. İsmi "Parmak Ailesi Şarkısı." Seyircilerden birinin sızlandığını duydum. Bu "Parmak Ailesi Şarkısı." Bu bulabildiklerim arasında en eskisi. 2007 yılında yüklenmiş ve sadece 200.000 kez izlenmiş, ki bu, nerdeyse bu platformda hiç demek. Ama insanı deli eden ve diline dolanan bir melodisi var, bunu size dinletmeyeceğim çünkü şarkı beyninize kazınacak, tıpkı benim beynime kazındığı gibi ve sizi buna maruz bırakmayacağım. Aynı sürpriz yumurtalar gibi çocukların aklına girerek onları buna bağımlı yaptılar. Böylece birkaç yıl içinde, bu parmak ailesi videoları her yerde görünmeye başladı ve farklı dillerde popüler çizgi filmlerin yiyecek hatta her çeşit animasyon malzemesini kullandıkları versiyonları etrafa yayıldı. Yine aynı şekilde, bu tür çılgınca kombinasyonlardan oluşan milyonlarca video internette mevcut. Onlarla ne kadar vakit geçirirseniz delirdiğinize dair inancınız o kadar artar.
And that's where I kind of launched into this, that feeling of deep strangeness and deep lack of understanding of how this thing was constructed that seems to be presented around me. Because it's impossible to know where these things are coming from. Like, who is making them? Some of them appear to be made of teams of professional animators. Some of them are just randomly assembled by software. Some of them are quite wholesome-looking young kids' entertainers. And some of them are from people who really clearly shouldn't be around children at all.
Ben de bu noktada bu konuya yöneldim, çevremde sunuluyor gibi görünen bu şeyin nasıl inşa edildiğini asla anlayamama ve derin yabancılaşma hissi. Çünkü bu şeylerin nereden geldiğini bilmek imkânsız. Yani, kim yapıyor bunları? Bazıları profesyonel animatör ekiplerle yapılmış gibi duruyor. Bazıları sadece yazılım tarafından rastgele birleştirilmiş. Bazıları oldukça sağlıklı görünen küçük çocuk şovmenleri. Ve bazıları da... kesinlikle çocukların etrafında bulunmaması gereken insanlardan.
(Laughter)
(Gülme sesleri)
And once again, this impossibility of figuring out who's making this stuff -- like, this is a bot? Is this a person? Is this a troll? What does it mean that we can't tell the difference between these things anymore? And again, doesn't that uncertainty feel kind of familiar right now?
Bir kez daha, bu şeyleri yapanın kim olduğunu çözmenin imkansızlığı-- Bu bir robot mu? Bu bir insan mı? Bir trol mü? Artık bu şeylerin farkını söyleyemiyor olmamız ne anlama gelir? Peki bu belirsizlik tanıdık geliyor mu?
So the main way people get views on their videos -- and remember, views mean money -- is that they stuff the titles of these videos with these popular terms. So you take, like, "surprise eggs" and then you add "Paw Patrol," "Easter egg," or whatever these things are, all of these words from other popular videos into your title, until you end up with this kind of meaningless mash of language that doesn't make sense to humans at all. Because of course it's only really tiny kids who are watching your video, and what the hell do they know? Your real audience for this stuff is software. It's the algorithms. It's the software that YouTube uses to select which videos are like other videos, to make them popular, to make them recommended. And that's why you end up with this kind of completely meaningless mash, both of title and of content.
Yani, insanların videolarını izletmelerinin tek yolu -ki izlenme sayısı para demek- bu tür popüler terimleri videolarının başlığına sıkıştırmak. Mesela "sürpriz yumurta"yı alır, "Paw Patrol" veya "Easter egg"i eklersiniz, ya da bu şeyler her neyse, popüler videolardaki bu kelimeleri alır ve başlığına eklersiniz, ta ki insanlara hiçbir anlam ifade etmeyen bu tür anlamsız bir karma dil elde edene dek. Çünkü tabii ki sizin videonuzu izleyenler sadece ufacık çocuklar, onlar ne biliyorlar ki? Sizin bu şey için asıl seyirciniz yazılım. Algoritmalar. Youtube'un hangi videoların diğerleri gibi olduğunu seçmek için onları popüler ve önerilen video yapmak için kullandığı yazılım. Tamamıyla anlamsız olan bu karışımla sonuçlanmanızın nedeni de bu, hem başlık hem içerik olarak.
But the thing is, you have to remember, there really are still people within this algorithmically optimized system, people who are kind of increasingly forced to act out these increasingly bizarre combinations of words, like a desperate improvisation artist responding to the combined screams of a million toddlers at once. There are real people trapped within these systems, and that's the other deeply strange thing about this algorithmically driven culture, because even if you're human, you have to end up behaving like a machine just to survive.
Ama önemli olan, hatırlamalısınız ki algoritmik olarak en iyi hâle getirilen bu sistemin içinde gerçekten insanlar var. Giderek garipleşen bu kelime kombinasyonlarını canlandırmaya zorlanan insanlar, tıpkı yürümeye yeni başlayan milyonlarca bebeğin çığlığına karşılık veren umutsuz bir doğaçlama sanatçısı gibi. Bu sistemlerde sıkışıp kalmış gerçek insanlar var ve bu da algoritmik işleyen bu kültürdeki son derece garip bir diğer şey çünkü insansan bile, bir makine gibi davranmak zorundasın, hayatta kalabilmek için.
And also, on the other side of the screen, there still are these little kids watching this stuff, stuck, their full attention grabbed by these weird mechanisms. And most of these kids are too small to even use a website. They're just kind of hammering on the screen with their little hands. And so there's autoplay, where it just keeps playing these videos over and over and over in a loop, endlessly for hours and hours at a time. And there's so much weirdness in the system now that autoplay takes you to some pretty strange places. This is how, within a dozen steps, you can go from a cute video of a counting train to masturbating Mickey Mouse. Yeah. I'm sorry about that. This does get worse. This is what happens when all of these different keywords, all these different pieces of attention, this desperate generation of content, all comes together into a single place. This is where all those deeply weird keywords come home to roost. You cross-breed the finger family video with some live-action superhero stuff, you add in some weird, trollish in-jokes or something, and suddenly, you come to a very weird place indeed.
Bir de ekranın diğer tarafında bu tür şeyleri hâlâ izleyen, sıkışmış, tüm dikkati bu garip mekanizmalar tarafından yakalanmış çocuklar var. Bu çocukların çoğu, internete girmek için bile çok küçük. Sadece küçük elleriyle ekrana çekiçle vurur gibi vuruyorlar. Bir de otomatik oynatma var, bu videoları bir döngü içinde sonsuz bir şekilde saatlerce tekrar tekrar oynatan. Sistemde şu an çok fazla gariplik var, bu otomatik oynatma sizi çok garip yerlere götürüyor. İşte bu şekilde on iki adımda, sayı sayan sevimli trenin videosundan mastürbasyon yapan Mickey Mouse'a gidebilirsiniz. Evet, bu konuda üzgünüm. Bu daha da kötüye gidiyor. Tüm bu farklı anahtar kelimeler, farklı dikkat parçaları, umutsuz içerik jenerasyonu, tüm bunların hepsi tek bir yerde bir araya gelince ortaya çıkan bu. Burası tüm bu son derece garip anahtar kelimelerin geri teptiği yer. Parmak ailesi videosunu alıp süper kahramanlarla çiftleştirirsiniz, birkaç garip, trol şaka eklersiniz ve birdenbire cidden de garip bir yere gelirsiniz.
The stuff that tends to upset parents is the stuff that has kind of violent or sexual content, right? Children's cartoons getting assaulted, getting killed, weird pranks that actually genuinely terrify children. What you have is software pulling in all of these different influences to automatically generate kids' worst nightmares. And this stuff really, really does affect small children. Parents report their children being traumatized, becoming afraid of the dark, becoming afraid of their favorite cartoon characters. If you take one thing away from this, it's that if you have small children, keep them the hell away from YouTube.
Ebeveynleri endişelendirebilecek şeyler şiddet veya cinsellik içeren şeyler, değil mi? Çocuk çizgi kahramanlar saldırıya uğruyor, öldürülüyor, çocukları aslında gerçekten korkutan garip şakalar. Yazılımlar tüm bu farklı etkileri, çocukların en kötü kâbuslarını otomatik olarak üretmek için kullanıyorlar. Bu tür şeyler gerçekten de küçük çocukları etkiliyor. Ebeveynler çocuklarının travma geçirdiğini, karanlıktan korkar olduğunu, sevdikleri çizgi film karakterlerinden korktuğunu bildiriyor. Bundan bir çıkarım yaparsanız şu olsun: eğer küçük çocuklarınız varsa onları YouTube'dan uzak tutun.
(Applause)
(Alkışlar)
But the other thing, the thing that really gets to me about this, is that I'm not sure we even really understand how we got to this point. We've taken all of this influence, all of these things, and munged them together in a way that no one really intended. And yet, this is also the way that we're building the entire world. We're taking all of this data, a lot of it bad data, a lot of historical data full of prejudice, full of all of our worst impulses of history, and we're building that into huge data sets and then we're automating it. And we're munging it together into things like credit reports, into insurance premiums, into things like predictive policing systems, into sentencing guidelines. This is the way we're actually constructing the world today out of this data. And I don't know what's worse, that we built a system that seems to be entirely optimized for the absolute worst aspects of human behavior, or that we seem to have done it by accident, without even realizing that we were doing it, because we didn't really understand the systems that we were building, and we didn't really understand how to do anything differently with it.
Fakat diğer bir şey ise, bu konuda beni gerçekten üzen şey şu ki bu noktaya nasıl geldiğimizi cidden anladığımızdan emin değilim. Tüm bu etkileri, tüm bu şeyleri aldık ve kimsenin pek niyetlenmediği bir şekilde birleştirdik. Ancak dünyayı inşa etme şeklimiz günümüzde bu. Bütün bu verileri alıyoruz, ki çoğu kötü veriler, önyargılarla dolu bir sürü tarihi veri, tarihin en kötü dürtüleriyle dolu, bunlardan devasa veri setleri yaratıyoruz, sonra da otomatikleştiriyoruz. Bunların hepsini birlikte kredi raporlarına, sigorta primlerine, tahmini polislik sistemi gibi şeylere, hüküm rehberlerine dönüştürüyoruz. Bu aslında, bugün bu dünyayı bu verileri kullanarak inşa etme şeklimizdir. Hangisi daha kötü bilmiyorum, İnsan davranışlarının en kötü yanları için en uygun hâle getirilmiş gibi görünen bir sistem kurmamız mı yoksa bunu yapıyor olduğumuzun bile farkına varmadan kazara yapmış gibi görünüyor olmamız mı? Çünkü yapmakta olduğumuz bu sistemleri gerçekten anlayamadık, onlarla nasıl daha farklı bir şey yapılacağını da gerçekten anlamadık.
There's a couple of things I think that really seem to be driving this most fully on YouTube, and the first of those is advertising, which is the monetization of attention without any real other variables at work, any care for the people who are actually developing this content, the centralization of the power, the separation of those things. And I think however you feel about the use of advertising to kind of support stuff, the sight of grown men in diapers rolling around in the sand in the hope that an algorithm that they don't really understand will give them money for it suggests that this probably isn't the thing that we should be basing our society and culture upon, and the way in which we should be funding it.
Birkaç şeyin buna yön verdiğini düşünüyorum, çoğu Youtube üzerinde ve bunlardan ilki reklamcılık, ki bu da, ilginin paraya dönüştürülmesi demek, işin içinde başka gerçek değişken olmadan, bu içeriği gerçekten geliştiren insanları umursamadan, gücün merkezileştirilmesi, bu şeylerin birbirinden ayrılması. Bence bazı şeyleri desteklemek için reklam kullanımı konusunda her ne düşünüyorsanız hiç anlamadıkları bir algoritmanın onlara para vereceği umuduyla bebek beziyle kumda yuvarlanan olgun adamların görüntüsü, toplum ve kültürümüzü dayandırmamız gereken şeyin muhtemelen bu şey olmadığını ve buna para yatırmamamız gerektiğini gösteriyor.
And the other thing that's kind of the major driver of this is automation, which is the deployment of all of this technology as soon as it arrives, without any kind of oversight, and then once it's out there, kind of throwing up our hands and going, "Hey, it's not us, it's the technology." Like, "We're not involved in it." That's not really good enough, because this stuff isn't just algorithmically governed, it's also algorithmically policed. When YouTube first started to pay attention to this, the first thing they said they'd do about it was that they'd deploy better machine learning algorithms to moderate the content. Well, machine learning, as any expert in it will tell you, is basically what we've started to call software that we don't really understand how it works. And I think we have enough of that already. We shouldn't be leaving this stuff up to AI to decide what's appropriate or not, because we know what happens. It'll start censoring other things. It'll start censoring queer content. It'll start censoring legitimate public speech. What's allowed in these discourses, it shouldn't be something that's left up to unaccountable systems. It's part of a discussion all of us should be having.
Buna yön veren diğer büyük şey de otomatikleşme, ulaşır ulaşmaz hiç gözden kaçmaksızın tüm bu teknolojinin kulanılmaya başlanması ve teknoloji kendini gösterdiğinde ellerimizi kaldırıp "Ama biz yapmadık, teknoloji yaptı" demek. "Bizim bir suçumuz yok." Bu gerçekten yeterli değil. Çünkü bu şey sadece algoritmik olarak yönetilmiyor, aynı zamanda algoritmik olarak denetleniyor. YouTube buna ilk kulak verdiği zamanlarda bununla ilgili söyledikleri ilk şey daha iyi makine öğrenimli algoritmalar kullanacaklarıydı, içeriği ılımlı yapmak için. Bu alandaki her uzmanın size söyleyeceği gibi, "makine öğrenmesi" nasıl çalıştığını aslında anlamadığımız yazılımlara vermiş olduğumuz isim. Bence bunlardan elimizde yeterince var. Neyin uygun olduğunu belirlemeyi yapay zekâya bırakmamalıyız çünkü ne olacağını biliyoruz. Başka şeyleri sansürleyecek. Eşcinsel içerikleri sansürleyecek. Yasal kamu konuşmalarını sansürlemeye başlayacak. Bu söylemlerde izin verilen, sorumsuz sistemlere bırakılan bir şey olmamalı. Bu hepimizin yapması gereken bir tartışmanın parçası.
But I'd leave a reminder that the alternative isn't very pleasant, either. YouTube also announced recently that they're going to release a version of their kids' app that would be entirely moderated by humans. Facebook -- Zuckerberg said much the same thing at Congress, when pressed about how they were going to moderate their stuff. He said they'd have humans doing it. And what that really means is, instead of having toddlers being the first person to see this stuff, you're going to have underpaid, precarious contract workers without proper mental health support being damaged by it as well.
Ama bir hatırlatma yapayım, alternatif de pek hoş değil. Buna ek olarak YouTube yakın zamanda çocuk uygulamalarının tamamen insanlar tarafından yönetildiği bir versiyon çıkaracaklarını duyurdu. Facebook-- Zuckerberg de uygulamasını nasıl yöneteceği sorulduğunda kongrede neredeyse aynı şeyi söylemişti. Bunu insanlara yaptıracağız demişti. Bunun asıl anlamı şu; bu şeyleri ilk görenler, çocuklar yerine düşük maaşlı, güvencesiz sözleşmeli işçileriniz olacak, düzgün akıl sağlığı sigortası olmayan ve bundan hasar gören insanlar.
(Laughter)
(Kahkahalar)
And I think we can all do quite a lot better than that.
Bence hepimiz bundan çok daha iyisini yapabiliriz.
(Applause)
(Alkışlar)
The thought, I think, that brings those two things together, really, for me, is agency. It's like, how much do we really understand -- by agency, I mean: how we know how to act in our own best interests. Which -- it's almost impossible to do in these systems that we don't really fully understand. Inequality of power always leads to violence. And we can see inside these systems that inequality of understanding does the same thing. If there's one thing that we can do to start to improve these systems, it's to make them more legible to the people who use them, so that all of us have a common understanding of what's actually going on here.
Bu iki şeyi bir araya getiren düşünce de bana göre gerçekten aracı kurum. Aracı kurumdan aslında ne anladığımızı kastediyorum: Nasıl en iyi menfaatlerimize göre hareket etmeyi bilmemiz, ki bunu yapmak neredeyse imkânsız, gerçekten tam anlamıyla anlamadığımız bu sistemlerin içinde. Güç eşitsizliği her zaman şiddete yol açar. Bu sistemlerin içerisinde kavrayış eşitsizliğinin de aynını yaptığını görüyoruz. Bu sistemleri geliştirmek için yapabileceğimiz bir şey varsa o da bunları kullanan insanlar için daha okunaklı yapmak, böylece burada neler döndüğü ile ilgili hepimizin ortak bir kanısı olur.
The thing, though, I think most about these systems is that this isn't, as I hope I've explained, really about YouTube. It's about everything. These issues of accountability and agency, of opacity and complexity, of the violence and exploitation that inherently results from the concentration of power in a few hands -- these are much, much larger issues. And they're issues not just of YouTube and not just of technology in general, and they're not even new. They've been with us for ages. But we finally built this system, this global system, the internet, that's actually showing them to us in this extraordinary way, making them undeniable. Technology has this extraordinary capacity to both instantiate and continue all of our most extraordinary, often hidden desires and biases and encoding them into the world, but it also writes them down so that we can see them, so that we can't pretend they don't exist anymore. We need to stop thinking about technology as a solution to all of our problems, but think of it as a guide to what those problems actually are, so we can start thinking about them properly and start to address them.
Gerçi bu sistemlerle ilgili en çok düşündüğüm şey de şu ki umarım anlatabilmişimdir, bu olay YouTube ile ilgili değil. Her şeyle ilgili. Bu sorumluluk ve aracılık, anlaşılmazlık ve karmaşa, gücün birkaç kişinin elinde toplanmış olmasından kaynaklanan şiddet ve istismar konuları-- bunlar çok, çok daha geniş konular. Üstelik bunlar sadece Youtube'un veya teknolojinin genel sorunları değil, bunlar yeni bile değil. Bunlar senelerdir bizimleydi. Ama biz en sonunda, bize bunları sıradışı bir şekilde gösteren, bunları inkâr edilemez yapan global sistemi, interneti yarattık. Teknolojinin öyle sıradışı bir kapasitesi var ki en sıradışı ve gizli kalmış tutku ve önyargılarımızı örneklemek ve sürdürmekle kalmıyor, onları gerçek dünyaya çözümlüyor ama aynı zamanda bunları görmemiz için not ediyor, böylece yokmuş gibi davranamıyoruz. Teknolojiyi tüm problemlerimizin çözümü olarak görmek yerine, bu problemlerin aslında ne olduğunu gösteren bir rehber olarak görmeliyiz ki böylece onlar hakkında düzgünce düşünüp çözüm bulabilelim.
Thank you very much.
Çok teşekkür ederim.
(Applause)
(Alkışlar)
Thank you.
Teşekkür ederim.
(Applause)
(Alkışlar)
Helen Walters: James, thank you for coming and giving us that talk. So it's interesting: when you think about the films where the robotic overlords take over, it's all a bit more glamorous than what you're describing. But I wonder -- in those films, you have the resistance mounting. Is there a resistance mounting towards this stuff? Do you see any positive signs, green shoots of resistance?
Helen Walters: James, bize bu konuşmayı yaptığın için teşekkürler. Öylesine ilginç ki robotik otoritelerin yönetimi ele geçirdiği filmleri düşününce her şey senin tanımladığından biraz daha göz alıcı. Ama merak ettiğim şu-- bu fimlerde bir direniş var. Bu şeylere karşı da bir direniş var mı? Hiç pozitif bir işaret, yeşeren bir direniş görüyor musun?
James Bridle: I don't know about direct resistance, because I think this stuff is super long-term. I think it's baked into culture in really deep ways. A friend of mine, Eleanor Saitta, always says that any technological problems of sufficient scale and scope are political problems first of all. So all of these things we're working to address within this are not going to be addressed just by building the technology better, but actually by changing the society that's producing these technologies. So no, right now, I think we've got a hell of a long way to go. But as I said, I think by unpacking them, by explaining them, by talking about them super honestly, we can actually start to at least begin that process.
James Bridle: Direkt bir direnişi bilemem çünkü bu şey çok uzun vadeli. Bence çok derin şekilde kültürün içine işledi. Bir arkadaşım, Eleanor Saitta, her zaman der ki yeterli ölçüde ve kapsamda her teknolojik problem öncellikle politik bir problemdir. Yani bunun içinde çözmeye çalıştığımız her şey sadece teknolojiyi daha iyi inşa etmekle değil, bu teknolojileri üreten toplumu değiştirmekle çözülecek. Yani hayır, şu an, bence gidecek daha çok yolumuz var. Ama dediğim gibi, bunları açığa çıkartıp açıklayarak, bunlar hakkında dürüstçe konuşarak bence en azından bu süreci başlatabiliriz.
HW: And so when you talk about legibility and digital literacy, I find it difficult to imagine that we need to place the burden of digital literacy on users themselves. But whose responsibility is education in this new world?
HW: Sen okunabilirlik ve dijital okuryazarlık hakkında konuşunca dijital okuryazarlık yükünü kullanıcılara yüklememizin gerekliliğini hayal etmesi zor buluyorum. Ama bu yeni dünyada eğitimden kim sorumlu?
JB: Again, I think this responsibility is kind of up to all of us, that everything we do, everything we build, everything we make, needs to be made in a consensual discussion with everyone who's avoiding it; that we're not building systems intended to trick and surprise people into doing the right thing, but that they're actually involved in every step in educating them, because each of these systems is educational. That's what I'm hopeful about, about even this really grim stuff, that if you can take it and look at it properly, it's actually in itself a piece of education that allows you to start seeing how complex systems come together and work and maybe be able to apply that knowledge elsewhere in the world.
JB: Bence, bu sorumluluk biraz da hepimizde, yaptığımız, inşa ettiğimiz her şey karşılıklı tartışma ile yapılmalı, bundan kaçınan insanlarla birlikte; insanların doğru şeyi yapması için aklını çelme amacı taşıyan sistemler tasarlamıyoruz ama bunlar onları eğitmenin her adımına dâhiller çünkü bu sistemlerin her biri eğitici. Umutlu olduğum şey de bu, bu son derece acımasızca şeylerde bile, eğer onu alıp düzgünce incelerseniz aslında o, kendi içinde eğitim parçası, karmaşık sistemlerin nasıl bir araya gelip işlediğini görmeye başlamamızı ve belki de bu bilgiyi dünyanın başka bir yerinde kullanmamızı sağlayacak.
HW: James, it's such an important discussion, and I know many people here are really open and prepared to have it, so thanks for starting off our morning.
HW: James, bu çok önemli bir tartışmaydı ve biliyorum ki buradaki çoğu insan bu tartışmaya açık ve hazırlar, güne seninle başlamak çok güzeldi.
JB: Thanks very much. Cheers.
JB: Çok teşekkürler.
(Applause)
(Alkışlar)