I'm James. I'm a writer and artist, and I make work about technology. I do things like draw life-size outlines of military drones in city streets around the world, so that people can start to think and get their heads around these really quite hard-to-see and hard-to-think-about technologies. I make things like neural networks that predict the results of elections based on weather reports, because I'm intrigued about what the actual possibilities of these weird new technologies are. Last year, I built my own self-driving car. But because I don't really trust technology, I also designed a trap for it.
Tôi là James. Nhà văn và nghệ sĩ, và tôi sáng tác phẩm về công nghệ. Tôi vẽ viền máy bay do thám quân sự theo kích thước thật lên đường phố khắp thế giới, để mọi người bắt đầu suy nghĩ và quan tâm đến những công nghệ khó nhìn thấy và khó hiểu này. Tôi tạo ra những tác phẩm như mạng dự đoán kết quả bỏ phiếu dựa trên báo cáo thời tiết, vì tôi quan tâm đến tiềm năng thực sự của những công nghệ mới lạ này. Năm ngoái, tôi tự chế tạo xe tự lái. Vì không thật sự tin tưởng vào công nghệ, tôi tự thiết kế luôn đường chạy.
(Laughter)
(Tiếng cười)
And I do these things mostly because I find them completely fascinating, but also because I think when we talk about technology, we're largely talking about ourselves and the way that we understand the world. So here's a story about technology.
Tôi làm những việc này không chỉ vì thấy nó cực kỳ thú vị, mà còn vì tôi nghĩ công nghệ là cách ta nói về bản thân mình cũng như nhìn nhận của ta về thế giới. Và đây là một câu chuyện về công nghệ.
This is a "surprise egg" video. It's basically a video of someone opening up loads of chocolate eggs and showing the toys inside to the viewer. That's it. That's all it does for seven long minutes. And I want you to notice two things about this. First of all, this video has 30 million views.
Đây là một video "trứng bất ngờ". Đó cơ bản là video ai đó ngồi mở thật nhiều trứng sô-cô-la để người xem thấy được đồ chơi bên trong. Chỉ vậy thôi. Đó là toàn bộ nội dung trong bảy phút. Và tôi muốn các bạn chú ý đến hai điều. Thứ nhất, video này đạt 30 triệu lượt xem.
(Laughter)
(Tiếng cười)
And the other thing is, it comes from a channel that has 6.3 million subscribers, that has a total of eight billion views, and it's all just more videos like this -- 30 million people watching a guy opening up these eggs. It sounds pretty weird, but if you search for "surprise eggs" on YouTube, it'll tell you there's 10 million of these videos, and I think that's an undercount. I think there's way, way more of these. If you keep searching, they're endless. There's millions and millions of these videos in increasingly baroque combinations of brands and materials, and there's more and more of them being uploaded every single day. Like, this is a strange world. Right?
Điều còn lại là, nó thuộc một kênh có 6.3 triệu người theo dõi, với tổng số tám tỷ lượt xem, chỉ toàn video như thế. 30 triệu người xem ai đó mở những quả trứng này. Nghe kỳ cục, nhưng nếu bạn gõ "trứng bất ngờ" trên YouTube, kết quả cho thấy có 10 triệu video như thế, và tôi nghĩ thực tế còn nhiều, nhiều hơn. Nếu tiếp tục tìm, bạn sẽ thấy vô số. Có hàng triệu, hàng triệu video thế này dưới đủ mọi hình thức kết hợp giữa nhãn hàng và nội dung, và mỗi ngày, càng nhiều video như vậy được tải lên. Một thế giới kỳ lạ phải không?
But the thing is, it's not adults who are watching these videos. It's kids, small children. These videos are like crack for little kids. There's something about the repetition, the constant little dopamine hit of the reveal, that completely hooks them in. And little kids watch these videos over and over and over again, and they do it for hours and hours and hours. And if you try and take the screen away from them, they'll scream and scream and scream. If you don't believe me -- and I've already seen people in the audience nodding -- if you don't believe me, find someone with small children and ask them, and they'll know about the surprise egg videos. So this is where we start. It's 2018, and someone, or lots of people, are using the same mechanism that, like, Facebook and Instagram are using to get you to keep checking that app, and they're using it on YouTube to hack the brains of very small children in return for advertising revenue.
Nhưng vấn đề là, những video này không dành cho người lớn, mà là cho trẻ nhỏ. Những video này giống như ma túy với chúng. Sự lặp đi lặp lại, những tiết lộ nho nhỏ gây kích thích và cuốn hút chúng. Trẻ nhỏ xem những video này hết lần này đến lần khác, trong hàng giờ, hàng giờ liền. Và nếu bạn cố tách chúng ra khỏi màn hình, chúng sẽ la hét dữ dội. Nếu bạn không tin tôi -- tôi đã thấy vài khán giả gật đầu -- nếu bạn không tin tôi, hãy hỏi người có con nhỏ, và họ sẽ biết về những video "trứng bất ngờ" này. Đây là nơi ta bắt đầu. Đây là năm 2018, ai đó, hoặc rất nhiều người, đang sử dụng cùng một cơ chế mà Facebook và Instagram đang dùng để khiến bạn liên tục mở chúng ra xem. Và họ dùng nó trên YouTube để tác động lên não bộ của trẻ nhỏ để đổi lấy lợi nhuận quảng cáo.
At least, I hope that's what they're doing. I hope that's what they're doing it for, because there's easier ways of making ad revenue on YouTube. You can just make stuff up or steal stuff. So if you search for really popular kids' cartoons like "Peppa Pig" or "Paw Patrol," you'll find there's millions and millions of these online as well. Of course, most of them aren't posted by the original content creators. They come from loads and loads of different random accounts, and it's impossible to know who's posting them or what their motives might be. Does that sound kind of familiar? Because it's exactly the same mechanism that's happening across most of our digital services, where it's impossible to know where this information is coming from. It's basically fake news for kids, and we're training them from birth to click on the very first link that comes along, regardless of what the source is. That's doesn't seem like a terribly good idea.
Ít ra thì tôi hy vọng đó là điều họ đang làm. Tôi hy vọng đó là mục đích của họ, bởi có những cách dễ hơn để thu lợi từ quảng cáo trên YouTube. Bạn có thể bịa chuyện hoặc ăn cắp nội dung. Tìm những phim hoạt hình thật sự phổ biến với trẻ em như "Pepper Pig" hoặc "Paw Patrol," bạn sẽ thấy có hàng triệu đoạn phim này trên mạng. Tất nhiên, phần lớn không phải do tác giả gốc tải lên. Chúng đến từ nhiều tài khoản bất kỳ khác nhau, và không thể biết người tải là ai hay động cơ của họ là gì. Điều này nghe có quen không? Bởi vì đó chính là cơ chế đang hoạt động trên hầu hết các dịch vụ kỹ thuật số, khi ta không thể biết thông tin này đến từ ai. Nó cơ bản là tin giả với trẻ em, và chúng ta huấn luyện chúng từ bé để bấm vào đường dẫn nào xuất hiện đầu tiên bất kể nguồn tin là gì. Có vẻ không phải là một ý tưởng hay.
Here's another thing that's really big on kids' YouTube. This is called the "Finger Family Song." I just heard someone groan in the audience. This is the "Finger Family Song." This is the very first one I could find. It's from 2007, and it only has 200,000 views, which is, like, nothing in this game. But it has this insanely earwormy tune, which I'm not going to play to you, because it will sear itself into your brain in the same way that it seared itself into mine, and I'm not going to do that to you. But like the surprise eggs, it's got inside kids' heads and addicted them to it. So within a few years, these finger family videos start appearing everywhere, and you get versions in different languages with popular kids' cartoons using food or, frankly, using whatever kind of animation elements you seem to have lying around. And once again, there are millions and millions and millions of these videos available online in all of these kind of insane combinations. And the more time you start to spend with them, the crazier and crazier you start to feel that you might be.
Còn đây là một thứ khác rất phổ biến với trẻ trên YouTube, gọi là "Bài hát Gia đình Ngón tay". Tôi vừa nghe ai đó "ồ" lên. Đây là "Bài hát Gia đình Ngón tay", bài xưa nhất mà tôi tìm được. Từ năm 2007, và chỉ có 200,000 lượt xem. Chẳng là gì trong cuộc chơi này cả. Nhưng nó có một giai điệu bắt tai khủng khiếp, mà tôi sẽ không phát cho các bạn nghe, vì nó sẽ in vào não bạn như cách mà nó đã in vào não tôi, và tôi sẽ không làm điều đó với các bạn đâu. Nhưng cũng như trứng bất ngờ, nó len lỏi vào não trẻ và làm chúng bị nghiện. Chỉ trong vài năm, những video "Gia đình Ngón tay" này xuất hiện khắp nơi, với nhiều phiên bản ngôn ngữ. Những đoạn phim hoạt hình minh hoạ bằng thức ăn hay bất kỳ yếu tố hoạt hình nào có sẵn. Có hàng triệu, hàng triệu video thế này trên mạng với đa dạng những sự kết hợp điên rồ. Và càng dành nhiều thời gian để xem, bạn càng cảm thấy mình trở nên điên khùng.
And that's where I kind of launched into this, that feeling of deep strangeness and deep lack of understanding of how this thing was constructed that seems to be presented around me. Because it's impossible to know where these things are coming from. Like, who is making them? Some of them appear to be made of teams of professional animators. Some of them are just randomly assembled by software. Some of them are quite wholesome-looking young kids' entertainers. And some of them are from people who really clearly shouldn't be around children at all.
Đó là khi tôi bắt đầu nhận thấy một cảm giác kỳ lạ và không thể hiểu nổi về cách những thứ này được tạo ra và hiện diện quanh mình. Không thể biết được chúng đến từ đâu. Ai tạo ra chúng? Một số có vẻ là từ các nhóm làm phim hoạt hình chuyên nghiệp. Một số khác chỉ là do phần mềm sắp xếp ngẫu nhiên. Một số trông có vẻ là những sản phẩm giải trí chỉn chu cho trẻ, và một số được tạo ra bởi những người rõ ràng là không nên ở gần con nít.
(Laughter)
(Tiếng cười)
And once again, this impossibility of figuring out who's making this stuff -- like, this is a bot? Is this a person? Is this a troll? What does it mean that we can't tell the difference between these things anymore? And again, doesn't that uncertainty feel kind of familiar right now?
Một lần nữa, việc không thể lần ra ai tạo ra những thứ này - liệu có phải là một phần mềm tự động? Hay người thật? Hay là một trò đùa? Ý nghĩa của việc không thể phân biệt những nguồn này nữa là gì? Và cảm giác không chắc chắn này quen thuộc phải không?
So the main way people get views on their videos -- and remember, views mean money -- is that they stuff the titles of these videos with these popular terms. So you take, like, "surprise eggs" and then you add "Paw Patrol," "Easter egg," or whatever these things are, all of these words from other popular videos into your title, until you end up with this kind of meaningless mash of language that doesn't make sense to humans at all. Because of course it's only really tiny kids who are watching your video, and what the hell do they know? Your real audience for this stuff is software. It's the algorithms. It's the software that YouTube uses to select which videos are like other videos, to make them popular, to make them recommended. And that's why you end up with this kind of completely meaningless mash, both of title and of content.
Thủ thuật chính để thu hút người xem video, hãy nhớ rằng, lượt xem tạo ra tiền, là chèn các cụm từ phổ biến vào tiêu đề video. Chẳng hạn như với "trứng bất ngờ", bạn thêm vào tiêu đề "Paw Patrol," "trứng Phục sinh" hay bất kỳ từ khoá tương tự từ các video nổi tiếng khác cho tới khi có một hỗn hợp từ ngữ vô nghĩa mà người thường chẳng thể nào hiểu được. Tất nhiên chỉ có trẻ nhỏ mới xem những video này, và chúng thì biết gì cơ chứ? Khán giả thực sự của những video này là phần mềm, là những thuật toán. Đó là phần mềm YouTube dùng để chọn những video giống nhau, phổ biến chúng, gợi ý chúng. Đó là lý do, cuối cùng, bạn có thứ hỗn tạp vô nghĩa này, cả trong tiêu đề lẫn nội dung.
But the thing is, you have to remember, there really are still people within this algorithmically optimized system, people who are kind of increasingly forced to act out these increasingly bizarre combinations of words, like a desperate improvisation artist responding to the combined screams of a million toddlers at once. There are real people trapped within these systems, and that's the other deeply strange thing about this algorithmically driven culture, because even if you're human, you have to end up behaving like a machine just to survive.
Những vấn đề là, bạn cần phải nhớ, vẫn còn có con người trong hệ thống tối ưu bằng thuật toán này, những người bị buộc phải ngày càng tăng cường mức độ kết hợp những từ khóa kỳ dị này, như một nghệ sĩ ứng biến tuyệt vọng đáp lại tiếng la hét của hàng triệu trẻ sơ sinh. Có những con người thực bị kẹt trong hệ thống này, một điều kỳ lạ khác trong nền văn hóa bị thuật toán chi phối. Vì ngay cả khi là người thật, bạn, cuối cùng, cũng phải hành xử như máy để tồn tại. Ở phía bên kia màn hình cũng vậy,
And also, on the other side of the screen, there still are these little kids watching this stuff, stuck, their full attention grabbed by these weird mechanisms. And most of these kids are too small to even use a website. They're just kind of hammering on the screen with their little hands. And so there's autoplay, where it just keeps playing these videos over and over and over in a loop, endlessly for hours and hours at a time. And there's so much weirdness in the system now that autoplay takes you to some pretty strange places. This is how, within a dozen steps, you can go from a cute video of a counting train to masturbating Mickey Mouse. Yeah. I'm sorry about that. This does get worse. This is what happens when all of these different keywords, all these different pieces of attention, this desperate generation of content, all comes together into a single place. This is where all those deeply weird keywords come home to roost. You cross-breed the finger family video with some live-action superhero stuff, you add in some weird, trollish in-jokes or something, and suddenly, you come to a very weird place indeed.
trẻ nhỏ xem những thứ này, chúng bị mắc kẹt, hoàn toàn bị cơ chế này cuốn hút. Phần lớn những đứa trẻ này quá nhỏ để biết cách truy cập trang web. Chúng đơn giản chỉ là đập bàn tay nhỏ xíu lên màn hình. Rồi lại có chức năng tự động phát, những video này liên tục trong một vòng lặp vô tận hàng giờ liền. Hệ thống này giờ đã quá kỳ dị đến nỗi chức năng tự động phát này sẽ đưa bạn đến những nội dung kỳ lạ. Đó là cách mà, trong hơn chục cái nhấp chuột, bạn có thể từ đang xem một video dễ thương về đếm số xe lửa đến video chuột Mickey thủ dâm. Đúng vậy. Rất tiếc là như thế. Chuyện này ngày càng trở nên tồi tệ. Đây là điều sẽ xảy ra khi tất cả những từ khóa khác nhau này, tất cả những nội dung thu hút này, cả một thế hệ thèm khát nội dung này, đều tập trung về một chỗ. Dây là nơi mà tất cả những từ khóa kỳ dị này phản tác dụng. Bạn ghép các video về Gia đình Ngón tay với những đoạn phim hành động siêu anh hùng, thêm vào trò chơi khăm kỳ cục hay gì đó và bạn có được một video hết sức kỳ dị như thế này.
The stuff that tends to upset parents is the stuff that has kind of violent or sexual content, right? Children's cartoons getting assaulted, getting killed, weird pranks that actually genuinely terrify children. What you have is software pulling in all of these different influences to automatically generate kids' worst nightmares. And this stuff really, really does affect small children. Parents report their children being traumatized, becoming afraid of the dark, becoming afraid of their favorite cartoon characters. If you take one thing away from this, it's that if you have small children, keep them the hell away from YouTube.
Thứ thường làm phụ huynh lo lắng là những nội dung có tính bạo lực hoặc tình dục, đúng không? Phim hoạt hình cho trẻ bị tấn công, bị tiêu diệt, những trò chơi khăm làm cho trẻ bị khủng hoảng. Cái bạn có là phần mềm dùng tất cả các luồng ảnh hưởng này để tự động tạo ra cơn ác mộng tồi tệ nhất cho lũ trẻ. Và nó thật sự tác động lên trẻ nhỏ. Phụ huynh cho biết con họ bị khủng hoảng, sợ bóng tối, sợ các nhân vật hoạt hình yêu thích của chúng. Nếu rút ra được điều gì từ việc này, thì đó là nếu bạn có con nhỏ, giữ chúng tránh xa YouTube.
(Applause)
(Vỗ tay)
But the other thing, the thing that really gets to me about this, is that I'm not sure we even really understand how we got to this point. We've taken all of this influence, all of these things, and munged them together in a way that no one really intended. And yet, this is also the way that we're building the entire world. We're taking all of this data, a lot of it bad data, a lot of historical data full of prejudice, full of all of our worst impulses of history, and we're building that into huge data sets and then we're automating it. And we're munging it together into things like credit reports, into insurance premiums, into things like predictive policing systems, into sentencing guidelines. This is the way we're actually constructing the world today out of this data. And I don't know what's worse, that we built a system that seems to be entirely optimized for the absolute worst aspects of human behavior, or that we seem to have done it by accident, without even realizing that we were doing it, because we didn't really understand the systems that we were building, and we didn't really understand how to do anything differently with it.
Những còn một điều khác thật sự làm tôi quan tâm, đó là tôi không chắc ta hiểu được vì sao đi đến nước này. Ta lấy tất cả những tác nhân, tất cả mọi thứ, nhào nặn theo một cách không ai tính trước. Nhưng đây cũng là cách ta xây dựng thế giới này. Ta lấy mọi dữ liệu, phần lớn là dữ liệu xấu, nhiều dữ liệu lịch sử mang đầy định kiến, và những thôi thúc tồi tệ nhất. Ta dựng nên những bộ dữ liệu lớn rồi tự động hóa chúng, Ta lồng ghép chúng vào những thứ như báo cáo tín dụng, phí bảo hiểm, hệ thống cảnh sát ngăn ngừa, nguyên tắc tuyên án. Đây là cách chúng ta xây dựng nên thế giới ngày nay từ dữ liệu. Và tôi không biết điều gì tồi tệ hơn, tạo ra một hệ thống hoàn toàn tối ưu cho các khía cạnh tệ hại nhất trong hành vi con người, hay vô tình làm thế mà không hề hay biết, vì ta không thật sự hiểu hệ thống mà ta dựng nên, và không biết làm cách nào làm khác đi.
There's a couple of things I think that really seem to be driving this most fully on YouTube, and the first of those is advertising, which is the monetization of attention without any real other variables at work, any care for the people who are actually developing this content, the centralization of the power, the separation of those things. And I think however you feel about the use of advertising to kind of support stuff, the sight of grown men in diapers rolling around in the sand in the hope that an algorithm that they don't really understand will give them money for it suggests that this probably isn't the thing that we should be basing our society and culture upon, and the way in which we should be funding it.
Có một vài thứ, tôi nghĩ, là nguyên nhân chính thúc đẩy chuyện này trên YouTube, đầu tiên là quảng cáo, tức là kiếm tiền từ sự chú ý mà không thật sự tính đến các yếu tố khác, không quan tâm đến những người thật sự tạo ra các nội dung này, sự tập trung quyền lực, và sự tách biệt khỏi những thứ khác. Dù góc nhìn của bạn về quảng cáo là gì có thể là ủng hộ, thì cảnh những người trưởng thành mặc tã lăn lộn trên cát với hy vọng sẽ nhận được tiền từ một thuật toán khó hiểu cho thấy đây chắc chắn không phải là nền tảng mà ta mong muốn tạo dựng xã hội và văn hóa, và không phải cách mà ta nên ủng hộ.
And the other thing that's kind of the major driver of this is automation, which is the deployment of all of this technology as soon as it arrives, without any kind of oversight, and then once it's out there, kind of throwing up our hands and going, "Hey, it's not us, it's the technology." Like, "We're not involved in it." That's not really good enough, because this stuff isn't just algorithmically governed, it's also algorithmically policed. When YouTube first started to pay attention to this, the first thing they said they'd do about it was that they'd deploy better machine learning algorithms to moderate the content. Well, machine learning, as any expert in it will tell you, is basically what we've started to call software that we don't really understand how it works. And I think we have enough of that already. We shouldn't be leaving this stuff up to AI to decide what's appropriate or not, because we know what happens. It'll start censoring other things. It'll start censoring queer content. It'll start censoring legitimate public speech. What's allowed in these discourses, it shouldn't be something that's left up to unaccountable systems. It's part of a discussion all of us should be having.
Còn một nhân tố chính thúc đẩy quá trình tự động hóa này là sự triển khai tất cả các công nghệ ngay khi vừa phát triển xong mà không có bất kỳ sự giám sát. Để rồi khi phát sinh vấn đề, ta bực bội phát biểu: "Không phải do chúng tôi, mà là do công nghệ." Như thể: "Chúng tôi vô can." Không đủ thuyết phục, bởi thuật toán không chỉ điều khiển thứ này, mà còn kiểm soát nó. Khi YouTube bắt đầu quan tâm đến vấn đề này, giải pháp đầu tiên của họ là cải tiến thuật toán máy học (machine learning) để giám sát nội dung. Về máy học, bất kỳ chuyên gia nào cũng sẽ nói cơ bản đó là tên gọi phần mềm khi ta bắt đầu không hiểu cách thức nó hoạt động. Tôi nghĩ, thế đã là quá đủ. Chúng ta không nên để trí tuệ nhân tạo quyết định những gì là phù hợp, bởi ta biết điều gì sẽ xảy ra. Nó sẽ bắt đầu kiểm duyệt những nội dung khác. Nội dung liên quan đến đồng tính, Những phát biểu hợp pháp trước công chúng. Những gì được tự do ngôn luận thì không nên bị loại bỏ bởi các hệ thống khó hiểu này. Bởi đó là một phần thảo luận mà tất cả chúng ta nên tham gia.
But I'd leave a reminder that the alternative isn't very pleasant, either. YouTube also announced recently that they're going to release a version of their kids' app that would be entirely moderated by humans. Facebook -- Zuckerberg said much the same thing at Congress, when pressed about how they were going to moderate their stuff. He said they'd have humans doing it. And what that really means is, instead of having toddlers being the first person to see this stuff, you're going to have underpaid, precarious contract workers without proper mental health support being damaged by it as well.
Nhưng tôi xin nhắc một điều là giải pháp thay thế cũng không hề dễ chịu. YouTube vừa thông báo họ sẽ đưa ra phiên bản ứng dụng dành cho trẻ em hoàn toàn do con người giám sát. Zuckerberg của Facebook cũng nói tương tự trước Quốc hội, khi bị hỏi dồn sẽ giám sát sản phẩm của họ ra sao. Anh ta nói họ có người để làm điều đó. Ý nghĩa thật của nó là thay vì trẻ nhỏ là người đầu tiên thấy những thứ này, ta sẽ có những nhân công hợp đồng bấp bênh, lương thấp, không được hỗ trợ sức khỏe tinh thần đúng cách, xem qua nó trước.
(Laughter)
(Tiếng cười)
And I think we can all do quite a lot better than that.
Tôi nghĩ chúng ta có thể làm tốt hơn thế.
(Applause)
(Vỗ tay)
The thought, I think, that brings those two things together, really, for me, is agency. It's like, how much do we really understand -- by agency, I mean: how we know how to act in our own best interests. Which -- it's almost impossible to do in these systems that we don't really fully understand. Inequality of power always leads to violence. And we can see inside these systems that inequality of understanding does the same thing. If there's one thing that we can do to start to improve these systems, it's to make them more legible to the people who use them, so that all of us have a common understanding of what's actually going on here.
Theo tôi, việc đưa hai điều đó lại với nhau là sự đại diện. Sự đại diện, ý tôi là, chúng ta hiểu biết đến đâu, chúng ta biết phải làm gì để đạt lợi ích tốt nhất. Điều này gần như là không thể với những hệ thống mà chúng ta không hiểu hết. Bất bình đẳng về quyền lực luôn dẫn đến bạo lực. Và có thể thấy trong những hệ thống này, bất bình đẳng tri thức cũng dẫn đến điều tương tự. Nếu có thể làm gì để cải thiện hệ thống này đó là làm cho chúng dễ hiểu hơn với người dùng, để tất cả chúng ta đều có đủ hiểu biết về những gì thực sự đang diễn ra.
The thing, though, I think most about these systems is that this isn't, as I hope I've explained, really about YouTube. It's about everything. These issues of accountability and agency, of opacity and complexity, of the violence and exploitation that inherently results from the concentration of power in a few hands -- these are much, much larger issues. And they're issues not just of YouTube and not just of technology in general, and they're not even new. They've been with us for ages. But we finally built this system, this global system, the internet, that's actually showing them to us in this extraordinary way, making them undeniable. Technology has this extraordinary capacity to both instantiate and continue all of our most extraordinary, often hidden desires and biases and encoding them into the world, but it also writes them down so that we can see them, so that we can't pretend they don't exist anymore. We need to stop thinking about technology as a solution to all of our problems, but think of it as a guide to what those problems actually are, so we can start thinking about them properly and start to address them.
Tuy nhiên, tôi nghĩ những vấn đề hệ thống này không chỉ là của YouTube, như đã giải thích. Mà là tất cả. Những vấn đề về trách nhiệm và đại diện, về sự thiếu minh bạch và sự phức tạp, về bạo lực và khai thác bạo lực do sự tập trung quyền lực vào một số ít người, đó là những vấn đề to lớn hơn nhiều. Đây không chỉ là vấn đề của YouTube, hay của giới công nghệ, và nó, thậm chí, cũng không mới. Đây là vấn đề của chúng ta từ rất lâu. Nhưng khi ta xây dựng hệ thống toàn cầu này, Internet, các vấn đề này nổi lên theo những cách thức dị thường, không thể chối bỏ được. Công nghệ có khả năng phi thường để vừa đại diện vừa chắp cánh những khao khát và định kiến bất thường nhất mà ta hằng chôn giấu rồi mã hóa và đưa chúng ra thế giới, nhưng nó cũng ghi lại để chúng ta thấy, để chúng ta không còn có thể vờ như chúng không hiện hữu. Ta cần ngưng cho rằng công nghệ là giải pháp cho mọi vấn đề, mà xem chúng như một hướng dẫn cho các vấn đề thật sự, để ta có thể suy nghĩ thấu đáo và tìm cách giải quyết.
Thank you very much.
Xin cám ơn.
(Applause)
(Vỗ tay)
Thank you.
Xin cám ơn.
(Applause)
(Vỗ tay)
Helen Walters: James, thank you for coming and giving us that talk. So it's interesting: when you think about the films where the robotic overlords take over, it's all a bit more glamorous than what you're describing. But I wonder -- in those films, you have the resistance mounting. Is there a resistance mounting towards this stuff? Do you see any positive signs, green shoots of resistance?
Helen Walters: Cảm ơn James đã đến và nói về vấn đề này, Thật thú vị khi nhớ lại các bộ phim, trong đó, người máy nắm quyền thống trị, hơi hào nhoáng hơn so với những gì anh mô tả. Những tôi thắc mắc, trong phim, ta nhận thấy sự phản kháng tăng dần. Vậy trong thực tế, có sự phản kháng nào với những thứ này không? Anh có thấy những dấu hiệu tích cực nào của sự phản kháng?
James Bridle: I don't know about direct resistance, because I think this stuff is super long-term. I think it's baked into culture in really deep ways. A friend of mine, Eleanor Saitta, always says that any technological problems of sufficient scale and scope are political problems first of all. So all of these things we're working to address within this are not going to be addressed just by building the technology better, but actually by changing the society that's producing these technologies. So no, right now, I think we've got a hell of a long way to go. But as I said, I think by unpacking them, by explaining them, by talking about them super honestly, we can actually start to at least begin that process.
JB: Tôi không biết có sự phản kháng trực tiếp không, vì tôi nghĩ vấn đề này cực kỳ lâu dài. Nó ăn sâu vào nền văn hóa theo nhiều cách. Bạn tôi, Eleanor Saitta, luôn nói tất cả những vấn đề công nghệ có quy mô và phạm vi đủ lớn trước tiên, đều là vấn đề chính trị. Vì thế, tất cả những vấn đề mà ta nhắm đến không thể được giải quyết chỉ bằng việc tạo ra công nghệ tốt hơn, mà là thay đổi cách xã hội tạo ra những công nghệ này. Vậy nên, không, tôi nghĩ ta còn một chặng đường rất dài. Nhưng như tôi nói, bằng cách chia nhỏ vấn đè, giải thích và nói về chúng một cách trung thực, ta thật sự có thể bắt đầu quá trình phản kháng đó.
HW: And so when you talk about legibility and digital literacy, I find it difficult to imagine that we need to place the burden of digital literacy on users themselves. But whose responsibility is education in this new world?
HW: Khi anh nói về am hiểu công nghệ kỹ thuật số, tôi thấy khó mà tưởng tượng việc đặt gánh nặng tìm hiểu kỹ thuật lên người dùng. Nhưng ai chịu trách nhiệm về giáo dục trong thế giới mới này?
JB: Again, I think this responsibility is kind of up to all of us, that everything we do, everything we build, everything we make, needs to be made in a consensual discussion with everyone who's avoiding it; that we're not building systems intended to trick and surprise people into doing the right thing, but that they're actually involved in every step in educating them, because each of these systems is educational. That's what I'm hopeful about, about even this really grim stuff, that if you can take it and look at it properly, it's actually in itself a piece of education that allows you to start seeing how complex systems come together and work and maybe be able to apply that knowledge elsewhere in the world.
JB: Tôi nghĩ trách nhiệm này thuộc về tất cả chúng ta, tất cả những gì ta làm, dựng nên, tạo ra, phải được thực hiện với sự thảo luận và đồng ý với tất cả những người đang tránh né chúng; chúng ta không tạo ra hệ thống để lừa người khác làm điều đúng đắn, mà thực sự từng bước giáo dục họ, bởi mỗi hệ thống này đều có tính giáo dục. Đó là điều tôi hy vọng, là ngay cả trong thực tế ảm đạm, nếu xem xét nó một cách đúng đắn, bạn sẽ thấy nó thật sự là giáo dục cho phép bạn nhìn thấy cách hệ thống phức tạp này kết hợp và hoạt động và có thể áp dụng kiến thức này ở nơi khác trên thế giới.
HW: James, it's such an important discussion, and I know many people here are really open and prepared to have it, so thanks for starting off our morning.
HW: James, đây là một cuộc thảo luận quan trọng, mà tôi biết nhiều người đã rất cởi mở và sẵn lòng lắng nghe. Cảm ơn vì đã chia sẻ với chúng tôi sáng hôm nay.
JB: Thanks very much. Cheers.
JB: Cám ơn rất nhiều.
(Applause)
(Vỗ tay)