I'm James. I'm a writer and artist, and I make work about technology. I do things like draw life-size outlines of military drones in city streets around the world, so that people can start to think and get their heads around these really quite hard-to-see and hard-to-think-about technologies. I make things like neural networks that predict the results of elections based on weather reports, because I'm intrigued about what the actual possibilities of these weird new technologies are. Last year, I built my own self-driving car. But because I don't really trust technology, I also designed a trap for it.
Sou James. Sou escritor e artista e trabalho sobre a tecnologia. Faço coisas como desenhar "drones" militares em tamanho natural nas ruas das cidades, por todo o mundo, para que as pessoas comecem a pensar, a dar a volta à cabeça, nestas tecnologias muito difíceis de ver e muito difíceis de imaginar. Faço coisas como redes neurais que preveem os resultados de eleições. com base nos boletins meteorológicos, porque sinto-me intrigado com as reais possibilidades destas novas tecnologias estranhas. No ano passado, construí o meu carro autónomo. Mas, como não confio na tecnologia, também desenhei uma ratoeira para ele.
(Laughter)
(Risos)
And I do these things mostly because I find them completely fascinating, but also because I think when we talk about technology, we're largely talking about ourselves and the way that we understand the world. So here's a story about technology.
Faço estas coisas sobretudo porque acho-as totalmente fascinantes mas também porque penso que, quando falamos de tecnologia, estamos sobretudo a falar de nós mesmos e da forma como entendemos o mundo. Eis uma história sobre tecnologia.
This is a "surprise egg" video. It's basically a video of someone opening up loads of chocolate eggs and showing the toys inside to the viewer. That's it. That's all it does for seven long minutes. And I want you to notice two things about this. First of all, this video has 30 million views.
Este é um vídeo de "ovos surpresa". É basicamente um vídeo de alguém a abrir montes de ovos de chocolate e mostra ao espetador os brinquedos que estão lá dentro. É só isso. É só o que se passa durante sete longos minutos. Queria que reparassem em duas coisas. Primeiro, este vídeo tem 30 milhões de visitas.
(Laughter)
(Risos)
And the other thing is, it comes from a channel that has 6.3 million subscribers, that has a total of eight billion views, and it's all just more videos like this -- 30 million people watching a guy opening up these eggs. It sounds pretty weird, but if you search for "surprise eggs" on YouTube, it'll tell you there's 10 million of these videos, and I think that's an undercount. I think there's way, way more of these. If you keep searching, they're endless. There's millions and millions of these videos in increasingly baroque combinations of brands and materials, and there's more and more of them being uploaded every single day. Like, this is a strange world. Right?
A outra coisa é: aparece num canal que tem 6,3 milhões de subscritores que tem um total de oito milhões de visitas e há mais vídeos como este. Trinta milhões de pessoas que veem um tipo a abrir estes ovos. Parece muito estranho mas, se pesquisarem "ovos surpresa" no YouTube, verificam que há 10 milhões destes vídeos e acho que a contagem está feita por baixo. Acho que há muitos mais. Se continuarem a procurar, não têm fim. Há milhões e milhões destes vídeos, em combinações incrivelmente barrocas de marcas e materiais. E todos os dias cada vez há mais a aparecerem na Internet. Isto é um mundo estranho.
But the thing is, it's not adults who are watching these videos. It's kids, small children. These videos are like crack for little kids. There's something about the repetition, the constant little dopamine hit of the reveal, that completely hooks them in. And little kids watch these videos over and over and over again, and they do it for hours and hours and hours. And if you try and take the screen away from them, they'll scream and scream and scream. If you don't believe me -- and I've already seen people in the audience nodding -- if you don't believe me, find someone with small children and ask them, and they'll know about the surprise egg videos. So this is where we start. It's 2018, and someone, or lots of people, are using the same mechanism that, like, Facebook and Instagram are using to get you to keep checking that app, and they're using it on YouTube to hack the brains of very small children in return for advertising revenue.
Mas o que acontece é que não são os adultos que veem estes vídeos. São os miúdos, as crianças. Estes vídeos são como droga para as crianças. Há qualquer coisa quanto à repetição, o constante choque de dopamina da revelação que os hipnotiza totalmente. As crianças veem estes vídeos vezes sem conta e fazem-no durante horas e horas e horas. Se tentarem afastá-las do ecrã, elas desatam aos gritos. Se não acreditam - já vi pessoas no público a abanar a cabeça - se não acreditam, procurem alguém com uma criança pequena e perguntem-lhe. Eles conhecem os vídeos dos ovos surpresa. É aqui que começamos. Estamos em 2018 e alguém, ou imensas pessoas, usam o mesmo mecanismo que o Facebook e o Instagram usam para nos obrigar a voltar a ver aquela aplicação e usam-no no YouTube para apanhar o cérebro das criancinhas em troca de receitas publicitárias.
At least, I hope that's what they're doing. I hope that's what they're doing it for, because there's easier ways of making ad revenue on YouTube. You can just make stuff up or steal stuff. So if you search for really popular kids' cartoons like "Peppa Pig" or "Paw Patrol," you'll find there's millions and millions of these online as well. Of course, most of them aren't posted by the original content creators. They come from loads and loads of different random accounts, and it's impossible to know who's posting them or what their motives might be. Does that sound kind of familiar? Because it's exactly the same mechanism that's happening across most of our digital services, where it's impossible to know where this information is coming from. It's basically fake news for kids, and we're training them from birth to click on the very first link that comes along, regardless of what the source is. That's doesn't seem like a terribly good idea.
Pelo menos, é o que eu julgo que estão a fazer. Espero que seja o que eles estão a fazer porque há formas mais fáceis de gerar receitas publicitárias no YouTube. Podemos inventar coisas ou roubar coisas. Se procurarem desenhos animados infantis, realmente populares, como o "Peppa Pig" ou o " Patrulha Pata", descobrem que também há muitos milhões deles na Internet. Claro que a maioria não são publicados pelos criadores originais. São carregados por imensas diferentes contas ao acaso e é impossível saber quem as publicou ou quais os motivos para isso. Isto parece-vos familiar? Porque é exatamente o mesmo mecanismo que está a ocorrer na maior parte dos nossos serviços digitais em que é impossível saber de onde provêm as informações. São notícias falsas para crianças e nós estamos a treinar as crianças desde que nascem, para clicarem na primeira ligação que lhes apareça, seja qual for a sua origem. Não parece ser uma ideia muito boa.
Here's another thing that's really big on kids' YouTube. This is called the "Finger Family Song." I just heard someone groan in the audience. This is the "Finger Family Song." This is the very first one I could find. It's from 2007, and it only has 200,000 views, which is, like, nothing in this game. But it has this insanely earwormy tune, which I'm not going to play to you, because it will sear itself into your brain in the same way that it seared itself into mine, and I'm not going to do that to you. But like the surprise eggs, it's got inside kids' heads and addicted them to it. So within a few years, these finger family videos start appearing everywhere, and you get versions in different languages with popular kids' cartoons using food or, frankly, using whatever kind of animation elements you seem to have lying around. And once again, there are millions and millions and millions of these videos available online in all of these kind of insane combinations. And the more time you start to spend with them, the crazier and crazier you start to feel that you might be.
Uma outra coisa que é importante no YouTube para crianças chama-se "Finger Family Song." Ouvi alguém no público a resmungar. Esta é a canção da Família dos Dedos. Foi a primeira que encontrei. É de 2007 e só tem 200 000 visitas o que é nada, neste campeonato. Mas tem uma melodia irritante que não vou tocar para vocês ouvirem porque ela cola-se no vosso cérebro tal como se colou no meu e não vou fazer-vos uma partida dessas. Mas, tal como com os ovos surpresa, enfia-se na cabeça das crianças e elas ficam viciados nela. Dentro de alguns anos, estes vídeos da família dos dedos começa a aparecer por toda a parte e temos versões em várias línguas com desenhos animados para crianças, usando a comida ou usando todos e quaisquer elementos de animação que por aí existem. Mais uma vez, há milhões e milhões destes vídeos na Internet, disponíveis em todos os tipos de combinações extravagantes. Quanto mais tempo gastarmos com eles mais loucos nos começamos a sentir.
And that's where I kind of launched into this, that feeling of deep strangeness and deep lack of understanding of how this thing was constructed that seems to be presented around me. Because it's impossible to know where these things are coming from. Like, who is making them? Some of them appear to be made of teams of professional animators. Some of them are just randomly assembled by software. Some of them are quite wholesome-looking young kids' entertainers. And some of them are from people who really clearly shouldn't be around children at all.
Foi aí que comecei a sentir uma sensação de profunda estranheza e profunda falta de compreensão de como era montada esta coisa que parece estar sempre à minha volta. Porque é impossível saber de onde vêm estas coisas. Quem é que as faz? Alguns parecem ser feitos por equipas de animadores profissionais. Alguns são apenas montados ao acaso por um "software". Alguns deles são vídeos para crianças com um aspeto muito saudável. E alguns são de pessoas que, claramente, não deviam aproximar-se de criancinhas.
(Laughter)
(Risos)
And once again, this impossibility of figuring out who's making this stuff -- like, this is a bot? Is this a person? Is this a troll? What does it mean that we can't tell the difference between these things anymore? And again, doesn't that uncertainty feel kind of familiar right now?
Mais uma vez, esta impossibilidade de vir a saber quem é que faz estas coisas - tipo, isto é um robô? Isto é uma pessoa? é um "troll"? O que significa é que já não consigamos ver as diferenças entre estas coisas. Esta incerteza não vos parece familiar?
So the main way people get views on their videos -- and remember, views mean money -- is that they stuff the titles of these videos with these popular terms. So you take, like, "surprise eggs" and then you add "Paw Patrol," "Easter egg," or whatever these things are, all of these words from other popular videos into your title, until you end up with this kind of meaningless mash of language that doesn't make sense to humans at all. Because of course it's only really tiny kids who are watching your video, and what the hell do they know? Your real audience for this stuff is software. It's the algorithms. It's the software that YouTube uses to select which videos are like other videos, to make them popular, to make them recommended. And that's why you end up with this kind of completely meaningless mash, both of title and of content.
A principal forma de as pessoas obterem visitas nos seus vídeos - os vídeos significam dinheiro - é encherem os títulos desses vídeos com estes termos populares. Por exemplo, os ovos surpresa. Acrescenta-se ao título "Patrulha Pata", "Ovo da Páscoa" ou outra coisa qualquer, todas as palavras de outros vídeos populares até acabar neste tipo de linguagem misturada, sem sentido que não faz sentido nenhum para as pessoas. Porque, claro, são só as crianças que veem esses vídeos e o que é que eles sabem? O verdadeiro público para estas coisas é o "software", são os algoritmos. É o "software" que o YouTube usa para escolher os vídeos que são como os outros vídeos, para os tornar populares, para os recomendar. É assim que acabamos por ter esta misturada totalmente sem sentido, tanto a nível do título como do conteúdo.
But the thing is, you have to remember, there really are still people within this algorithmically optimized system, people who are kind of increasingly forced to act out these increasingly bizarre combinations of words, like a desperate improvisation artist responding to the combined screams of a million toddlers at once. There are real people trapped within these systems, and that's the other deeply strange thing about this algorithmically driven culture, because even if you're human, you have to end up behaving like a machine just to survive.
Mas é preciso não esquecermos que, mesmo assim, ainda há pessoas dentro deste sistema otimizado com algoritmos, pessoas que são forçadas a produzir estas combinações de palavras cada vez mais bizarras, numa desesperada improvisação artística reagindo aos gritos combinados de um milhão de bebés ao mesmo tempo. São pessoas reais, presas dentro destes sistemas e essa é a outra coisa muito estranha desta cultura comandada por logaritmos, porque, mesmo sendo seres humanos, acabamos por nos comportar como uma máquina apenas para sobrevivermos.
And also, on the other side of the screen, there still are these little kids watching this stuff, stuck, their full attention grabbed by these weird mechanisms. And most of these kids are too small to even use a website. They're just kind of hammering on the screen with their little hands. And so there's autoplay, where it just keeps playing these videos over and over and over in a loop, endlessly for hours and hours at a time. And there's so much weirdness in the system now that autoplay takes you to some pretty strange places. This is how, within a dozen steps, you can go from a cute video of a counting train to masturbating Mickey Mouse. Yeah. I'm sorry about that. This does get worse. This is what happens when all of these different keywords, all these different pieces of attention, this desperate generation of content, all comes together into a single place. This is where all those deeply weird keywords come home to roost. You cross-breed the finger family video with some live-action superhero stuff, you add in some weird, trollish in-jokes or something, and suddenly, you come to a very weird place indeed.
Do outro lado do ecrã, continua a haver criancinhas a ver estas coisas. com a atenção presa nestes mecanismos esquisitos. A maioria dessas crianças são muito pequenas para usar a Internet. Só batem no ecrã com as suas mãozinhas. Por isso, há o Autoplay, que se limita a exibir estes vídeos vezes sem conta, num ciclo, durante horas e horas seguidas, infindavelmente. Há atualmente no sistema tanta coisa esquisita que o Autoplay nos leva a locais muito estranhos. Isto é como, em doze passos, podemos passar de um vídeo giro de um comboio de contagem para um Mickey Mouse a masturbar-se. Desculpem isto. Mas as coisas pioram. Isto é o que acontece quando todas estas palavras-chave, todas estas diferentes peças de atenção, esta geração desesperada de conteúdo, se junta tudo num só local. É aqui que todas estas palavras-chave profundamente estranhas entram na nossa casa. Mistura-se o vídeo da família dos dedos com alguma ação de super-heróis, acrescenta-se umas piadas baratas ou qualquer coisa assim e, de repente, vamos parar a um sítio muito esquisito.
The stuff that tends to upset parents is the stuff that has kind of violent or sexual content, right? Children's cartoons getting assaulted, getting killed, weird pranks that actually genuinely terrify children. What you have is software pulling in all of these different influences to automatically generate kids' worst nightmares. And this stuff really, really does affect small children. Parents report their children being traumatized, becoming afraid of the dark, becoming afraid of their favorite cartoon characters. If you take one thing away from this, it's that if you have small children, keep them the hell away from YouTube.
As coisas que mais incomodam os pais são as coisas que têm um conteúdo violento ou sexual, não é? Os desenhos animados em que crianças são atacadas são assassinadas, situações estranhas que aterrorizam genuinamente as crianças. Temos é um "software" que vai buscar todas estas influências diferentes para gerar automaticamente os piores pesadelos das crianças. Este material afeta realmente as criancinhas. Os pais relatam que os filhos ficam traumatizados, ficam com medo do escuro, ficam com medo dos desenhos animados preferidos. Se há uma conclusão a tirar daqui é que, se tiverem filhos pequenos, mantenham-nos bem afastados do YouTube.
(Applause)
(Aplausos)
But the other thing, the thing that really gets to me about this, is that I'm not sure we even really understand how we got to this point. We've taken all of this influence, all of these things, and munged them together in a way that no one really intended. And yet, this is also the way that we're building the entire world. We're taking all of this data, a lot of it bad data, a lot of historical data full of prejudice, full of all of our worst impulses of history, and we're building that into huge data sets and then we're automating it. And we're munging it together into things like credit reports, into insurance premiums, into things like predictive policing systems, into sentencing guidelines. This is the way we're actually constructing the world today out of this data. And I don't know what's worse, that we built a system that seems to be entirely optimized for the absolute worst aspects of human behavior, or that we seem to have done it by accident, without even realizing that we were doing it, because we didn't really understand the systems that we were building, and we didn't really understand how to do anything differently with it.
Mas há outra coisa que me aborrece é que eu não tenho a certeza se percebemos como chegámos a este ponto. Aceitámos todas estas influências, todas estas coisas misturadas duma forma que ninguém pretendia. Mas isto também é a forma como estamos a construir o mundo inteiro. Agarramos em todas estas informações, uma data de más informações, uma data de informações históricas cheias de preconceitos, cheias de todos os nossos piores impulsos da história, criamos enormes conjuntos de informações e depois automatizamo-las. E estamos a misturá-las com coisas como relatórios de crédito, com prémios de seguros, com coisas como sistemas de vigilância preditiva com linhas de orientação de sentenças. Esta é a forma como estamos a construir o mundo de hoje a partir destas informações. Não sei o que será pior, termos criado um sistema que parece estar totalmente otimizado para os piores aspetos absolutos do comportamento humano ou parecer que o fizemos por acaso sem sequer ter percebido o que estávamos a fazer, porque não percebíamos nada dos sistemas que estávamos a criar e não percebíamos minimamente como fazer de forma diferente.
There's a couple of things I think that really seem to be driving this most fully on YouTube, and the first of those is advertising, which is the monetization of attention without any real other variables at work, any care for the people who are actually developing this content, the centralization of the power, the separation of those things. And I think however you feel about the use of advertising to kind of support stuff, the sight of grown men in diapers rolling around in the sand in the hope that an algorithm that they don't really understand will give them money for it suggests that this probably isn't the thing that we should be basing our society and culture upon, and the way in which we should be funding it.
Penso que há algumas coisas que parecem ter levado a isto sobretudo no YouTube, A primeira é a publicidade que é a monetarização da atenção sem quaisquer outras variáveis em ação, sem se pensar nas pessoas que desenvolvem este conteúdo, a centralização do poder, a separação destas coisas. Mas penso que, em relação ao uso da publicidade, que apoia este tipo de coisas, a vista de adultos de fraldas a rebolar na areia na esperança de que um algoritmo - de que não percebem nada - lhes dará dinheiro, sugere que, provavelmente, não é nisso que devemos basear a nossa sociedade e a nossa cultura e a forma como devemos financiá-la.
And the other thing that's kind of the major driver of this is automation, which is the deployment of all of this technology as soon as it arrives, without any kind of oversight, and then once it's out there, kind of throwing up our hands and going, "Hey, it's not us, it's the technology." Like, "We're not involved in it." That's not really good enough, because this stuff isn't just algorithmically governed, it's also algorithmically policed. When YouTube first started to pay attention to this, the first thing they said they'd do about it was that they'd deploy better machine learning algorithms to moderate the content. Well, machine learning, as any expert in it will tell you, is basically what we've started to call software that we don't really understand how it works. And I think we have enough of that already. We shouldn't be leaving this stuff up to AI to decide what's appropriate or not, because we know what happens. It'll start censoring other things. It'll start censoring queer content. It'll start censoring legitimate public speech. What's allowed in these discourses, it shouldn't be something that's left up to unaccountable systems. It's part of a discussion all of us should be having.
A outra coisa que é o maior impulso é a automação que é a evolução de toda esta tecnologia logo que ela chega sem qualquer tipo de supervisão e, logo que ela aparece, lavamos as mãos e dizemos: "Não fomos nós, é a tecnologia". "Nós não estamos metidos nisso". Isso não chega porque isto, além de ser governado por algoritmos, também é policiado por algoritmos. Quando o YouTube começou a prestar atenção a isto, a primeira coisa que disseram foi que iam arranjar melhores algoritmos através da aprendizagem de máquinas, para moderar o conteúdo Bom, a aprendizagem de máquinas, como qualquer especialista dirá, é aquilo a que começámos por chamar "software" e que não percebemos minimamente como funciona. Penso que já temos disso que chegue. Não devíamos deixar estas coisas para a IA decidir o que é apropriado ou não, porque sabemos o que acontece. Vai começar por censurar outras coisas, censurar conteúdos estranhos, censurar discursos públicos legítimos. O que é permitido nesses discursos não devia ser uma coisa deixada a sistemas irresponsáveis. Faz parte de uma discussão que todos devíamos ter.
But I'd leave a reminder that the alternative isn't very pleasant, either. YouTube also announced recently that they're going to release a version of their kids' app that would be entirely moderated by humans. Facebook -- Zuckerberg said much the same thing at Congress, when pressed about how they were going to moderate their stuff. He said they'd have humans doing it. And what that really means is, instead of having toddlers being the first person to see this stuff, you're going to have underpaid, precarious contract workers without proper mental health support being damaged by it as well.
Mas vou deixar um alerta: a alternativa também não é muito agradável. O YouTube anunciou recentemente que vão lançar uma versão da sua aplicação para crianças que será totalmente moderada por pessoas. Facebook - Zuckeberger disse uma coisa parecida no Congresso, quando lhe perguntaram como iam moderar as suas coisas. Disse que iam pôr pessoas a fazê-lo. Queriam dizer que, em vez de serem as crianças as primeiras a verem aqueles conteúdos iam pôr trabalhadores mal pagos, com contratos precários, sem apoio adequado de saúde mental, que também vão ser contaminados.
(Laughter)
(Risos)
And I think we can all do quite a lot better than that.
Penso que todos podemos fazer melhor do que isso.
(Applause)
(Aplausos)
The thought, I think, that brings those two things together, really, for me, is agency. It's like, how much do we really understand -- by agency, I mean: how we know how to act in our own best interests. Which -- it's almost impossible to do in these systems that we don't really fully understand. Inequality of power always leads to violence. And we can see inside these systems that inequality of understanding does the same thing. If there's one thing that we can do to start to improve these systems, it's to make them more legible to the people who use them, so that all of us have a common understanding of what's actually going on here.
Penso que a ideia que reúne estas duas coisas é a ação. Ou seja, por ação, quero dizer até que ponto sabemos como agir no nosso melhor interesse? É quase impossível sabê-lo nestes sistemas que não compreendemos minimamente. A desigualdade no poder leva sempre à violência. Vemos no interior destes sistemas que a desigualdade de compreensão faz a mesma coisa. Se há alguma coisa que podemos fazer para começar a melhorar estes sistemas, é torná-los mais legíveis para as pessoas que os usam, de modo a que todos tenhamos um entendimento comum do que está realmente a acontecer.
The thing, though, I think most about these systems is that this isn't, as I hope I've explained, really about YouTube. It's about everything. These issues of accountability and agency, of opacity and complexity, of the violence and exploitation that inherently results from the concentration of power in a few hands -- these are much, much larger issues. And they're issues not just of YouTube and not just of technology in general, and they're not even new. They've been with us for ages. But we finally built this system, this global system, the internet, that's actually showing them to us in this extraordinary way, making them undeniable. Technology has this extraordinary capacity to both instantiate and continue all of our most extraordinary, often hidden desires and biases and encoding them into the world, but it also writes them down so that we can see them, so that we can't pretend they don't exist anymore. We need to stop thinking about technology as a solution to all of our problems, but think of it as a guide to what those problems actually are, so we can start thinking about them properly and start to address them.
Mas a coisa em que mais penso quanto a estes sistemas é que isto não é, como espero ter deixado claro, sobre o YouTube. Trata-se de todas as coisas. Estes problemas de responsabilização e de ação, de opacidade e de complexidade, da violência e da exploração que resulta inerentemente da concentração do poder em poucas mãos - são problemas muito maiores. São problemas não apenas do YouTube nem sequer da tecnologia em geral e nem sequer são novos. Sempre os tivemos ao longo de eras. Mas, por fim, criámos este sistema, este sistema global, a Internet, que está a exibir-se à nossa frente desta forma extraordinária, tornando-os inegáveis. A tecnologia tem esta capacidade extraordinária de exemplificar e continuar todos os nossos desejos e preconceitos mais extraordinários e às vezes ocultos e codificando-os no mundo, mas também de os escrever para os podermos ver, de modo que já não podemos pretender que não existem. Temos que deixar de pensar na tecnologia como uma solução para todos os nossos problemas mas pensar nela como uma orientação para quais são esses problemas hoje, para podermos pensar neles de modo adequado e começar a resolvê-los.
Thank you very much.
Muito obrigado.
(Applause)
(Aplausos)
Thank you.
Obrigado.
(Applause)
(Aplausos)
Helen Walters: James, thank you for coming and giving us that talk. So it's interesting: when you think about the films where the robotic overlords take over, it's all a bit more glamorous than what you're describing. But I wonder -- in those films, you have the resistance mounting. Is there a resistance mounting towards this stuff? Do you see any positive signs, green shoots of resistance?
Helen Walters: James, obrigada por teres vindo fazer esta palestra. É interessante, quando pensamos nos filmes em que os robôs assumem o comando, é um pouco mais deslumbrante do que o que descreveste. Mas fico a pensar - nestes filmes, temos a escalada da resistência. Há uma escalada de resistência contra esta matéria? Vês quaisquer sinais positivos, disparos verdes de resistência?
James Bridle: I don't know about direct resistance, because I think this stuff is super long-term. I think it's baked into culture in really deep ways. A friend of mine, Eleanor Saitta, always says that any technological problems of sufficient scale and scope are political problems first of all. So all of these things we're working to address within this are not going to be addressed just by building the technology better, but actually by changing the society that's producing these technologies. So no, right now, I think we've got a hell of a long way to go. But as I said, I think by unpacking them, by explaining them, by talking about them super honestly, we can actually start to at least begin that process.
James Bridle: Não sei nada sobre resistência direta, porque penso que isto é a muito longo prazo, está cozinhado na cultura de forma muito profunda. Uma amiga minha, Eleanor Saitta, diz sempre que quaisquer problemas tecnológicos de dimensão e âmbito suficientes são problemas políticos, acima de tudo. Portanto, todas estas coisas que tentamos abordar não vão ser resolvidas apenas por melhorarmos a tecnologia, mas só alterando a sociedade que produz essas tecnologias. Neste momento, penso que temos um comprido caminho a percorrer. Mas, como disse, penso que, se os explicarmos, se falarmos disso de forma honesta, pelo menos, podemos iniciar esse processo.
HW: And so when you talk about legibility and digital literacy, I find it difficult to imagine that we need to place the burden of digital literacy on users themselves. But whose responsibility is education in this new world?
HW: Quando falas da legibilidade e da literacia digital, tenho dificuldade em imaginar que precisamos de atirar o peso da literacia digital para os utilizadores. De quem é a responsabilidade do ensino neste novo mundo?
JB: Again, I think this responsibility is kind of up to all of us, that everything we do, everything we build, everything we make, needs to be made in a consensual discussion with everyone who's avoiding it; that we're not building systems intended to trick and surprise people into doing the right thing, but that they're actually involved in every step in educating them, because each of these systems is educational. That's what I'm hopeful about, about even this really grim stuff, that if you can take it and look at it properly, it's actually in itself a piece of education that allows you to start seeing how complex systems come together and work and maybe be able to apply that knowledge elsewhere in the world.
JB: Penso que essa responsabilidade também tem a ver com todos nós, penso que tudo o que fazemos, tudo o que criamos, tem que ser feito numa discussão consensual com todos os que a têm evitado. de que não estamos a construir sistemas destinados a enganar e a surpreender as pessoas mas para fazer as coisas certas, e que eles estão realmente envolvidos em cada passo na educação deles, porque cada um destes sistemas é educativo. É nisso que tenho esperança, mesmo nestas coisas sombrias, que, se pudermos analisá-lo devidamente, é em si mesmo uma peça de ensino que nos permite começar a ver como sistemas complexos se juntam e funcionam e porventura possam aplicar esses conhecimentos pelo mundo.
HW: James, it's such an important discussion, and I know many people here are really open and prepared to have it, so thanks for starting off our morning.
HW: James, é uma discussão tão importante e sei que muita gente aqui está aberta e preparada para ela obrigada por teres começado a nossa manhã.
JB: Thanks very much. Cheers.
JB: Muito obrigado.
(Applause)
(Aplausos)