I want you to imagine walking into a room, a control room with a bunch of people, a hundred people, hunched over a desk with little dials, and that that control room will shape the thoughts and feelings of a billion people. This might sound like science fiction, but this actually exists right now, today.
Beeld je eens in dat je een ruimte in gaat, een controlekamer met een aantal mensen, 100 mensen gebogen over een bureau met kleine wijzerplaatjes. En dat die controlekamer de gedachten en gevoelens zal bepalen van een miljard mensen. Dit mag dan wel klinken als science fiction, maar het bestaat al, nu, vandaag.
I know because I used to be in one of those control rooms. I was a design ethicist at Google, where I studied how do you ethically steer people's thoughts? Because what we don't talk about is how the handful of people working at a handful of technology companies through their choices will steer what a billion people are thinking today. Because when you pull out your phone and they design how this works or what's on the feed, it's scheduling little blocks of time in our minds. If you see a notification, it schedules you to have thoughts that maybe you didn't intend to have. If you swipe over that notification, it schedules you into spending a little bit of time getting sucked into something that maybe you didn't intend to get sucked into. When we talk about technology, we tend to talk about it as this blue sky opportunity. It could go any direction. And I want to get serious for a moment and tell you why it's going in a very specific direction. Because it's not evolving randomly. There's a hidden goal driving the direction of all of the technology we make, and that goal is the race for our attention. Because every news site, TED, elections, politicians, games, even meditation apps have to compete for one thing, which is our attention, and there's only so much of it. And the best way to get people's attention is to know how someone's mind works. And there's a whole bunch of persuasive techniques that I learned in college at a lab called the Persuasive Technology Lab to get people's attention.
Ik weet het, omdat ik vroeger in één van deze controlekamers zat. Ik was een ontwerpethicus bij Google, waar ik bestudeerde hoe je de gedachten van mensen ethisch kunt besturen. Want waar we niet over praten, is hoe een handvol mensen bij een handvol technologiebedrijven met hun keuzes bepalen wat een miljard mensen vandaag denken. Als jij je telefoon tevoorschijn haalt en zij ontwerpen hoe die werkt of wat er op je overzicht staat, claimt hij kleine blokjes tijd in onze gedachten. Als je een berichtje ziet, plaatst dat gedachten in je hoofd die je misschien niet van plan was te hebben. Als je over dat bericht veegt, zorgt dat dat je wat tijd zult besteden door ergens ingezogen te worden waar je niet van plan was om te worden ingezogen. Wanneer we praten over technologie hebben we het meestal over haar onbegrensde mogelijkheden; het kan elke kant op gaan. Maar serieus, ik zal je vertellen waarom het een hele specifieke richting uit gaat. Want het evolueert niet eender welke kant uit. Er is een verborgen doel dat bepaalt hoe onze technologie zich ontwikkeld en dat doel is de race voor onze aandacht. Want iedere nieuwe site -- TED, verkiezingen, politici, spelletjes, zelfs meditatie apps -- moet strijden om één ding. Dat is onze aandacht. En daar hebben we maar zoveel van. De beste manier om iemand z'n aandacht te krijgen, is door te weten hoe iemand z'n brein werkt. En er zijn een heleboel overredingstechnieken die ik leerde tijdens m'n studies in het 'overredingstechnologie lab' om de aandacht te krijgen.
A simple example is YouTube. YouTube wants to maximize how much time you spend. And so what do they do? They autoplay the next video. And let's say that works really well. They're getting a little bit more of people's time. Well, if you're Netflix, you look at that and say, well, that's shrinking my market share, so I'm going to autoplay the next episode. But then if you're Facebook, you say, that's shrinking all of my market share, so now I have to autoplay all the videos in the newsfeed before waiting for you to click play. So the internet is not evolving at random. The reason it feels like it's sucking us in the way it is is because of this race for attention. We know where this is going. Technology is not neutral, and it becomes this race to the bottom of the brain stem of who can go lower to get it.
Een simpel voorbeeld is YouTube. YouTube wil je zo lang mogelijk op hun site houden. Dus wat doen ze? Ze spelen automatisch de volgende video. Stel dat dat goed werkt en ze houden je wat langer vast. Als je Netflix bent, dan kijk je daar naar en zegt: "Dat verkleint mijn marktaandeel, dus ik ga de volgende aflevering automatisch afspelen." Maar Facebook zeg dan: "Dat verkleint mijn marktaandeel, dus nu moet ik alle videos op de nieuwsfeed automatisch afspelen nog voor je op 'play' klikt." Dus het internet evolueert niet in het wilde weg. De reden dat het op dit moment voelt alsof het ons erin zuigt, is vanwege die race om onze aandacht. We weten waar dit heen gaat; technologie is niet neutraal. Het wordt die race naar het diepste punt van de hersenstam; over wie het diepste kan gaan.
Let me give you an example of Snapchat. If you didn't know, Snapchat is the number one way that teenagers in the United States communicate. So if you're like me, and you use text messages to communicate, Snapchat is that for teenagers, and there's, like, a hundred million of them that use it. And they invented a feature called Snapstreaks, which shows the number of days in a row that two people have communicated with each other. In other words, what they just did is they gave two people something they don't want to lose. Because if you're a teenager, and you have 150 days in a row, you don't want that to go away. And so think of the little blocks of time that that schedules in kids' minds. This isn't theoretical: when kids go on vacation, it's been shown they give their passwords to up to five other friends to keep their Snapstreaks going, even when they can't do it. And they have, like, 30 of these things, and so they have to get through taking photos of just pictures or walls or ceilings just to get through their day. So it's not even like they're having real conversations. We have a temptation to think about this as, oh, they're just using Snapchat the way we used to gossip on the telephone. It's probably OK. Well, what this misses is that in the 1970s, when you were just gossiping on the telephone, there wasn't a hundred engineers on the other side of the screen who knew exactly how your psychology worked and orchestrated you into a double bind with each other.
Laat me je een voorbeeld geven van Snapchat. Mocht je het niet weten, Snapchat is onder Amerikaanse tieners de populairste manier om te communiceren. Dus als je, net als ik, berichtjes gebruikt om te communiceren: Snapchat is hetzelfde voor tieners; het heeft wel 100 miljoen gebruikers. Zij introduceerden iets wat ze 'Snapstreaks' noemen, wat het aantal dagen op rij toont dat twee mensen met elkaar hebben gecommuniceerd. Wat ze dus doen, is twee mensen iets geven wat ze niet willen verliezen. Want als je een tiener bent en je hebt 150 dagen op een rij, dan wil je dat niet verliezen. Bedenk wat dit voor kleine blokjes tijd in het brein van kinderen claimt. Dit is geen theorie: als kinderen op vakantie gaan, blijken ze hun paswoorden aan tot wel vijf vrienden te geven om hun Snapstreaks gaande te houden als zij het zelf niet kunnen doen. En ze hebben er wel 30, dus moeten ze foto's nemen van plaatjes of muren of plafonds om de dag door te komen. Ze hebben dus niet eens echte conversaties. We zijn geneigd om te denken: oh, die gebruiken Snapchat zoals wij vroeger de telefoon. Dat kan geen kwaad. Maar als we in de jaren 70 zaten te kletsen aan de telefoon, zaten er aan de andere kant van het scherm geen 100 ingenieurs die exact wisten hoe je psychologisch in elkaar steekt en je van twee kanten aan het lijntje hielden.
Now, if this is making you feel a little bit of outrage, notice that that thought just comes over you. Outrage is a really good way also of getting your attention, because we don't choose outrage. It happens to us. And if you're the Facebook newsfeed, whether you'd want to or not, you actually benefit when there's outrage. Because outrage doesn't just schedule a reaction in emotional time, space, for you. We want to share that outrage with other people. So we want to hit share and say, "Can you believe the thing that they said?" And so outrage works really well at getting attention, such that if Facebook had a choice between showing you the outrage feed and a calm newsfeed, they would want to show you the outrage feed, not because someone consciously chose that, but because that worked better at getting your attention. And the newsfeed control room is not accountable to us. It's only accountable to maximizing attention. It's also accountable, because of the business model of advertising, for anybody who can pay the most to actually walk into the control room and say, "That group over there, I want to schedule these thoughts into their minds." So you can target, you can precisely target a lie directly to the people who are most susceptible. And because this is profitable, it's only going to get worse.
Als je hier een beetje boos van wordt, merk dan op dat die gedachte je vanzelf binnenvalt. Woede is ook een hele goede manier om je aandacht te krijgen. Want we kiezen niet voor woede, het overkomt ons. Als jij de Facebook nieuwsfeed bent, of je dat nu wilt of niet, dan profiteer je ervan als iemand boos is. Want woede plaatst niet alleen een reactie in jouw emotionele tijd en ruimte, we willen die woede ook delen met andere mensen. We willen het delen en zeggen: "Kan je geloven dat ze dat zeiden?" Dus woede werkt heel goed om aandacht te krijgen, zo goed dat als Facebook de keuze had tussen het tonen van een woedende en een kalme nieuwsfeed, ze je de woedende feed zouden willen tonen. Niet omdat iemand dat bewust koos, maar omdat dat beter werkt om je aandacht te krijgen. En de controlekamer van de nieuwsfeed hoeft ons geen verantwoording af te leggen. Het hoeft alleen maar de aandacht te maximaliseren. Het is ook verantwoordelijk, vanwege het bedrijfsmodel van adverteren, jegens degene die de controlekamer genoeg kan betalen om te kunnen zeggen: "Die groep daar. Ik wil deze gedachten in hun hoofd brengen." Je kunt gewoon richten. Je kunt je leugens precies richten op de mensen die het meest vatbaar zijn. En omdat dit winstgevend is, zal dit enkel nog verergeren.
So I'm here today because the costs are so obvious. I don't know a more urgent problem than this, because this problem is underneath all other problems. It's not just taking away our agency to spend our attention and live the lives that we want, it's changing the way that we have our conversations, it's changing our democracy, and it's changing our ability to have the conversations and relationships we want with each other. And it affects everyone, because a billion people have one of these in their pocket.
Dus ben ik vandaag hier, omdat de prijs zo duidelijk is. Ik ken geen dringender probleem dan dit, want dit probleem zit onder alle andere problemen. Het ontneemt ons niet alleen de vrijheid om onze aandacht te besteden en het leven te leven wat we willen. Het verandert de manier waarop we onze conversaties voeren, het verandert onze democratie en het verandert ons vermogen om de gesprekken en relaties te hebben die we met elkaar willen. Het treft iedereen, omdat een miljard mensen er zo een in zijn zak heeft.
So how do we fix this? We need to make three radical changes to technology and to our society. The first is we need to acknowledge that we are persuadable. Once you start understanding that your mind can be scheduled into having little thoughts or little blocks of time that you didn't choose, wouldn't we want to use that understanding and protect against the way that that happens? I think we need to see ourselves fundamentally in a new way. It's almost like a new period of human history, like the Enlightenment, but almost a kind of self-aware Enlightenment, that we can be persuaded, and there might be something we want to protect. The second is we need new models and accountability systems so that as the world gets better and more and more persuasive over time -- because it's only going to get more persuasive -- that the people in those control rooms are accountable and transparent to what we want. The only form of ethical persuasion that exists is when the goals of the persuader are aligned with the goals of the persuadee. And that involves questioning big things, like the business model of advertising. Lastly, we need a design renaissance, because once you have this view of human nature, that you can steer the timelines of a billion people -- just imagine, there's people who have some desire about what they want to do and what they want to be thinking and what they want to be feeling and how they want to be informed, and we're all just tugged into these other directions. And you have a billion people just tugged into all these different directions. Well, imagine an entire design renaissance that tried to orchestrate the exact and most empowering time-well-spent way for those timelines to happen. And that would involve two things: one would be protecting against the timelines that we don't want to be experiencing, the thoughts that we wouldn't want to be happening, so that when that ding happens, not having the ding that sends us away; and the second would be empowering us to live out the timeline that we want.
Hoe herstellen we dit? We moeten drie dingen radicaal veranderen aan de technologie en aan onze samenleving. Ten eerste moeten we inzien dat we overreed kunnen worden. Zodra je inziet dat je geest geprogrammeerd kan worden om kleine gedachten te hebben met kleine blokjes tijd die je niet gekozen hebt, zou je dat inzicht niet willen gebruiken om jezelf ertegen te beschermen? Ik denk dat we onszelf fundamenteel anders moeten zien. Het is bijna als een nieuwe periode in de historie, zoals de Verlichting, maar dan een Verlichting in zelfbewustzijn: dat we overreed kunnen worden en dat er iets zou kunnen zijn wat we willen beschermen. Ten tweede zullen we nieuwe modellen en verantwoordingssystemen nodig hebben, zodat als de wereld beter en steeds overredender wordt -- want het zal alleen maar overredender worden -- dat de mensen in die controlekamers verantwoordelijk en transparant zijn voor wat wij willen. De enige vorm van ethische overreding die bestaat, is wanneer de doelen van de overreder overeenstemmen met de doelen van de overrede. Dat betekent vraagtekens zetten bij zaken als het bedrijfsmodel van adverteren. Tot slot hebben we een renaissance van design nodig, want heb je eenmaal dit inzicht in de menselijke aard, dat je de tijdlijn van een miljard mensen kan sturen -- realiseer je dat er mensen zijn die een wens hebben over wat ze willen doen, en denken, en voelen, en hoe ze willen geïnformeerd worden, en we worden gewoon in die andere richtingen getrokken. Een miljard mensen wordt gewoon in verschillende richtingen getrokken. Beeld je een volledige design-renaissance in die is gericht op het produceren van de meest nuttige en meest gewenste tijdlijn. En dat zou twee zaken inhouden: de eerste is bescherming tegen tijdlijnen die we niet willen, de gedachten die we niet willen denken, zodat wanneer die 'ping' klinkt, we er niet door worden weggezogen. De tweede zou ons in staat stellen om het leven te leiden dat we willen.
So let me give you a concrete example. Today, let's say your friend cancels dinner on you, and you are feeling a little bit lonely. And so what do you do in that moment? You open up Facebook. And in that moment, the designers in the control room want to schedule exactly one thing, which is to maximize how much time you spend on the screen. Now, instead, imagine if those designers created a different timeline that was the easiest way, using all of their data, to actually help you get out with the people that you care about? Just think, alleviating all loneliness in society, if that was the timeline that Facebook wanted to make possible for people. Or imagine a different conversation. Let's say you wanted to post something supercontroversial on Facebook, which is a really important thing to be able to do, to talk about controversial topics. And right now, when there's that big comment box, it's almost asking you, what key do you want to type? In other words, it's scheduling a little timeline of things you're going to continue to do on the screen. And imagine instead that there was another button there saying, what would be most time well spent for you? And you click "host a dinner." And right there underneath the item it said, "Who wants to RSVP for the dinner?" And so you'd still have a conversation about something controversial, but you'd be having it in the most empowering place on your timeline, which would be at home that night with a bunch of a friends over to talk about it. So imagine we're running, like, a find and replace on all of the timelines that are currently steering us towards more and more screen time persuasively and replacing all of those timelines with what do we want in our lives.
Laat me je een voorbeeld geven. Vandaag zegt je vriend bijvoorbeeld een etentje af en je voelt je een beetje eenzaam. Dus wat doe je op dat moment? Je opent Facebook. Op dat moment willen de ontwerpers in de controlekamer maar één ding: je zo lang mogelijk aan het scherm houden. Wat nu als die designers in plaats daarvan een tijdlijn maakten die op basis van alle gegevens die ze hadden jou zouden helpen uit te gaan met mensen waar je om geeft? Stel je voor hoe alle eenzaamheid in de samenleving zou worden verzacht als Facebook de mensen die tijdlijn zou willen bieden. Of beeld je een ander gesprek in. Stel je wil iets heel controversieels posten op Facebook, wat belangrijk is om te kunnen doen, over controversiële zaken praten. Op dit moment is er dat grote vak voor je opmerking, alsof het je vraagt: welke toets wil je indrukken? Ofwel, het heeft allerlei dingetjes gepland die je op het scherm zult blijven doen. Beeld je in dat er in plaats daarvan een andere knop was die zei: "Waar zou je nu het meest bij gebaat zijn?" En je klikt op 'een etentje geven'. En vlak daaronder staat: "Wie wil er naar het etentje komen?" Je zou nog steeds een gesprek hebben over iets controversieels, maar je zou het hebben op de beste plaats op jouw tijdlijn, namelijk die avond thuis, met een paar vrienden om erover te praten. Dus beeld je in dat we een 'zoek en vervang' doen op alle tijdlijnen die ons momenteel tot meer en meer schermtijd verleiden en al die tijdlijnen vervangen door wat we in ons leven willen.
It doesn't have to be this way. Instead of handicapping our attention, imagine if we used all of this data and all of this power and this new view of human nature to give us a superhuman ability to focus and a superhuman ability to put our attention to what we cared about and a superhuman ability to have the conversations that we need to have for democracy. The most complex challenges in the world require not just us to use our attention individually. They require us to use our attention and coordinate it together. Climate change is going to require that a lot of people are being able to coordinate their attention in the most empowering way together. And imagine creating a superhuman ability to do that.
Het hoeft niet zo te zijn. In plaats van onze aandacht het lastig te maken, stel dat we deze data en ons inzicht in de menselijke natuur zouden gebruiken om ons een bovenmenselijk vermogen te geven om te focussen, een bovenmenselijk talent om onze aandacht te geven aan waar we van houden, en een bovenmenselijk talent om conversaties te hebben die we nodig hebben voor democratie. De meest complexe uitdagingen ter wereld vereisen niet alleen onze individuele aandacht. Ze vereisen het gezamenlijk gebruiken en coördineren van onze aandacht. De klimaatverandering zal vereisen dat heel wat mensen hun aandacht samen kunnen coördineren in de meest krachtige manier. Stel dat we een bovenmenselijk vermogen ontwikkelen om dat te doen.
Sometimes the world's most pressing and important problems are not these hypothetical future things that we could create in the future. Sometimes the most pressing problems are the ones that are right underneath our noses, the things that are already directing a billion people's thoughts. And maybe instead of getting excited about the new augmented reality and virtual reality and these cool things that could happen, which are going to be susceptible to the same race for attention, if we could fix the race for attention on the thing that's already in a billion people's pockets. Maybe instead of getting excited about the most exciting new cool fancy education apps, we could fix the way kids' minds are getting manipulated into sending empty messages back and forth.
Soms zijn 's werelds meest dringende en belangrijke problemen niet deze hypothetische dingen die we zouden kunnen creëren in de toekomst. Soms bevinden zich de meest dringende problemen vlak voor onze neus, de dingen die al de gedachten van een miljard mensen bepalen. In plaats van opgewonden te worden over de nieuwe 'augmented reality' en virtual reality en de coole dingen die zouden kunnen gebeuren, die ook onderhevig zullen zijn aan dezelfde race voor aandacht, moeten we misschien eerst de strijd om de aandacht verhelpen op het ding dat iedereen al in zijn zak heeft. In plaats ons van gek te laten maken door de spannendste, nieuwe, coole, chique onderwijs apps, kunnen we iets doen aan hoe het brein van kinderen wordt verkwist aan het heen en weer zenden van lege berichten.
(Applause)
(Applaus)
Maybe instead of worrying about hypothetical future runaway artificial intelligences that are maximizing for one goal, we could solve the runaway artificial intelligence that already exists right now, which are these newsfeeds maximizing for one thing. It's almost like instead of running away to colonize new planets, we could fix the one that we're already on.
In plaats van ons zorgen te maken over gevaarlijke losgeslagen artificiële intelligentie in de toekomst die maar één doel voor ogen hebben, zouden we iets kunnen doen aan de losgeslagen artificiële intelligentie die nu al bestaat, namelijk die nieuwsfeeds met maar één doel voor ogen. Net zoals we in plaats van weg te lopen en op andere planeten te gaan leven, we beter kunnen zorgen voor die waar we al zijn.
(Applause)
(Applaus)
Solving this problem is critical infrastructure for solving every other problem. There's nothing in your life or in our collective problems that does not require our ability to put our attention where we care about. At the end of our lives, all we have is our attention and our time. What will be time well spent for ours?
Dit probleem oplossen is cruciaal voor het oplossen van alle andere problemen. Alles in ons leven en in onze collectieve problemen vereist het vermogen om onze aandacht te richten op waar we om geven. Aan het einde van ons leven hebben we alleen onze aandacht en onze tijd. Waar kunnen we die het best aan besteden?
Thank you.
Dank je.
(Applause)
(Applaus)
Chris Anderson: Tristan, thank you. Hey, stay up here a sec. First of all, thank you. I know we asked you to do this talk on pretty short notice, and you've had quite a stressful week getting this thing together, so thank you. Some people listening might say, what you complain about is addiction, and all these people doing this stuff, for them it's actually interesting. All these design decisions have built user content that is fantastically interesting. The world's more interesting than it ever has been. What's wrong with that?
Chris Anderson: Tristan, dank je. Wacht nog even. Allereerst, dank je. Ik weet dat we je heel laat gevraagd hebben om te spreken en dat je een stressvolle week had om dit samen te rapen, dus dank je. Sommige luisteraars zullen zeggen dat je eigenlijk klaagt over verslaving en voor de mensen die dit doen, is het feitelijk interessant. Al deze design beslissingen hebben gebruikersinhoud voortgebracht die fantastisch interessant is. De wereld is interessanter dan ooit. Wat is daar mis mee?
Tristan Harris: I think it's really interesting. One way to see this is if you're just YouTube, for example, you want to always show the more interesting next video. You want to get better and better at suggesting that next video, but even if you could propose the perfect next video that everyone would want to watch, it would just be better and better at keeping you hooked on the screen. So what's missing in that equation is figuring out what our boundaries would be. You would want YouTube to know something about, say, falling asleep. The CEO of Netflix recently said, "our biggest competitors are Facebook, YouTube and sleep." And so what we need to recognize is that the human architecture is limited and that we have certain boundaries or dimensions of our lives that we want to be honored and respected, and technology could help do that.
Tristan Harris: Ik vind dit heel interessant. Als je YouTube bent, bijvoorbeeld, wil je altijd een volgende interessante video tonen. Je wil die suggesties steeds beter maken. Maar zelfs al kon je de perfecte video voorstellen die iedereen zou willen bekijken, je maakt de kijker alleen maar verslaafd aan video's kijken. Wat we missen is het uitvinden wat onze grenzen zouden zijn. Je zou willen dat YouTube iets wist over in slaap vallen. De CEO van Netflix zei pas: "Onze grootste concurrenten zijn Facebook, YouTube en slaap." Ook moeten we inzien dat de mens niet onbegrensd is en dat we zekere grenzen of dimensies in ons leven hebben die we geëerbiedigd en gerespecteerd willen zien. Technologie kan hierbij helpen.
(Applause)
(Applaus)
CA: I mean, could you make the case that part of the problem here is that we've got a naïve model of human nature? So much of this is justified in terms of human preference, where we've got these algorithms that do an amazing job of optimizing for human preference, but which preference? There's the preferences of things that we really care about when we think about them versus the preferences of what we just instinctively click on. If we could implant that more nuanced view of human nature in every design, would that be a step forward?
CA: Zou je kunnen zeggen dat een deel van het probleem hier is dat we een naïeve menselijke aard hebben? Veel hiervan is gerechtvaardigd omdat we dit zelf willen en die algoritmes doen juist geweldig hun werk in het bedienen van die voorkeur. Maar welke voorkeur? We hebben voorkeuren omtrent dingen waarom we echt geven als we erover nadenken versus onze instinctieve voorkeuren. Als we die nuances in de menselijke aard in de ontwerpen konden implementeren, zou dat een stap vooruit zijn?
TH: Absolutely. I mean, I think right now it's as if all of our technology is basically only asking our lizard brain what's the best way to just impulsively get you to do the next tiniest thing with your time, instead of asking you in your life what we would be most time well spent for you? What would be the perfect timeline that might include something later, would be time well spent for you here at TED in your last day here?
TH: Absoluut. Nu is het alsof onze technologie eigenlijk alleen aan ons oerbrein vraagt: hoe hou ik je impulsief bezig met het eerstvolgende kleine dingetje. In plaats van waar kun je in jouw leven nu het best tijd aan besteden? Wat zou de perfecte tijdlijn zijn, waar ben je op dit moment bij gebaat, tijdens je laatste dag bij TED. CA: Dus als Facebook en Google ons zouden vragen:
CA: So if Facebook and Google and everyone said to us first up, "Hey, would you like us to optimize for your reflective brain or your lizard brain? You choose."
"Hey, wil je dat we je beschouwende brein verbeteren of je oerbrein? Kies maar."
TH: Right. That would be one way. Yes.
TH: Precies. Dat zou een manier zijn, ja.
CA: You said persuadability, that's an interesting word to me because to me there's two different types of persuadability. There's the persuadability that we're trying right now of reason and thinking and making an argument, but I think you're almost talking about a different kind, a more visceral type of persuadability, of being persuaded without even knowing that you're thinking.
CA: Je zei overreedbaarheid, dat is een interessant woord, want volgens mij zijn er twee soorten overreedbaarheid. Er is de overreedbaarheid die we nu toepassen, van redeneren, denken en debatteren. Maar ik denk dat je bijna over een andere soort praat, een meer instinctieve soort, van overreed worden zonder te weten dat je nadenkt.
TH: Exactly. The reason I care about this problem so much is I studied at a lab called the Persuasive Technology Lab at Stanford that taught [students how to recognize] exactly these techniques. There's conferences and workshops that teach people all these covert ways of getting people's attention and orchestrating people's lives. And it's because most people don't know that that exists that this conversation is so important.
TH: Exact. De reden dat ik zo veel om dit probleem geef, is dat ik studeerde in het Persuasive Technology Lab op Stanford dat studenten exact deze technieken leerde. Er zijn conferenties en workshops die mensen al deze listige manieren leren om de aandacht van mensen te krijgen en hun leven te manipuleren. En het is omdat de meesten niet weten dat dat bestaat dat deze conversatie zo belangrijk is.
CA: Tristan, you and I, we both know so many people from all these companies. There are actually many here in the room, and I don't know about you, but my experience of them is that there is no shortage of good intent. People want a better world. They are actually -- they really want it. And I don't think anything you're saying is that these are evil people. It's a system where there's these unintended consequences that have really got out of control --
CA: Tristan, jij en ik kennen beiden zo veel mensen van deze bedrijven. Er zijn er zelfs veel hier aanwezig. Ik weet niet wat jij denkt, maar mijn ervaring is dat er geen tekort is aan goede wil. Mensen willen een betere wereld. Ze zijn eigenlijk - ze willen het echt. Ik denk niet dat je wil zeggen dat dit kwaadwillige mensen zijn. Het is een systeem dat ongewilde consequenties heeft die uit de hand zijn gelopen.
TH: Of this race for attention. It's the classic race to the bottom when you have to get attention, and it's so tense. The only way to get more is to go lower on the brain stem, to go lower into outrage, to go lower into emotion, to go lower into the lizard brain.
TH: Ja, de strijd om de aandacht. Het is de klassieke race naar de bodem wanneer je aandacht wil hebben en het is zo gespannen. De enige manier om meer te krijgen is lager op de hersenstam gaan, lager naar woede, lager naar emotie, lager in het oerbrein.
CA: Well, thank you so much for helping us all get a little bit wiser about this.
CA: Heel erg bedankt om ons hierover iets wijzer te maken.
Tristan Harris, thank you. TH: Thank you very much.
Tristan Harris, dank je. TH: Dank je.
(Applause)
(Applaus)