I want you to imagine walking into a room, a control room with a bunch of people, a hundred people, hunched over a desk with little dials, and that that control room will shape the thoughts and feelings of a billion people. This might sound like science fiction, but this actually exists right now, today.
Voglio che immaginiate di entrare in una stanza, una sala di controllo con delle persone, un centinaio di persone, curve su scrivanie con dei tasti e che quella sala di controllo darà forma ai pensieri e sentimenti di un miliardo di persone. Può sembrare fantascienza, ma invece esiste davvero proprio ora, oggi.
I know because I used to be in one of those control rooms. I was a design ethicist at Google, where I studied how do you ethically steer people's thoughts? Because what we don't talk about is how the handful of people working at a handful of technology companies through their choices will steer what a billion people are thinking today. Because when you pull out your phone and they design how this works or what's on the feed, it's scheduling little blocks of time in our minds. If you see a notification, it schedules you to have thoughts that maybe you didn't intend to have. If you swipe over that notification, it schedules you into spending a little bit of time getting sucked into something that maybe you didn't intend to get sucked into. When we talk about technology, we tend to talk about it as this blue sky opportunity. It could go any direction. And I want to get serious for a moment and tell you why it's going in a very specific direction. Because it's not evolving randomly. There's a hidden goal driving the direction of all of the technology we make, and that goal is the race for our attention. Because every news site, TED, elections, politicians, games, even meditation apps have to compete for one thing, which is our attention, and there's only so much of it. And the best way to get people's attention is to know how someone's mind works. And there's a whole bunch of persuasive techniques that I learned in college at a lab called the Persuasive Technology Lab to get people's attention.
Lo so, perché ho frequentato una di quelle sale di controllo. Lavoravo all'etica della progettazione di Google, dove studiavo come manovrare in modo etico i pensieri delle persone. Perché ciò di cui non si parla è come una manciata di persone che lavorano in una manciata di aziende tecnologiche manovreranno con le loro scelte ciò che un miliardo di persone penserà oggi. Perché quando prendete il telefono, e loro progettano il funzionamento o cosa ci sarà nella bacheca, sta organizzando piccoli blocchi di tempo nella nostra mente. Se vedete una notifica, vi programma per avere pensieri che forse non intendevate avere. Se aprite quella notifica, vi fa passare del tempo assorbiti in qualcosa in cui forse non volevate essere assorbiti. Quando parliamo di tecnologia, di solito ne parliamo come una grande opportunità. Può andare in ogni direzione. E vorrei essere serio per un momento e dirvi perché sta andando in una direzione specifica. Perché non sta evolvendo a caso. C'è uno scopo nascosto alla direzione di tutta la tecnologia che creiamo e questo scopo è la corsa alla nostra attenzione. Perché ogni nuovo sito -- TED, le elezioni, i politici, i giochi, persino le app di meditazione, devono competere per una cosa, ovvero la nostra attenzione, che è limitata. E il miglior modo per avere attenzione dalla gente è sapere come funziona la mente. E ci sono diverse tecniche persuasive che ho imparato al college a un laboratorio di Tecnologia Persuasiva per avere l'attenzione della gente.
A simple example is YouTube. YouTube wants to maximize how much time you spend. And so what do they do? They autoplay the next video. And let's say that works really well. They're getting a little bit more of people's time. Well, if you're Netflix, you look at that and say, well, that's shrinking my market share, so I'm going to autoplay the next episode. But then if you're Facebook, you say, that's shrinking all of my market share, so now I have to autoplay all the videos in the newsfeed before waiting for you to click play. So the internet is not evolving at random. The reason it feels like it's sucking us in the way it is is because of this race for attention. We know where this is going. Technology is not neutral, and it becomes this race to the bottom of the brain stem of who can go lower to get it.
Un esempio semplice è YouTube. YouTube vuole massimizzare il tempo che trascorrete sul sito. E allora cosa fanno? Fanno partire in automatico il video successivo. E questa cosa funziona benissimo. Ottengono un po' di tempo in più dalle persone. Beh, se siete Netflix, lo osservate e dite, questo riduce la mia quota di mercato, farò partire in automatico il prossimo episodio. Ma poi se siete Facebook, direte, questo riduce la mia quota di mercato, devo abilitare l'autoplay su tutti i video in bacheca senza aspettare che li avviate voi. Quindi, internet non sta evolvendo a caso. Il motivo per cui sembra che ci assorba nel modo in cui lo fa, è a causa della corsa per l'attenzione. Sappiamo cosa sta succedendo. La tecnologia non è neutrale, e diventa questa gara verso la base del tronco cerebrale di chi riesce ad andare più in fondo.
Let me give you an example of Snapchat. If you didn't know, Snapchat is the number one way that teenagers in the United States communicate. So if you're like me, and you use text messages to communicate, Snapchat is that for teenagers, and there's, like, a hundred million of them that use it. And they invented a feature called Snapstreaks, which shows the number of days in a row that two people have communicated with each other. In other words, what they just did is they gave two people something they don't want to lose. Because if you're a teenager, and you have 150 days in a row, you don't want that to go away. And so think of the little blocks of time that that schedules in kids' minds. This isn't theoretical: when kids go on vacation, it's been shown they give their passwords to up to five other friends to keep their Snapstreaks going, even when they can't do it. And they have, like, 30 of these things, and so they have to get through taking photos of just pictures or walls or ceilings just to get through their day. So it's not even like they're having real conversations. We have a temptation to think about this as, oh, they're just using Snapchat the way we used to gossip on the telephone. It's probably OK. Well, what this misses is that in the 1970s, when you were just gossiping on the telephone, there wasn't a hundred engineers on the other side of the screen who knew exactly how your psychology worked and orchestrated you into a double bind with each other.
Prendiamo ad esempio Snapchat. In caso non lo sappiate, Snapchat è il modo più usato dai teenager americani per comunicare. Se siete come me, usate i messaggi di testo per comunicare, mentre i teenager usano Snapchat, e sono circa un centinaio di milioni di loro a usarlo. E hanno inventato una funzione - Snapstreaks - che mostra quanti giorni consecutivi due persone hanno comunicato l'una con l'altra. In altre parole, quello che hanno fatto è stato dare a due persone qualcosa che non vogliono perdere. Perché se siete un teenager e avete accumulato 150 giorni consecutivi non volete perderli. Pensate a quei piccoli blocchi di tempo programmati nella mente di un ragazzino. Non è teoria: quando i ragazzi vanno in vacanza, è dimostrato che danno la password fino a cinque dei loro amici per far continuare la Snapstreak, anche quando non possono farlo. E hanno, diciamo, 30 di queste cose, e così devono continuare a fare foto di quadri o muri o soffitti, solo per passare la giornata. Quindi non stanno nemmeno avendo conversazioni reali. Abbiamo la tentazione di pensare che, oh, stanno solo usando Snapchat come noi facevamo chiacchiere al telefono. Probabilmente è tutto OK. Beh, ciò che sfugge è che negli anni 70, quando chiaccheravate al telefono, non c'erano cento ingegneri dall'altro lato dello schermo, conoscitori profondi della vostra psiche, a manovrarvi a doppio legame l'uno con l'altro.
Now, if this is making you feel a little bit of outrage, notice that that thought just comes over you. Outrage is a really good way also of getting your attention, because we don't choose outrage. It happens to us. And if you're the Facebook newsfeed, whether you'd want to or not, you actually benefit when there's outrage. Because outrage doesn't just schedule a reaction in emotional time, space, for you. We want to share that outrage with other people. So we want to hit share and say, "Can you believe the thing that they said?" And so outrage works really well at getting attention, such that if Facebook had a choice between showing you the outrage feed and a calm newsfeed, they would want to show you the outrage feed, not because someone consciously chose that, but because that worked better at getting your attention. And the newsfeed control room is not accountable to us. It's only accountable to maximizing attention. It's also accountable, because of the business model of advertising, for anybody who can pay the most to actually walk into the control room and say, "That group over there, I want to schedule these thoughts into their minds." So you can target, you can precisely target a lie directly to the people who are most susceptible. And because this is profitable, it's only going to get worse.
Ora, se questo vi suscita un po' di indignazione, notate che questa sensazione vi è appena arrivata. L'indignazione è un altro ottimo modo per avere la vostra attenzione, perché non la scegliamo. Ci succede. E se siete la bacheca di Facebook, che lo vogliate o no, avrete davvero un beneficio quando c'è indignazione. Perché l'indignazione non crea solo una reazione nel tempo o spazio emotivo, in voi. Vogliamo condividere l'indignazione con gli altri. Clicchiamo su "Condividi" e scriviamo "Riesci a credere a ciò che hanno detto?" E così l'indignazione funziona benissimo nell'ottenere l'attenzione, tanto che se Facebook potesse scegliere tra mostrarvi una bacheca di indignazione e una bacheca della calma, sceglierebbe di mostrarvi la prima, non perché la si sceglierebbe consciamente, ma perché funziona di più nell'ottenere la vostra attenzione. E la sala di controllo della bacheca non è responsabile per noi. È solo responsabile di massimizzare l'attenzione. È inoltre responsabile, a causa del modello commerciale pubblicitario, per chi può permettersi di pagare di più ed entrare in quella stanza e dire "Quel gruppo lì, voglio programmare questi pensieri nelle loro menti." Così potete veicolare una bugia in modo preciso direttamente in coloro che ne sono più sensibili. E poiché questo porta profitto, sarà sempre peggio.
So I'm here today because the costs are so obvious. I don't know a more urgent problem than this, because this problem is underneath all other problems. It's not just taking away our agency to spend our attention and live the lives that we want, it's changing the way that we have our conversations, it's changing our democracy, and it's changing our ability to have the conversations and relationships we want with each other. And it affects everyone, because a billion people have one of these in their pocket.
Quindi oggi sono qui perché il prezzo da pagare è ovvio. Non conosco problemi più urgenti di questo, perché questo problema è alla base di tutti gli altri problemi. Non si tratta solo di privarci della nostra capacità di usare la nostra attenzione e vivere la vita che vogliamo, sta cambiando il modo in cui facciamo conversazione, sta cambiando la nostra democrazia, e sta cambiando la nostra capacità di avere conversazioni e relazioni che vogliamo fra di noi. E ha degli effetti su ognuno di noi, perché un miliardo di persone ha uno di questi nelle proprie tasche.
So how do we fix this? We need to make three radical changes to technology and to our society. The first is we need to acknowledge that we are persuadable. Once you start understanding that your mind can be scheduled into having little thoughts or little blocks of time that you didn't choose, wouldn't we want to use that understanding and protect against the way that that happens? I think we need to see ourselves fundamentally in a new way. It's almost like a new period of human history, like the Enlightenment, but almost a kind of self-aware Enlightenment, that we can be persuaded, and there might be something we want to protect. The second is we need new models and accountability systems so that as the world gets better and more and more persuasive over time -- because it's only going to get more persuasive -- that the people in those control rooms are accountable and transparent to what we want. The only form of ethical persuasion that exists is when the goals of the persuader are aligned with the goals of the persuadee. And that involves questioning big things, like the business model of advertising. Lastly, we need a design renaissance, because once you have this view of human nature, that you can steer the timelines of a billion people -- just imagine, there's people who have some desire about what they want to do and what they want to be thinking and what they want to be feeling and how they want to be informed, and we're all just tugged into these other directions. And you have a billion people just tugged into all these different directions. Well, imagine an entire design renaissance that tried to orchestrate the exact and most empowering time-well-spent way for those timelines to happen. And that would involve two things: one would be protecting against the timelines that we don't want to be experiencing, the thoughts that we wouldn't want to be happening, so that when that ding happens, not having the ding that sends us away; and the second would be empowering us to live out the timeline that we want.
Quindi come lo risolviamo? Dobbiamo operare tre cambiamenti radicali alla tecnologia e alla società. Il primo è che dobbiamo ammettere che siamo persuadibili. Appena cominciate a capire che la vostra mente può essere programmata ad avere pensieri o piccoli blocchi di tempo che non avete scelto, non vorremmo usare questa conoscenza e proteggerci dal modo in cui questo accade? Credo che dovremmo guardarci in un modo fondamentalmente nuovo. È quasi come una nuova era della storia umana, come l'Illuminismo, ma un Illuminismo di consapevolezza di sé, del fatto che possiamo essere persuasi, e che può esistere qualcosa da proteggere. Il secondo è che abbiamo bisogno di nuovi modelli e di sistemi di responsabilità, così che, man mano che il mondo migliora e diventa sempre più persuasivo, perché diventerà sempre più persuasivo, la gente in quelle sale di controllo sia responsabile e trasparente su ciò che vogliamo. L'unica forma di persuasione etica che abbia senso si ha quando l'obiettivo di chi persuade si allinea con quello di chi viene persuaso. E ciò include mettere in discussione pilastri come il business pubblicitario. Infine, ci vuole una rinascita nella progettazione, perché una volta fatta vostra questa visione della natura umana, in cui si può manovrare la bacheca di un miliardo di persone, immaginate, ci sono persone che hanno qualche desiderio su quello che vogliono fare e cosa vogliono pensare e cosa vogliono sentire e come vogliono essere informate e veniamo tutti strattonati in queste altre direzioni. E avete un miliardo di persone tirate in tutt'altra direzione. Immaginate una rinascita della progettazione che cerchi di orchestrare con esattezza e consapevolezza il modo di trascorrere al meglio il tempo sulla timeline. Questo includerebbe due cose: una sarebbe la protezione dalle timeline che non vogliamo avere, dai pensieri che non vorremmo avere, così che quando arriva una notifica, essa non può distrarci; e la seconda sarebbe darci il potere di realizzare la bacheca che vogliamo.
So let me give you a concrete example. Today, let's say your friend cancels dinner on you, and you are feeling a little bit lonely. And so what do you do in that moment? You open up Facebook. And in that moment, the designers in the control room want to schedule exactly one thing, which is to maximize how much time you spend on the screen. Now, instead, imagine if those designers created a different timeline that was the easiest way, using all of their data, to actually help you get out with the people that you care about? Just think, alleviating all loneliness in society, if that was the timeline that Facebook wanted to make possible for people. Or imagine a different conversation. Let's say you wanted to post something supercontroversial on Facebook, which is a really important thing to be able to do, to talk about controversial topics. And right now, when there's that big comment box, it's almost asking you, what key do you want to type? In other words, it's scheduling a little timeline of things you're going to continue to do on the screen. And imagine instead that there was another button there saying, what would be most time well spent for you? And you click "host a dinner." And right there underneath the item it said, "Who wants to RSVP for the dinner?" And so you'd still have a conversation about something controversial, but you'd be having it in the most empowering place on your timeline, which would be at home that night with a bunch of a friends over to talk about it. So imagine we're running, like, a find and replace on all of the timelines that are currently steering us towards more and more screen time persuasively and replacing all of those timelines with what do we want in our lives.
Vi faccio un esempio concreto. Oggi un vostro amico disdice la cena con voi, e vi sentite un po' soli. Cosa fate in quel momento? Aprite Facebook. E in quel momento, i designer nella sala di controllo hanno programmato solo una cosa, ovvero massimizzare quanto tempo passate davanti allo schermo. Ora, invece, immaginate che quei designer creino una timeline diversa, sarebbe la cosa più facile, usando tutti i dati in loro possesso, per aiutarvi a uscire con le persone di cui vi importa di più. Pensate, alleviare tutta la solitudine della società, se quella fosse la timeline che Facebook volesse per le persone. O immaginate un'altra conversazione. Diciamo che volevate postare su Facebook qualcosa di molto controverso ed è una possibilità molto importante da possedere, parlare di argomenti controversi. E ora, quando c'è quel grande box coi commenti, è quasi come se vi chiedesse, che tasto volete premere? Cioè sta programmando una piccola sequenza di cose che continuerai a fare sullo schermo. E immaginate invece che ci sia un altro tasto che dice, in che modo spenderesti meglio il tuo tempo? E premete "avere ospiti a cena". E sotto quell'elemento dicesse, "Chi vuole rispondere all'invito?" Avreste lo stesso una conversazione su qualcosa di controverso, ma la avreste nel punto della timeline che vi darebbe maggior forza, ovvero a casa, quella sera, con un gruppo di amici per parlarne. Immaginiamo di usare una sorta di trova e sostituisci su tutte quelle timeline che ci stanno spingendo a stare sempre più tempo lì dentro, in modo persuasivo e a sostituirle con ciò che vogliamo nelle nostra vita.
It doesn't have to be this way. Instead of handicapping our attention, imagine if we used all of this data and all of this power and this new view of human nature to give us a superhuman ability to focus and a superhuman ability to put our attention to what we cared about and a superhuman ability to have the conversations that we need to have for democracy. The most complex challenges in the world require not just us to use our attention individually. They require us to use our attention and coordinate it together. Climate change is going to require that a lot of people are being able to coordinate their attention in the most empowering way together. And imagine creating a superhuman ability to do that.
Non deve andare così. Invece di svantaggiare la nostra attenzione, immaginate se usassimo tutti i dati e tutto questo potere e questa nuova visione dell'umanità per darci un'abilità sovrumana nel concentrarci e nel porre l'attenzione su ciò che ci sta a cuore e un'abilità sovrumana di avere le conversazioni di cui abbiamo bisogno per la democrazia. Le sfide più complesse al mondo non richiedono solo l'uso della nostra attenzione individuale. Richiedono di usare la nostra attenzione e coordinarla insieme. Il cambiamento climatico necessita che molte persone siano capaci di coordinare la loro attenzione insieme nel modo più consapevole. E immaginate poter creare una capacità sovrumana per farlo.
Sometimes the world's most pressing and important problems are not these hypothetical future things that we could create in the future. Sometimes the most pressing problems are the ones that are right underneath our noses, the things that are already directing a billion people's thoughts. And maybe instead of getting excited about the new augmented reality and virtual reality and these cool things that could happen, which are going to be susceptible to the same race for attention, if we could fix the race for attention on the thing that's already in a billion people's pockets. Maybe instead of getting excited about the most exciting new cool fancy education apps, we could fix the way kids' minds are getting manipulated into sending empty messages back and forth.
Alcune volte i problemi più urgenti e più importanti del mondo non sono queste cose ipotetiche che potremmo creare in futuro. A volte i problemi più urgenti sono quelli che abbiamo sotto i nostri occhi, le cose che già dirigono i pensieri di un miliardo di persone. E forse, invece di esaltarci per la nuova realtà aumentata e la realtà virtuale e queste cose fighe che potrebbero accadere, che parteciperanno alla stessa gara per la nostra attenzione, se potessimo fissare la gara per l'attenzione su ciò che c'è già nelle tasche di un miliardo di persone. Forse, invece di esaltarci per le app educative più recenti e alla moda, potremmo salvare i ragazzi dalle manipolazioni che li spingono a inviare messaggi vuoti avanti e indietro.
(Applause)
(Applausi)
Maybe instead of worrying about hypothetical future runaway artificial intelligences that are maximizing for one goal, we could solve the runaway artificial intelligence that already exists right now, which are these newsfeeds maximizing for one thing. It's almost like instead of running away to colonize new planets, we could fix the one that we're already on.
Forse invece di preoccuparci di ipotetiche future intelligenze artificiali impazzite che si stanno massimizzando per uno scopo, potremmo risolvere l'intelligenza artificiale impazzita che già esiste proprio ora, ovvero le attuali bacheche ottimizzate con un solo obiettivo. È quasi come se invece di andare a colonizzare nuovi pianeti, potessimo aggiustare quello su cui siamo.
(Applause)
(Applausi)
Solving this problem is critical infrastructure for solving every other problem. There's nothing in your life or in our collective problems that does not require our ability to put our attention where we care about. At the end of our lives, all we have is our attention and our time. What will be time well spent for ours?
Risolvere questo problema è l'infrastruttura critica per risolvere tutti gli altri problemi. Non c'è niente nella vostra vita o nei nostri problemi collettivi che non necessiti dell'abilità di concentrarci sulle cose a cui teniamo. Alla fine, nella vita, tutto ciò che abbiamo è l'attenzione e il nostro tempo. Qual è il tempo speso meglio per la nostra?
Thank you.
Grazie.
(Applause)
(Applausi)
Chris Anderson: Tristan, thank you. Hey, stay up here a sec. First of all, thank you. I know we asked you to do this talk on pretty short notice, and you've had quite a stressful week getting this thing together, so thank you. Some people listening might say, what you complain about is addiction, and all these people doing this stuff, for them it's actually interesting. All these design decisions have built user content that is fantastically interesting. The world's more interesting than it ever has been. What's wrong with that?
Chris Anderson: Tristan, grazie. Rimani qui un attimo. Prima di tutto, grazie. So che ti abbiamo chiesto di essere qui con poco preavviso, e hai avuto una settimana difficile per prepararti, ancora grazie. Alcune persone in ascolto potrebbero dire che ti stai lamentando della dipendenza, e tutte queste persone coinvolte, per loro è interessante. Queste decisioni sul design hanno costruito contenuti incredibilmente interessanti. Il mondo non è mai stato così interessante. Cosa c'è di male?
Tristan Harris: I think it's really interesting. One way to see this is if you're just YouTube, for example, you want to always show the more interesting next video. You want to get better and better at suggesting that next video, but even if you could propose the perfect next video that everyone would want to watch, it would just be better and better at keeping you hooked on the screen. So what's missing in that equation is figuring out what our boundaries would be. You would want YouTube to know something about, say, falling asleep. The CEO of Netflix recently said, "our biggest competitors are Facebook, YouTube and sleep." And so what we need to recognize is that the human architecture is limited and that we have certain boundaries or dimensions of our lives that we want to be honored and respected, and technology could help do that.
Tristan Harris: Credo sia davvero interessante. Un modo per vederlo è se fossi YouTube per esempio, vorresti far vedere video sempre più interessanti. Vorresti migliorare sempre più nel suggerire il video successivo, ma anche se potessi proporre il video perfetto, che tutti vorrebbero guardare, sarebbe solo un miglioramento nel tenerci davanti allo schermo. Quello che manca all'equazione è capire quali siano i nostri confini. Vorresti che YouTube sapesse qualcosa su, diciamo, l'addormentarsi. Il CEO di Netflix ha detto, "i nostri grandi rivali sono Facebook, YouTube e il sonno" E così quello che dobbiamo riconoscere è che l' "architettura umana" ha dei limiti e che ci sono dei confini o dimensioni della nostra vita che vogliamo siano onorate e rispettate e qui la tecnologia può aiutarci.
(Applause)
(Applausi)
CA: I mean, could you make the case that part of the problem here is that we've got a naïve model of human nature? So much of this is justified in terms of human preference, where we've got these algorithms that do an amazing job of optimizing for human preference, but which preference? There's the preferences of things that we really care about when we think about them versus the preferences of what we just instinctively click on. If we could implant that more nuanced view of human nature in every design, would that be a step forward?
CA: Si potrebbe dire che parte del problema è che abbiamo un modello ingenuo della natura umana? Questo viene giustificato in termini di preferenza umana, e ci sono questi algoritmi che fanno un gran lavoro per ottimizzare le preferenze, ma quali preferenze? Ci sono le preferenze perciò che ci interessa davvero quando ci pensiamo, rispetto alle preferenze di ciò su cui clicchiamo per istinto. Potessimo porre in ogni progetto quella versione più sfumata della natura umana, non sarebbe un passo avanti?
TH: Absolutely. I mean, I think right now it's as if all of our technology is basically only asking our lizard brain what's the best way to just impulsively get you to do the next tiniest thing with your time, instead of asking you in your life what we would be most time well spent for you? What would be the perfect timeline that might include something later, would be time well spent for you here at TED in your last day here?
TH: Certamente. Credo che adesso sia come se tutta la tecnologia stesse chiedendo al nostro istinto qual è il miglior modo di farti fare d'impulso la prossima piccola cosa con il tuo tempo, invece di chiederti nella tua vita quale sarebbe il tempo meglio speso per te? Quale sarebbe la timeline perfetta che potrebbe suggerire cose, sarebbe tempo ben speso per te qui a TED durante l'ultimo giorno?
CA: So if Facebook and Google and everyone said to us first up, "Hey, would you like us to optimize for your reflective brain or your lizard brain? You choose."
CA: Così se Facebook e Google e gli altri ci dicessero subito "Hey, vuoi che ottimizziamo per la tua parte riflessiva o per quella istintiva? Scegli!"
TH: Right. That would be one way. Yes.
TH: Giusto, potrebbe essere un modo. Sì.
CA: You said persuadability, that's an interesting word to me because to me there's two different types of persuadability. There's the persuadability that we're trying right now of reason and thinking and making an argument, but I think you're almost talking about a different kind, a more visceral type of persuadability, of being persuaded without even knowing that you're thinking.
CA: Hai detto persuadibilità, una parola interessante per me, perché secondo me ci sono due tipi di persuadibilità. Quella che stiamo provando adesso, di ragione, pensiero e argomentazione, ma credo tu ti riferisca a un altro tipo, un tipo di persuadibilità più viscerale, di essere persuaso senza sapere nemmeno che stai pensando.
TH: Exactly. The reason I care about this problem so much is I studied at a lab called the Persuasive Technology Lab at Stanford that taught [students how to recognize] exactly these techniques. There's conferences and workshops that teach people all these covert ways of getting people's attention and orchestrating people's lives. And it's because most people don't know that that exists that this conversation is so important.
TH: Esatto. Il motivo per cui ho a cuore questo problema è che ho studiato al Laboratorio di Tecnologia Persuasiva a Stanford che insegna a riconoscere queste tecniche. Ci sono conferenze e workshop che insegnano tutti questi modi segreti per avere l'attenzione della gente e orchestrare le loro vite. Ed è proprio perché la gente non sa che ciò esiste che questa discussione è così importante.
CA: Tristan, you and I, we both know so many people from all these companies. There are actually many here in the room, and I don't know about you, but my experience of them is that there is no shortage of good intent. People want a better world. They are actually -- they really want it. And I don't think anything you're saying is that these are evil people. It's a system where there's these unintended consequences that have really got out of control --
CA: Tristan, tu ed io conosciamo molte persone di queste aziende. Molti sono qui in questa stanza, e non so cosa pensi, ma la mia esperienza con loro è che non manca la buona volontà. Le persone vogliono un mondo migliore. Lo vogliono davvero. E non credo che tu stia dicendo che queste persone siano malvagie. È un sistema con conseguenze impreviste che è davvero andato fuori controllo.
TH: Of this race for attention. It's the classic race to the bottom when you have to get attention, and it's so tense. The only way to get more is to go lower on the brain stem, to go lower into outrage, to go lower into emotion, to go lower into the lizard brain.
TH: La corsa per l'attenzione. È una tipica corsa al ribasso quando devi ottenere attenzione, ed è così intensa. L'unico modo per avere di più è di scendere sempre più giù, giù verso l'indignazione, verso l'emozione, giù verso gli impulsi istintivi.
CA: Well, thank you so much for helping us all get a little bit wiser about this.
CA: Bene, grazie molte per averci reso un po' più saggi.
Tristan Harris, thank you. TH: Thank you very much.
Tristan Harris, grazie. TH: Grazie.
(Applause)