I want you to imagine walking into a room, a control room with a bunch of people, a hundred people, hunched over a desk with little dials, and that that control room will shape the thoughts and feelings of a billion people. This might sound like science fiction, but this actually exists right now, today.
想像してください ある部屋に入っていくと そこは大勢が働くコントロール室です 小さなダイヤルの並んだ 制御卓に向かう100人の人がいて そのコントロール室が 10億人の思考と感情を 形作っています SF みたいな話ですが これは いま現在の 本当の話なのです
I know because I used to be in one of those control rooms. I was a design ethicist at Google, where I studied how do you ethically steer people's thoughts? Because what we don't talk about is how the handful of people working at a handful of technology companies through their choices will steer what a billion people are thinking today. Because when you pull out your phone and they design how this works or what's on the feed, it's scheduling little blocks of time in our minds. If you see a notification, it schedules you to have thoughts that maybe you didn't intend to have. If you swipe over that notification, it schedules you into spending a little bit of time getting sucked into something that maybe you didn't intend to get sucked into. When we talk about technology, we tend to talk about it as this blue sky opportunity. It could go any direction. And I want to get serious for a moment and tell you why it's going in a very specific direction. Because it's not evolving randomly. There's a hidden goal driving the direction of all of the technology we make, and that goal is the race for our attention. Because every news site, TED, elections, politicians, games, even meditation apps have to compete for one thing, which is our attention, and there's only so much of it. And the best way to get people's attention is to know how someone's mind works. And there's a whole bunch of persuasive techniques that I learned in college at a lab called the Persuasive Technology Lab to get people's attention.
こう言えるのは 私自身が そんなコントロール室にいたからです 私は Google で設計倫理を担当し いかに倫理的に人の思考を操作できるかを 研究していました 一握りのテック企業で働く 一握りの人による選択によって 10億の人が考えることが どれほど左右されるかは語られていません 携帯を手にしたときの挙動や 表示される内容は設計されたもので 意識の中で ある一定の時間を占有します 通知を目にすると 考えようとも思っていなかったことを 考えるよう仕向けられます 通知をスワイプしたら 関わるつもりもなかったことに ちょっとした時間を 吸い取られることになります テクノロジーと言えば 無限の可能性ばかりが語られます どんな方向にも進めるのだと でも 少しきちんと見てみると なぜ テクノロジーが 特定の方向に進むのかが分かります 進化はランダムではないのです 我々の作るテクノロジー全ては ある隠れた目標に向かっています その目標とは 「注意」の獲得です どのニュースサイトも TEDも 選挙も 政治家も ゲームも 瞑想アプリだって 獲得しなければならないあるもの― それは 私たちの「注意」です 注意とはそれほどのものなのです 人々の注意をできるだけ集めたいなら 人の心の仕組みを知ることです 人を操る技術には多様な種類があり 私は大学の Persuasive Technology 研究室で 「注意」をひく技術を学びました
A simple example is YouTube. YouTube wants to maximize how much time you spend. And so what do they do? They autoplay the next video. And let's say that works really well. They're getting a little bit more of people's time. Well, if you're Netflix, you look at that and say, well, that's shrinking my market share, so I'm going to autoplay the next episode. But then if you're Facebook, you say, that's shrinking all of my market share, so now I have to autoplay all the videos in the newsfeed before waiting for you to click play. So the internet is not evolving at random. The reason it feels like it's sucking us in the way it is is because of this race for attention. We know where this is going. Technology is not neutral, and it becomes this race to the bottom of the brain stem of who can go lower to get it.
簡単な例は YouTube です YouTube は視聴時間が できるだけ長くなるようにします それで何をするかといえば 次のビデオを自動再生するのです それが とても有効だったら YouTube は時間を もう少し獲得できます では Netflix は それを見てどう考えるか これは 我が社のシェアを低下させる こちらも次のエピソードを 自動再生してやろう すると Facebook は 自分のマーケットシェアが どんどん減っていくから ニュースフィードのビデオは全部 再生ボタンを押さなくても 自動再生してしまおう そう インターネットは ランダムに進化してはいないのです 私たちが 今のインターネットに 飲み込まれそうに感じるのは この「注意」獲得競争のせいです その行く末も見えています テクノロジーは中立ではありません 脳幹の奥底を目指す競争― 誰が一番奥まで進めるか という競争になっています
Let me give you an example of Snapchat. If you didn't know, Snapchat is the number one way that teenagers in the United States communicate. So if you're like me, and you use text messages to communicate, Snapchat is that for teenagers, and there's, like, a hundred million of them that use it. And they invented a feature called Snapstreaks, which shows the number of days in a row that two people have communicated with each other. In other words, what they just did is they gave two people something they don't want to lose. Because if you're a teenager, and you have 150 days in a row, you don't want that to go away. And so think of the little blocks of time that that schedules in kids' minds. This isn't theoretical: when kids go on vacation, it's been shown they give their passwords to up to five other friends to keep their Snapstreaks going, even when they can't do it. And they have, like, 30 of these things, and so they have to get through taking photos of just pictures or walls or ceilings just to get through their day. So it's not even like they're having real conversations. We have a temptation to think about this as, oh, they're just using Snapchat the way we used to gossip on the telephone. It's probably OK. Well, what this misses is that in the 1970s, when you were just gossiping on the telephone, there wasn't a hundred engineers on the other side of the screen who knew exactly how your psychology worked and orchestrated you into a double bind with each other.
Snapchat を例にとりましょう 実は Snapchat は アメリカの ティーンの間ではナンバー1の コミュニケーション手段になっています 私たちが メッセージ機能で 連絡を取るように ティーンは Snapchat で連絡します 利用者は1億人ぐらいいます そしてストリークという機能が 考案されました これは2人のやりとりが 何日の間 連続したかを示すものです 言い換えれば こうして 2人の間に 失いたくない何かを 作り出して与えたのです ティーンの若者なら 150日連続という記録があれば それを ふいにしたくないので そのために少し時間を割くことが 意識に刷りこまれます 想定ではなく実例として 家族で休暇に出かける間 自分ではやりとりできないときにも ストリークを維持しようとして 多い場合には5人もの相手に 自分のパスワードを 伝えていることが 明らかになっています ストリークが 30くらいはあるので それをただ続けるためだけに 毎日 壁や天井の写真を撮ったりもします 実際の会話とは 似ても似つかないものです 我々 大人たちは こう考えます 若者の Snapchat は たぶん 自分たちが電話で 無駄話してたようなもので 問題ないはずだ と ただ 見逃されているのは 皆さんが電話で無駄話していた 1970 年代には 画面の背後に控える100人の技術者が 人の心理の働きを理解した上で 互いに束縛し合うよう仕向けては いなかったということです
Now, if this is making you feel a little bit of outrage, notice that that thought just comes over you. Outrage is a really good way also of getting your attention, because we don't choose outrage. It happens to us. And if you're the Facebook newsfeed, whether you'd want to or not, you actually benefit when there's outrage. Because outrage doesn't just schedule a reaction in emotional time, space, for you. We want to share that outrage with other people. So we want to hit share and say, "Can you believe the thing that they said?" And so outrage works really well at getting attention, such that if Facebook had a choice between showing you the outrage feed and a calm newsfeed, they would want to show you the outrage feed, not because someone consciously chose that, but because that worked better at getting your attention. And the newsfeed control room is not accountable to us. It's only accountable to maximizing attention. It's also accountable, because of the business model of advertising, for anybody who can pay the most to actually walk into the control room and say, "That group over there, I want to schedule these thoughts into their minds." So you can target, you can precisely target a lie directly to the people who are most susceptible. And because this is profitable, it's only going to get worse.
この話で少々怒りを覚えたとしたら その怒りが急にやってきたことに 注目してください 怒りも「注意」を獲得する上で とても上手い方法なのです 怒りは選択するものではなく 生じるものです Facebook が望もうが望むまいが 「怒り」はニュースフィードにとって メリットがあります 怒りに対する反応によって みなさんの時間と空間を 獲得できるだけではありません 生じた怒りは 他の人に伝えたくなります 「シェアする」をクリックして 「こんな話 信じられる?」と書きます 「注意」を集める上では怒りは このように効果的なので Facebook が 怒りのフィードと 穏やかなフィードとで選ぶとしたら 誰かが意図的に選んだからではなく 注意を獲得する上で より有効だという理由で 怒りのフィードを 見せようとすることでしょう ニュースフィードのコントロール室が 何をしているか我々には開示されません 最大限の注意を獲得することだけが 考慮されます また 広告のビジネスモデルなので コントロール室に乗り込んだ顧客が 多額のお金を支払うならば 「そこのグループに向けて これこれの考えを送り届けてくれ」と 依頼できます ターゲットを絞った上で もっとも影響されやすい人たちに 嘘を送り届けられるのです これが営利事業なので 事態はさらに悪くなります
So I'm here today because the costs are so obvious. I don't know a more urgent problem than this, because this problem is underneath all other problems. It's not just taking away our agency to spend our attention and live the lives that we want, it's changing the way that we have our conversations, it's changing our democracy, and it's changing our ability to have the conversations and relationships we want with each other. And it affects everyone, because a billion people have one of these in their pocket.
私が今日この話をしているのは 何が犠牲になっているか 明白だからです これ以上に緊急の問題を 私は知りません 全ての問題の背後には この問題があります 私たちが何に注意を向けるか どんな人生を望むかを決める― 主体性が妨げられるだけでなく 私たちの間の会話を変質させ 私たちの民主主義を変質させ 互いに会話をして望ましい関係を 築く能力も変質させつつあります これは あらゆる人に影響します 10億人がポケットに 携帯を持っているのですから
So how do we fix this? We need to make three radical changes to technology and to our society. The first is we need to acknowledge that we are persuadable. Once you start understanding that your mind can be scheduled into having little thoughts or little blocks of time that you didn't choose, wouldn't we want to use that understanding and protect against the way that that happens? I think we need to see ourselves fundamentally in a new way. It's almost like a new period of human history, like the Enlightenment, but almost a kind of self-aware Enlightenment, that we can be persuaded, and there might be something we want to protect. The second is we need new models and accountability systems so that as the world gets better and more and more persuasive over time -- because it's only going to get more persuasive -- that the people in those control rooms are accountable and transparent to what we want. The only form of ethical persuasion that exists is when the goals of the persuader are aligned with the goals of the persuadee. And that involves questioning big things, like the business model of advertising. Lastly, we need a design renaissance, because once you have this view of human nature, that you can steer the timelines of a billion people -- just imagine, there's people who have some desire about what they want to do and what they want to be thinking and what they want to be feeling and how they want to be informed, and we're all just tugged into these other directions. And you have a billion people just tugged into all these different directions. Well, imagine an entire design renaissance that tried to orchestrate the exact and most empowering time-well-spent way for those timelines to happen. And that would involve two things: one would be protecting against the timelines that we don't want to be experiencing, the thoughts that we wouldn't want to be happening, so that when that ding happens, not having the ding that sends us away; and the second would be empowering us to live out the timeline that we want.
これに どう対処できるでしょうか? テクノロジーと社会について 3つの根本的な変化が必要です まず第一に 私たちは容易に操られうるのだと 認識する必要があります 自分で選ばなくても 心に小さな考えを受け入れたり 少しの時間を割り当ててしまうのです そう理解することで そんな状況を 回避することは できないものでしょうか 自分たちを まったく違った見方で 捉える必要があると思います 人類の歴史における まったく新しい時代のようなものです 啓蒙時代と似ていますが ただ 自己認識についての啓蒙時代として 自分は操られうる存在であり それから守りたいものがあると 認識する時代です 第二に 新しいモデルと 説明のシステムが必要です 世界が良くなり さらに人が操られるようになるにつれ― これからますます 操られるようになります― コントロール室にいる人たちが 私たちの求めるものに責任を負い 透明性を保つシステムです 倫理的に人を操ることが許されるのは 操る人と操られる人とが 同じゴールを目指しているときだけです 広告のビジネスモデル等の大前提に 疑問を呈することになる論点です 最後に デザインにはルネサンスが必要です このように人の性質を理解し 10億人のタイムラインが操られていると 分かってみると 人々に何をさせたいとか 何を考えさせたいとか 何を感じさせたいとか どう情報を伝えたいといった 欲望を持つ人の意図によって 我々は見当違いの方向に 引き寄せられているわけです 10億人の人が見当違いな方向に 引き寄せられています デザインの根底からのルネサンスによって 的確で もっとも力づけられるような 時間の有効な使い方を 10億人のタイムラインに 提供することを目指すとしたらどうでしょう 2つのことが伴うはずです 1つは経験したくないタイムラインや 考えたくないことが 発生しないように保護することです 突発事項などで 注意をそらされないようにします 2つ目は 自らが望むタイムラインで ずっと過ごせるよう力を与えることです
So let me give you a concrete example. Today, let's say your friend cancels dinner on you, and you are feeling a little bit lonely. And so what do you do in that moment? You open up Facebook. And in that moment, the designers in the control room want to schedule exactly one thing, which is to maximize how much time you spend on the screen. Now, instead, imagine if those designers created a different timeline that was the easiest way, using all of their data, to actually help you get out with the people that you care about? Just think, alleviating all loneliness in society, if that was the timeline that Facebook wanted to make possible for people. Or imagine a different conversation. Let's say you wanted to post something supercontroversial on Facebook, which is a really important thing to be able to do, to talk about controversial topics. And right now, when there's that big comment box, it's almost asking you, what key do you want to type? In other words, it's scheduling a little timeline of things you're going to continue to do on the screen. And imagine instead that there was another button there saying, what would be most time well spent for you? And you click "host a dinner." And right there underneath the item it said, "Who wants to RSVP for the dinner?" And so you'd still have a conversation about something controversial, but you'd be having it in the most empowering place on your timeline, which would be at home that night with a bunch of a friends over to talk about it. So imagine we're running, like, a find and replace on all of the timelines that are currently steering us towards more and more screen time persuasively and replacing all of those timelines with what do we want in our lives.
具体的な例を示しましょう 今日 友達との夕食の約束が キャンセルされて 少し寂しい気分になったとしましょう そうしたら何をしますか? Facebook を開きます その瞬間に コントロール室のデザイナーが させたいことは ただ一つ その画面で過ごす時間を 最大限 長引かせることです さて そうではなく デザイナーが 別のタイムラインを創って― 彼らの保持するデータを使えば 容易なことですが― あなたが大事な人たちと出かけるのを 支援するのはどうでしょう 考えてみてください 社会における寂しさを和らげることを Facebook がタイムラインを通じて 成しとげようとしているとしたらどうか また 別の例を考えましょう 何か極めて議論を呼びそうな内容を Facebook に投稿したいとします それを実行できることも 議論を呼ぶ内容を語れることも 大変重要なことです 今でも大きなコメント欄がありますが あたかも「何を入力しますか」と 尋ねているかのようです 言い換えれば その会話を 画面上で続けるように仕向けるのです もし その代わりに こんなボタンがあったらどうでしょう 「どんな時間の過ごし方を希望しますか?」 「夕食会を開催」をクリックすると その下に表示されるのが 「夕食会を開催」をクリックすると その下に表示されるのが 「誰か夕食会に来ない?」だったら? そうすれば 何か議論を呼ぶ会話が できるという点は同じですが 人生のタイムラインの中でも もっとも力づけられる場所が舞台となります つまり その晩自宅に 友達が何人も集まって その話をするという展開です 今のタイムライン全体に 「検索と置換」を行って 画面の前で過ごす時間を ますます長引かせようとするタイムラインを 我々が人生に真に望む事柄に 置き換えることができたらどうでしょう
It doesn't have to be this way. Instead of handicapping our attention, imagine if we used all of this data and all of this power and this new view of human nature to give us a superhuman ability to focus and a superhuman ability to put our attention to what we cared about and a superhuman ability to have the conversations that we need to have for democracy. The most complex challenges in the world require not just us to use our attention individually. They require us to use our attention and coordinate it together. Climate change is going to require that a lot of people are being able to coordinate their attention in the most empowering way together. And imagine creating a superhuman ability to do that.
現状は変えられるはずです 私たちの「注意」の 足をひっぱるのではなく あらゆるデータと 全ての力と 人の性質についての新しい理解を用いて 超人的な集中力や 本当に気にかけている事柄に 注意を向ける超人的な能力や 民主主義のために 必要となる対話を持つための 超人的能力を 手にできるとしたらどうでしょう 世界のもっとも複雑な課題の数々に 立ち向かうには 個々が注意を向けるだけでは不十分です そういった課題には 我々の注意を 協調して向けなければなりません 地球温暖化には 多くの人々が もっとも力を発揮できるような形で 共に注意を向けることが必要でしょう それを可能にする超人的能力を 作り出すことを考えてみてください
Sometimes the world's most pressing and important problems are not these hypothetical future things that we could create in the future. Sometimes the most pressing problems are the ones that are right underneath our noses, the things that are already directing a billion people's thoughts. And maybe instead of getting excited about the new augmented reality and virtual reality and these cool things that could happen, which are going to be susceptible to the same race for attention, if we could fix the race for attention on the thing that's already in a billion people's pockets. Maybe instead of getting excited about the most exciting new cool fancy education apps, we could fix the way kids' minds are getting manipulated into sending empty messages back and forth.
あるいは 世界の最重要かつ喫緊の課題は 今はまだ想定だけの これから 生じるべき問題ではないかもしれません もっとも差し迫っている問題は 目と鼻の先にあるもので すでに10億人の人間の思考を 方向付けているものかもしれないのです 新しい拡張現実や仮想現実や これから実現するかもしれない 素敵な何かに夢中になっても 今と同じ 注意をめぐる競争に 振り回されるのがおちでしょう でも すでに10億人の ポケットにある物における― 注意をめぐる競争を 変えられたらどうでしょう もしかすると 素晴らしく良くできた新しい 教育アプリに夢中になるよりも 若者の心が操られて 中身のないやりとりを続ける状況を 変えられたらどうでしょう
(Applause)
(拍手)
Maybe instead of worrying about hypothetical future runaway artificial intelligences that are maximizing for one goal, we could solve the runaway artificial intelligence that already exists right now, which are these newsfeeds maximizing for one thing. It's almost like instead of running away to colonize new planets, we could fix the one that we're already on.
ある目標を追求するあまりに AIが暴走する未来の可能性を 恐れる代わりに AIの暴走によって すでに生じている問題を 解決してはどうでしょうか ひとつの目的に最適化した ニュースフィードが まさにそれです 地球を捨てて 新しい惑星に植民する代わりに 今いる惑星を修繕するようなものです
(Applause)
(拍手)
Solving this problem is critical infrastructure for solving every other problem. There's nothing in your life or in our collective problems that does not require our ability to put our attention where we care about. At the end of our lives, all we have is our attention and our time. What will be time well spent for ours?
この問題を解決することは その他のあらゆる問題を解決するために 欠くことのできない基盤となります みなさんの人生や 集団としての問題において 気にかけるものに注意を払う能力を 必要としないものはありません 突き詰めれば 人生には 注意と時間しかないのです その時間を何に使うのが有効でしょうか
Thank you.
ありがとうございました
(Applause)
(拍手)
Chris Anderson: Tristan, thank you. Hey, stay up here a sec. First of all, thank you. I know we asked you to do this talk on pretty short notice, and you've had quite a stressful week getting this thing together, so thank you. Some people listening might say, what you complain about is addiction, and all these people doing this stuff, for them it's actually interesting. All these design decisions have built user content that is fantastically interesting. The world's more interesting than it ever has been. What's wrong with that?
(クリス・アンダーソン)トリスタン ありがとう 少し残ってください まずは お礼を言います このトークは 直前にお願いしたので 話をまとめるために 大変な一週間を過ごしたことでしょう ここで問題とされたのは 依存症であり 仕掛けは 実に面白いじゃないかという 見解もあるでしょう デザイン上の意思決定によって すばらしく興味深いユーザーコンテンツが 生まれているのも面白い 世界はいまだかつてなく面白い 何が問題なんだ と
Tristan Harris: I think it's really interesting. One way to see this is if you're just YouTube, for example, you want to always show the more interesting next video. You want to get better and better at suggesting that next video, but even if you could propose the perfect next video that everyone would want to watch, it would just be better and better at keeping you hooked on the screen. So what's missing in that equation is figuring out what our boundaries would be. You would want YouTube to know something about, say, falling asleep. The CEO of Netflix recently said, "our biggest competitors are Facebook, YouTube and sleep." And so what we need to recognize is that the human architecture is limited and that we have certain boundaries or dimensions of our lives that we want to be honored and respected, and technology could help do that.
(トリスタン・ハリス) それは実に興味深いと思います 一つの見方は 例えば YouTube だけを考えれば いつも もっと面白い動画を 次に見せようとします 次の動画を提案する上での 改善を続けます ただ誰もが見たくなるような 完璧な次の動画を 提案できたとしても 結果としてユーザを画面に縛り付けるのが 巧くなるだけです ここで考慮されていないのは どこが限度かということです YouTube には 例えば睡眠についても 考慮してほしいのです Netflix の CEO は 最近 「Facebook と YouTube と睡眠が 競合相手だ」と言いました 人間には構造上の限界があり 人生には ある種の制約とか 様々な側面があり これを大事にし 尊重すべきです テクノロジーは これを支援できます
(Applause)
(拍手)
CA: I mean, could you make the case that part of the problem here is that we've got a naïve model of human nature? So much of this is justified in terms of human preference, where we've got these algorithms that do an amazing job of optimizing for human preference, but which preference? There's the preferences of things that we really care about when we think about them versus the preferences of what we just instinctively click on. If we could implant that more nuanced view of human nature in every design, would that be a step forward?
(クリス)人の性質についての 単純なモデルが採用されていることが 問題でもある点を説明してもらえますか 問題の大半が 選好の問題として片づけられますが 人の選好に見事に適応できる アルゴリズムがあるときに どの選好に適合するのか 本当に気にかけていることについての 選好であることもあれば 本能的にクリックしてしまう選好もあります 人の性質についての もっと繊細な見方を あらゆるデザインに反映できれば それは進歩なんでしょうか
TH: Absolutely. I mean, I think right now it's as if all of our technology is basically only asking our lizard brain what's the best way to just impulsively get you to do the next tiniest thing with your time, instead of asking you in your life what we would be most time well spent for you? What would be the perfect timeline that might include something later, would be time well spent for you here at TED in your last day here?
(トリスタン)その通りです 現在 全てのテクノロジーは 我々の本能的な部分にだけ問いかけ 次のわずかな行動を 衝動的に起こさせて 時間を使わせる 最適な方法を求めています 人生における最良の時間の使い方を 問う代わりにです 後に何かが残るような 完璧なタイムラインとは何かを考えるのは ここ TED で過ごす最後の日を 有意義に過ごさせるものでしょう
CA: So if Facebook and Google and everyone said to us first up, "Hey, would you like us to optimize for your reflective brain or your lizard brain? You choose."
(クリス)Facebook や Google や 皆の優先事項として 「内省的頭脳と本能的頭脳 どちらに最適化すればよいのか 選んでください」
TH: Right. That would be one way. Yes.
(トリスタン)ええ そういう手もあります
CA: You said persuadability, that's an interesting word to me because to me there's two different types of persuadability. There's the persuadability that we're trying right now of reason and thinking and making an argument, but I think you're almost talking about a different kind, a more visceral type of persuadability, of being persuaded without even knowing that you're thinking.
(クリス)説得性という言葉を 使っていたのも面白いと思いました そこには2種類があると思うのです 今まさに実践しているように 推論や思考や 議論から成るような説得性も ありますが トークでは別の種類の 説得性について話していました もっと直観的なタイプの説得で 考えていると気づかぬうちに 操られているというものです
TH: Exactly. The reason I care about this problem so much is I studied at a lab called the Persuasive Technology Lab at Stanford that taught [students how to recognize] exactly these techniques. There's conferences and workshops that teach people all these covert ways of getting people's attention and orchestrating people's lives. And it's because most people don't know that that exists that this conversation is so important.
(トリスタン)その通りです この問題をこれほどに問題視する理由は 私が学んだスタンフォード大の Persuasive Technology 研究室で これらのテクニックに 気づく方法を教わったからです 人々の注意を引くための 秘密の方法を教える 学会やワークショップが 多くありました ただ大半の方は そんなものが 存在することも知らないので この対話が大変重要なのです
CA: Tristan, you and I, we both know so many people from all these companies. There are actually many here in the room, and I don't know about you, but my experience of them is that there is no shortage of good intent. People want a better world. They are actually -- they really want it. And I don't think anything you're saying is that these are evil people. It's a system where there's these unintended consequences that have really got out of control --
(クリス)トリスタン あなたも私も こういう企業の人をたくさん知っています この会場にも たくさんいます お考えはわかりませんが 私の経験からすると 善意の足りない人たち ということはありません より良い世界を求める人たちで 心から それを願っています あなたのお話でも これらの人々が 悪人だというのではなく システムによって 意図せぬ結果が生まれ 手に負えなくなったのだと―
TH: Of this race for attention. It's the classic race to the bottom when you have to get attention, and it's so tense. The only way to get more is to go lower on the brain stem, to go lower into outrage, to go lower into emotion, to go lower into the lizard brain.
(トリスタン)注意をめぐる競争ですね 注意を獲得するための競争は 「底辺への競争」の典型であり とても苛烈です より多くを獲得しようとしたら 脳幹の奥底に進み 怒りを掻き立て 感情を煽り 本能的な脳に 到達しなければなりません
CA: Well, thank you so much for helping us all get a little bit wiser about this.
(クリス)この問題に関する 知見を紹介してくれたのは
Tristan Harris, thank you. TH: Thank you very much.
トリスタン・ハリスでした ありがとう (トリスタン)ありがとう
(Applause)
(拍手)