Chris Anderson: What worries you right now? You've been very open about lots of issues on Twitter. What would be your top worry about where things are right now?
(クリス・アンダーソン) どんな懸念がありますか? Twitterの抱える問題について あなたはオープンに話してますが 現状に関して 1番の懸念は何ですか?
Jack Dorsey: Right now, the health of the conversation. So, our purpose is to serve the public conversation, and we have seen a number of attacks on it. We've seen abuse, we've seen harassment, we've seen manipulation, automation, human coordination, misinformation. So these are all dynamics that we were not expecting 13 years ago when we were starting the company. But we do now see them at scale, and what worries me most is just our ability to address it in a systemic way that is scalable, that has a rigorous understanding of how we're taking action, a transparent understanding of how we're taking action and a rigorous appeals process for when we're wrong, because we will be wrong.
(ジャック・ドーシー) 現在は 対話の健全性です 私たちの目的は 公共の場での対話に寄与することですが そこでたくさん攻撃を 目にしています 誹謗中傷や嫌がらせ行為 情報操作もあります 機械によるもの 組織的活動 誤った情報もありました こうした動きの数々は 13年前に起業したときには 予想していなかった事柄です しかし それが 規模を増しています 1番の懸念は 我々がそういった問題に対し 大きな規模で体系的に 対処できるかということで 取り組みへの深い理解― 取り組みについての クリアな理解と 過ちが起きた際の 厳格な是正手続きが必要です 過ちは起きるものですから
Whitney Pennington Rodgers: I'm really glad to hear that that's something that concerns you, because I think there's been a lot written about people who feel they've been abused and harassed on Twitter, and I think no one more so than women and women of color and black women. And there's been data that's come out -- Amnesty International put out a report a few months ago where they showed that a subset of active black female Twitter users were receiving, on average, one in 10 of their tweets were some form of harassment. And so when you think about health for the community on Twitter, I'm interested to hear, "health for everyone," but specifically: How are you looking to make Twitter a safe space for that subset, for women, for women of color and black women?
(ウィットニー・ペニントン・ロジャース) 懸念されていると聞けて うれしく思います これまでに多くの人々が Twitter で誹謗中傷や 嫌がらせを受けており 女性や 有色人種の女性 黒人女性は特にそうです データにも示されています アムネスティ・インターナショナルの 数か月前の報告では 黒人女性の活発なユーザーの一部が 受け取るツイートの 平均1割が何らかの ハラスメントだということでした だから Twitter コミュニティの 健全性について— 「すべての人にとっての健全さ」について 伺いたいものですが 具体的には 女性や有色人種の女性 黒人女性のグループについて Twitterをどう安全な場に 変えていくのですか?
JD: Yeah. So it's a pretty terrible situation when you're coming to a service that, ideally, you want to learn something about the world, and you spend the majority of your time reporting abuse, receiving abuse, receiving harassment. So what we're looking most deeply at is just the incentives that the platform naturally provides and the service provides. Right now, the dynamic of the system makes it super-easy to harass and to abuse others through the service, and unfortunately, the majority of our system in the past worked entirely based on people reporting harassment and abuse. So about midway last year, we decided that we were going to apply a lot more machine learning, a lot more deep learning to the problem, and try to be a lot more proactive around where abuse is happening, so that we can take the burden off the victim completely. And we've made some progress recently. About 38 percent of abusive tweets are now proactively identified by machine learning algorithms so that people don't actually have to report them. But those that are identified are still reviewed by humans, so we do not take down content or accounts without a human actually reviewing it. But that was from zero percent just a year ago. So that meant, at that zero percent, every single person who received abuse had to actually report it, which was a lot of work for them, a lot of work for us and just ultimately unfair.
(ジャック)そうですね かなりひどい状況ですよね 何かのサービスを利用していて 理想的には 世界について 何か学びたいのに ほとんどの時間を 誹謗中傷や嫌がらせを受け その報告に費やしているなんて 今 最も深く掘り下げているのは プラットフォームとサービスが 自然に生み出す 動機そのものについてです 現在は サービスを通じて 他者に誹謗中傷をしたり 嫌がらせ行為をしたりするのが 非常に容易なシステムになっています 残念ながら これまでのシステムはもっぱら 人々が嫌がらせや誹謗中傷を 報告してくれるのに頼っていました なので 昨年の中頃に もっと機械学習を使おう この問題に深層学習を 適用しようと決め 誹謗中傷が起きる場で もっと積極的な対策を講じようとしています 被害者の負担を 完全になくすのが目的です 最近 進歩も見られました 約38%の誹謗中傷ツイートが 機械学習アルゴリズムで 自動的に検出されるようになり 報告する必要がなくなりました しかし 検出されたものは 人の目で確認しており 人による確認なしに 内容やアカウントの凍結はしていません とはいえ 1年前の0%からは 進歩でしょう つまり 0%であったときは 誹謗中傷を受けた人が 皆 報告する必要があり 当事者にとっても 私たちにとっても大きな負担で 非常に不公平だったのです
The other thing that we're doing is making sure that we, as a company, have representation of all the communities that we're trying to serve. We can't build a business that is successful unless we have a diversity of perspective inside of our walls that actually feel these issues every single day. And that's not just with the team that's doing the work, it's also within our leadership as well. So we need to continue to build empathy for what people are experiencing and give them better tools to act on it and also give our customers a much better and easier approach to handle some of the things that they're seeing. So a lot of what we're doing is around technology, but we're also looking at the incentives on the service: What does Twitter incentivize you to do when you first open it up? And in the past, it's incented a lot of outrage, it's incented a lot of mob behavior, it's incented a lot of group harassment. And we have to look a lot deeper at some of the fundamentals of what the service is doing to make the bigger shifts. We can make a bunch of small shifts around technology, as I just described, but ultimately, we have to look deeply at the dynamics in the network itself, and that's what we're doing.
もうひとつの取り組みは 企業として あらゆるコミュニティが 参画できるよう努めることです ビジネスを成功に導くには こうした問題を 日々実感している人々の 多様な視点を 内部に持たねばなりません 作業をしているチームだけではなく 上層部についても そうです 人々の経験に対して 共感を高め続ける必要があるし 行動を起こすのに役立つツールを 提供する必要があります ユーザーが目にしているものに もっとうまく容易に対処できる方法を 提供する必要もあります ですから 技術面での取り組みが 多いですが サービスが人々に与える 動機についても考えています Twitter を開いたときに 何をしたいと思わせるのか? 過去には 怒りや 群衆行動 集団的嫌がらせも 多く誘発していました 大きな変革をするには サービスが何をしているのか本質的なことを 深く理解する必要があります 先ほど言った通り 技術面で 小さな変更は多くできますが 最終的には ネットワークそのものの 力学を深く理解する必要があり それが今取り組んでいることです
CA: But what's your sense -- what is the kind of thing that you might be able to change that would actually fundamentally shift behavior?
(クリス)ですが 実感としては― 実際に人々の行動を 根本的に変えるために どんなことができると 思いますか?
JD: Well, one of the things -- we started the service with this concept of following an account, as an example, and I don't believe that's why people actually come to Twitter. I believe Twitter is best as an interest-based network. People come with a particular interest. They have to do a ton of work to find and follow the related accounts around those interests. What we could do instead is allow you to follow an interest, follow a hashtag, follow a trend, follow a community, which gives us the opportunity to show all of the accounts, all the topics, all the moments, all the hashtags that are associated with that particular topic and interest, which really opens up the perspective that you see. But that is a huge fundamental shift to bias the entire network away from just an account bias towards a topics and interest bias.
(ジャック)始めた当初は このサービスの基本に 「アカウントのフォロー」がありました これは ひとつの例ですが でもそれは 人々がTwitterを使う 理由ではないと思うんです Twitter は関心に基づいた ネットワークとして優れています 特定の関心を持って 利用されているんです 今は各自の関心に関係のあるアカウントを 探してフォローして回るのに 手間がかかります そうではなく 関心をフォローしたり ハッシュタグやトレンドや コミュニティを フォローするようにするのです そうすれば特定の話題や関心に 関係するアカウントや トピックや「モーメント」や ハッシュタグなどを すべて表示することが できるようになり 目に入ってくる視野が 大きく広がります とはいえ アカウント中心から トピックや関心を中心にするよう ネットワーク全体を移行するのは 大々的で根本的な変更です
CA: Because isn't it the case that one reason why you have so much content on there is a result of putting millions of people around the world in this kind of gladiatorial contest with each other for followers, for attention? Like, from the point of view of people who just read Twitter, that's not an issue, but for the people who actually create it, everyone's out there saying, "You know, I wish I had a few more 'likes,' followers, retweets." And so they're constantly experimenting, trying to find the path to do that. And what we've all discovered is that the number one path to do that is to be some form of provocative, obnoxious, eloquently obnoxious, like, eloquent insults are a dream on Twitter, where you rapidly pile up -- and it becomes this self-fueling process of driving outrage. How do you defuse that?
(クリス)それほどまでに コンテンツが 豊富である理由のひとつは 世界中の何百万人もの人々に フォロワーや注目の争奪戦を させたからではありませんか? Twitter で情報を得るだけの人には その変更は 問題ないでしょうが コンテンツを生み出す人々は 皆 こう考えていますよね 「いいねや フォロワーや リツイートをもっと増やしたい!」と 彼らは それを実現しようと 試行錯誤しています そして1番効果的だと 分かったのは 少し挑発的になったり 不快なことを言い立てたりすることです 声高な侮辱は Twitter で 注目されます すごい速さで反応が来ますから 炎上を自ら招く手法が できてしまうわけです それには どう対処しますか?
JD: Yeah, I mean, I think you're spot on, but that goes back to the incentives. Like, one of the choices we made in the early days was we had this number that showed how many people follow you. We decided that number should be big and bold, and anything that's on the page that's big and bold has importance, and those are the things that you want to drive. Was that the right decision at the time? Probably not. If I had to start the service again, I would not emphasize the follower count as much. I would not emphasize the "like" count as much. I don't think I would even create "like" in the first place, because it doesn't actually push what we believe now to be the most important thing, which is healthy contribution back to the network and conversation to the network, participation within conversation, learning something from the conversation. Those are not things that we thought of 13 years ago, and we believe are extremely important right now.
(ジャック)ええ その通りで それは動機の話に戻ります 初期に下した選択のひとつに フォロワーの数を表示する というものがあります その数字を大きい太字で 表示することにしました 大きく太字で表示されているものは 重要なわけで もっと上を目指そうとします 当時として正しい判断だったか? 違うかもしれません サービスを最初から 作り直すなら フォロワー数は そこまで強調しないと思います 「いいね」の数も強調しません 「いいね」をする機能を そもそも作りませんね 現在 最も重要だと考えていることを 後押しはしてくれませんから ネットワークに健全な貢献をしたり ネットワークに対話をもたらしたり 対話への参加を促したり 対話から何かを学ぶことには つながりません こうしたことを 13年前には 考えていませんでしたが 今は非常に重要だと思っています
So we have to look at how we display the follower count, how we display retweet count, how we display "likes," and just ask the deep question: Is this really the number that we want people to drive up? Is this the thing that, when you open Twitter, you see, "That's the thing I need to increase?" And I don't believe that's the case right now.
ですから フォロワー数を どう表示するか リツイート数や「いいね」を どう表示するかを考え 深く問いかけねばなりません 本当にこの数字を 追求させたいのか? Twitter を開いたときに 「この数字を増やそう」と 思わせたいのか? 今は そうではないと思います
(Applause)
(拍手)
WPR: I think we should look at some of the tweets that are coming in from the audience as well.
(ウィットニー)ここで客席からのツイートも 少し見てみましょうか
CA: Let's see what you guys are asking. I mean, this is -- generally, one of the amazing things about Twitter is how you can use it for crowd wisdom, you know, that more knowledge, more questions, more points of view than you can imagine, and sometimes, many of them are really healthy.
(クリス)皆さんの質問を見ましょう これは Twitter の 素晴らしい点のひとつですね みんなの知恵を借りて 想像しないほど多くの 知識や問いや視点を活用でき その多くはとても 健全なものです
WPR: I think one I saw that passed already quickly down here, "What's Twitter's plan to combat foreign meddling in the 2020 US election?" I think that's something that's an issue we're seeing on the internet in general, that we have a lot of malicious automated activity happening. And on Twitter, for example, in fact, we have some work that's come from our friends at Zignal Labs, and maybe we can even see that to give us an example of what exactly I'm talking about, where you have these bots, if you will, or coordinated automated malicious account activity, that is being used to influence things like elections. And in this example we have from Zignal which they've shared with us using the data that they have from Twitter, you actually see that in this case, white represents the humans -- human accounts, each dot is an account. The pinker it is, the more automated the activity is. And you can see how you have a few humans interacting with bots. In this case, it's related to the election in Israel and spreading misinformation about Benny Gantz, and as we know, in the end, that was an election that Netanyahu won by a slim margin, and that may have been in some case influenced by this. And when you think about that happening on Twitter, what are the things that you're doing, specifically, to ensure you don't have misinformation like this spreading in this way, influencing people in ways that could affect democracy?
(ウィットニー)今 流れていきましたが 「2020年の米大統領選挙で 外国の介入にどう対処するのか?」 インターネットで一般的に 多く見られる問題ですね 自動化された悪意ある活動が 多く見られます たとえば Twitter については Zignal Lab による 調査結果が手元にありますが 今 お話ししていることの 良い例として見てみましょう 「ボット」というか 組織的な悪意ある 自動化されたアカウントが 選挙などを左右するのに 使われたりしています Zignal Lab 提供の こちらの例は Twitter から抽出した データを使っていますが ここから実際に分かるのは— ひとつひとつの点がアカウントで 白が人間のユーザーで 赤みが強いものほど 自動化傾向の強いアカウントです ボットと関わっている人間のユーザーが いくらか見られます このケースは イスラエルの選挙に関連したもので ベニー・ガンツに関する 虚偽の情報が広められています ご存じの通り 最終的に選挙結果は ネタニヤフが僅差で 勝利しましたが これに影響された部分も あるかもしれません Twitter 上の こうした活動について 具体的には 何をされていますか? 虚偽の情報がいたずらに広まり 人々に影響して 民主主義を左右しないように 何をしていますか?
JD: Just to back up a bit, we asked ourselves a question: Can we actually measure the health of a conversation, and what does that mean? And in the same way that you have indicators and we have indicators as humans in terms of are we healthy or not, such as temperature, the flushness of your face, we believe that we could find the indicators of conversational health. And we worked with a lab called Cortico at MIT to propose four starter indicators that we believe we could ultimately measure on the system. And the first one is what we're calling shared attention. It's a measure of how much of the conversation is attentive on the same topic versus disparate. The second one is called shared reality, and this is what percentage of the conversation shares the same facts -- not whether those facts are truthful or not, but are we sharing the same facts as we converse? The third is receptivity: How much of the conversation is receptive or civil or the inverse, toxic? And then the fourth is variety of perspective. So, are we seeing filter bubbles or echo chambers, or are we actually getting a variety of opinions within the conversation? And implicit in all four of these is the understanding that, as they increase, the conversation gets healthier and healthier.
(ジャック)少し補足しますが 私たちも自問しました 実際に対話の健全性を 測ることはできるのか? それがどういうことなのか? 自分が健康かを測る上で 体温や顔色などの尺度を 人間として持っているのと 同じように 対話の健全性についても 尺度を見いだせると思います MIT の Cortico という ラボと共同して 手始めに4つの指標案を出しました 最終的には システム上で 測れるものだと思います 1つめは「関心の共有度」です ある対話において どれほどが同じ話題に 収斂しているかどうかを測ります 2つめは「事実の共有度」です これは ある対話において 同じ事実を 共有している割合を測ります その事実が真実かどうかではなく 対話において 同じ事実が 共有されているかどうかです 3つめは「受容性」です ある対話のどれほどが 受容的かつ礼儀にかなったものか あるいは逆に不快なものかを測ります 4つめは「視点の多様性」です フィルターバブルや エコーチェンバー現象が起きているか それとも 対話において 様々な意見が見られるかを測ります この4つに共通するのは それが大きいほどに 対話がより健全なものになる ということです
So our first step is to see if we can measure these online, which we believe we can. We have the most momentum around receptivity. We have a toxicity score, a toxicity model, on our system that can actually measure whether you are likely to walk away from a conversation that you're having on Twitter because you feel it's toxic, with some pretty high degree. We're working to measure the rest, and the next step is, as we build up solutions, to watch how these measurements trend over time and continue to experiment. And our goal is to make sure that these are balanced, because if you increase one, you might decrease another. If you increase variety of perspective, you might actually decrease shared reality.
第一歩はこれらをその場で 測れるかを試すことですが できると思います 「受容性」について 特に力を入れています 不快度のモデルを システム上に構築していて 不快であるとの理由から Twitter 上での対話から 立ち去る可能性を 実際に測定できます かなりの精度です その他についても取り組んでおり 次の段階は 解決策を講じるとともに これらの指標が時の経過とともに どう変化するかを観察し 実験を続けることです 目標はこれらをバランスよく 運用することです どれかを増やすと 他が減少することもあるでしょう 「視点の多様性」を上げることで 「事実の共有度」が下がる かもしれません
CA: Just picking up on some of the questions flooding in here.
(クリス)多く寄せられた質問に 言及しますね
JD: Constant questioning.
(ジャック)質問攻めですね
CA: A lot of people are puzzled why, like, how hard is it to get rid of Nazis from Twitter?
(クリス)多くの人が 疑問に思っているのは Twitter からネオナチを駆逐するのが どれだけ難しいのかということです
JD: (Laughs)
(ジャック)(笑)
So we have policies around violent extremist groups, and the majority of our work and our terms of service works on conduct, not content. So we're actually looking for conduct. Conduct being using the service to repeatedly or episodically harass someone, using hateful imagery that might be associated with the KKK or the American Nazi Party. Those are all things that we act on immediately. We're in a situation right now where that term is used fairly loosely, and we just cannot take any one mention of that word accusing someone else as a factual indication that they should be removed from the platform. So a lot of our models are based around, number one: Is this account associated with a violent extremist group? And if so, we can take action. And we have done so on the KKK and the American Nazi Party and others. And number two: Are they using imagery or conduct that would associate them as such as well?
暴力的な過激派集団に対する 方針があります 私たちの仕事や サービス規約のほとんどは コンテンツではなく 行動を対象にしています ですから 行動に着目しています つまり サービスを通じて 繰り返し あるいは散発的に 嫌がらせ行為をしたり KKK やアメリカ・ナチ党に 関連するような― 不愉快な画像を使ったり といったことです そういったものには 即 対処します 現状では この規約は 緩やかに運用されていて 誰かを責めるのに そういう言葉を ひと言使ったからといって プラットフォームから 除外することはしません ですから 私たちのモデルが 基づいているのは まず 暴力的な過激派集団に 関連するアカウントかどうか? そうであれば 対処します KKK やアメリカ・ナチ党などについては すでにそうしています 2点目としては そういった団体に 関連付けられるような― 画像の使用や行動を しているかどうかです
CA: How many people do you have working on content moderation to look at this?
(クリス)コンテンツ・モデレーションには 何人くらい関わっていますか?
JD: It varies. We want to be flexible on this, because we want to make sure that we're, number one, building algorithms instead of just hiring massive amounts of people, because we need to make sure that this is scalable, and there are no amount of people that can actually scale this. So this is why we've done so much work around proactive detection of abuse that humans can then review. We want to have a situation where algorithms are constantly scouring every single tweet and bringing the most interesting ones to the top so that humans can bring their judgment to whether we should take action or not, based on our terms of service.
(ジャック)色々ですね フレキシブルにしたいんです まず 人員をたくさん 雇い入れるのではなく アルゴリズムを構築したいと 思っているからです 大規模に行えなければ いけませんし 人海戦術では 追いつきません ですから 誹謗中傷を自動検出して 人がそれを確認できるよう 努力してきました 望ましい状況は アルゴリズムに常時 ツイートを精査させて 最も注意を引くものを トップに表示させることで 利用規約に基づいて 除去するかどうかを 人が判断できるというものです
WPR: But there's not an amount of people that are scalable, but how many people do you currently have monitoring these accounts, and how do you figure out what's enough?
(ウィットニー)問題の規模に 人手では対応できないとのことですが アカウントの監視は 現在何人がしているんですか? それが十分であるかを 決める方法は何ですか?
JD: They're completely flexible. Sometimes we associate folks with spam. Sometimes we associate folks with abuse and harassment. We're going to make sure that we have flexibility in our people so that we can direct them at what is most needed. Sometimes, the elections. We've had a string of elections in Mexico, one coming up in India, obviously, the election last year, the midterm election, so we just want to be flexible with our resources. So when people -- just as an example, if you go to our current terms of service and you bring the page up, and you're wondering about abuse and harassment that you just received and whether it was against our terms of service to report it, the first thing you see when you open that page is around intellectual property protection. You scroll down and you get to abuse, harassment and everything else that you might be experiencing.
(ジャック)まったくフレキシブルです スパムの対処を してもらうこともありますし 誹謗中傷や嫌がらせ行為に 対処してもらうこともあります 人員について柔軟性を保つことで 最も必要なことに 従事してもらえます 選挙であることもあります メキシコで一連の選挙があり 今度インドでもあります もちろん 昨年の 米国中間選挙もありましたね だから 人員については 柔軟にしたいと思っています 誰かが― たとえばですが 現在の利用規約にアクセスし ページを開いて 今受けたばかりの 嫌がらせ行為について 利用規約に反していると 報告できるかと調べるとします ページを開いて まず目に入るのは 知的財産権についてです 下にスクロールしていくと 誹謗中傷や嫌がらせ行為など 他の事柄について書かれています
So I don't know how that happened over the company's history, but we put that above the thing that people want the most information on and to actually act on. And just our ordering shows the world what we believed was important. So we're changing all that. We're ordering it the right way, but we're also simplifying the rules so that they're human-readable so that people can actually understand themselves when something is against our terms and when something is not. And then we're making -- again, our big focus is on removing the burden of work from the victims. So that means push more towards technology, rather than humans doing the work -- that means the humans receiving the abuse and also the humans having to review that work. So we want to make sure that we're not just encouraging more work around something that's super, super negative, and we want to have a good balance between the technology and where humans can actually be creative, which is the judgment of the rules, and not just all the mechanical stuff of finding and reporting them. So that's how we think about it.
うちの企業史で いつそうなったかは 定かではないですが 人々が最も情報を求めていて 行動を望んでいるものよりも上に そういうのがきています その順序自体が 何を重んじているかを 世界に示してしまっています ですから 変えようと思っています 順序をあるべきものに変えて ルールも簡潔にして 普通に読んで分かるものにします 規約違反かどうかを 利用者が 実際に理解できるようにしたいのです それから取り組んでいるのは― 被害者の負担を取り除くよう 注力するということです もっとテクノロジーの 裁量を増やして 人間の作業を減らします 誹謗中傷を受けた人の負担も 検証する人の負担も 減らすということです 努力しているのは 非常にネガティブなものに対する 対処を進めるだけでなく テクノロジーと 人間が創造性を発揮できる場の バランスをうまく取るということです ただ違反を見つけて報告する 機械的な部分だけでなく 規則に基づいて 判断するという部分でも そう考えています
CA: I'm curious to dig in more about what you said. I mean, I love that you said you are looking for ways to re-tweak the fundamental design of the system to discourage some of the reactive behavior, and perhaps -- to use Tristan Harris-type language -- engage people's more reflective thinking. How far advanced is that? What would alternatives to that "like" button be?
(クリス)今の発言を 掘り下げたいのですが システムの基本デザインを 見直すための方法を 探っているのは とても良いことだと思います 反射的な行動を やめさせたり あるいは― トリスタン・ハリス風に言えば 人々の内省的な思考に 訴えるということでしょうか それはどこまで進んでいますか? 「いいね」に代わるものは 何になるのでしょう?
JD: Well, first and foremost, my personal goal with the service is that I believe fundamentally that public conversation is critical. There are existential problems facing the world that are facing the entire world, not any one particular nation-state, that global public conversation benefits. And that is one of the unique dynamics of Twitter, that it is completely open, it is completely public, it is completely fluid, and anyone can see any other conversation and participate in it. So there are conversations like climate change. There are conversations like the displacement in the work through artificial intelligence. There are conversations like economic disparity. No matter what any one nation-state does, they will not be able to solve the problem alone. It takes coordination around the world, and that's where I think Twitter can play a part.
(ジャック)そうですね まず何よりも このサービスについての 個人的な目標であり 私が信じていることは 公共の場での対話の重要性です 世界が直面している 人間の存在に関わる問題― 特定の国だけでなく 世界全体が直面している問題には 公共の場での議論に 利するものがあります Twitter 独特の力強さのひとつは 完全にオープンで 完全に公に開かれていて 完全に流動的なことです 誰でも あらゆる対話を目にでき 参加することができます 気候変動に関する話題もあるでしょう 人工知能によって 労働力が代替されることに関する 話題もあるでしょう 経済格差に関する話題もあります ひとつの国家が何をしようが 単独では解決し得ない問題です 世界全体での協力が必要ですし Twitter はそれに 役立てると思います
The second thing is that Twitter, right now, when you go to it, you don't necessarily walk away feeling like you learned something. Some people do. Some people have a very, very rich network, a very rich community that they learn from every single day. But it takes a lot of work and a lot of time to build up to that. So we want to get people to those topics and those interests much, much faster and make sure that they're finding something that, no matter how much time they spend on Twitter -- and I don't want to maximize the time on Twitter, I want to maximize what they actually take away from it and what they learn from it, and --
2つめは 現状では Twitter にアクセスしても 何かを学んだとは 必ずしも 感じないということです 学んでいる人もいます 中には 非常に 豊かなネットワークを持っていて 日々学びを得ている人もいると思います しかし その段階に到達するには 手間も時間もかかります ですから 人々がそういう トピックや関心事項にもっと早く 到達できるようにしたいのです それから 人々が必ず何かを 見付けられるようにしたい どれだけの時間を Twitter 上で過ごすにせよ― 利用時間を 最大化したいのではなく そこから得られるもの— そこから学べるものを 最大化したいんです
CA: Well, do you, though? Because that's the core question that a lot of people want to know. Surely, Jack, you're constrained, to a huge extent, by the fact that you're a public company, you've got investors pressing on you, the number one way you make your money is from advertising -- that depends on user engagement. Are you willing to sacrifice user time, if need be, to go for a more reflective conversation?
(クリス)本当ですか? 多くの人が聞きたい 核心的な問いはそこなんです 「ジャック いろいろ制約が あるのは分かる 公開企業であるわけだし 出資者のプレッシャーもあるだろう 最大の収入源は広告であって ユーザーの利用度合いに 依存してもいる 本当に 必要とあれば ユーザーの利用時間を失ってでも 内省的な対話を促そうと 考えているのか?」と
JD: Yeah; more relevance means less time on the service, and that's perfectly fine, because we want to make sure that, like, you're coming to Twitter, and you see something immediately that you learn from and that you push. We can still serve an ad against that. That doesn't mean you need to spend any more time to see more. The second thing we're looking at --
(ジャック)関連性を高めると 利用時間が減るというなら それはそれで構いません Twitter を利用したときに すぐに何かを学べて 追求できるものが 見つかるようにしたいと思いますし それに広告をつけることはできます 広告を見てもらうために 長くいてもらう必要はありません 2つめの取り組みは―
CA: But just -- on that goal, daily active usage, if you're measuring that, that doesn't necessarily mean things that people value every day. It may well mean things that people are drawn to like a moth to the flame, every day. We are addicted, because we see something that pisses us off, so we go in and add fuel to the fire, and the daily active usage goes up, and there's more ad revenue there, but we all get angrier with each other. How do you define ... "Daily active usage" seems like a really dangerous term to be optimizing.
(クリス)1日あたりの 利用についてですが それがそのまま 人々が価値を見いだしている内容の 量であるとは限りません おそらくは 火に集まる蛾のように 引き寄せられただけ ということもあるでしょう 中毒的になって 腹が立つ内容を目にして 火にさらに油を注ぐことをします すると 1日あたりの利用が増えて 広告料はもっと入ってきますが 皆 お互いに対して もっと腹を立てるばかりです どう定義するんですか? 「1日あたりの利用」は最適化するには 非常に危険なものだと思いますよ
(Applause)
(拍手)
JD: Taken alone, it is, but you didn't let me finish the other metric, which is, we're watching for conversations and conversation chains. So we want to incentivize healthy contribution back to the network, and what we believe that is is actually participating in conversation that is healthy, as defined by those four indicators I articulated earlier.
(ジャック)単独では そうです もうひとつの指標について まだお話ししていません 対話や関連する一連のツイートにも 注目しています ネットワークに健全な貢献が 自発的にされるよう促したいんです それは 先程お話しした 4つの指標で定義されるような 健全な対話に参加する ということだと考えています
So you can't just optimize around one metric. You have to balance and look constantly at what is actually going to create a healthy contribution to the network and a healthy experience for people. Ultimately, we want to get to a metric where people can tell us, "Hey, I learned something from Twitter, and I'm walking away with something valuable." That is our goal ultimately over time, but that's going to take some time.
1つの指標についてだけ 最適化はできません バランスを取って 常に見守る必要があります ネットワークへの健全な貢献や 健全な体験を生み出すのは何であるかを 最終的には 人々が 「Twitter から何かを学んで 価値のある経験をした」と 思えるための指標を 目指しています それが最終的な目標ですが 時間はかかるでしょう
CA: You come over to many, I think to me, as this enigma. This is possibly unfair, but I woke up the other night with this picture of how I found I was thinking about you and the situation, that we're on this great voyage with you on this ship called the "Twittanic" --
(クリス)多くの人は あなたを 謎めいていると思っていると思います ちょっとひどいかもしれませんが 先日夜にふと目覚めて あなたを取り巻く状況を こんな風にイメージしたんです 私たちはあなたと一緒に 客船「ツイッタニック」号に乗っていて―
(Laughter)
(笑)
and there are people on board in steerage who are expressing discomfort, and you, unlike many other captains, are saying, "Well, tell me, talk to me, listen to me, I want to hear." And they talk to you, and they say, "We're worried about the iceberg ahead." And you go, "You know, that is a powerful point, and our ship, frankly, hasn't been built properly for steering as well as it might." And we say, "Please do something." And you go to the bridge, and we're waiting, and we look, and then you're showing this extraordinary calm, but we're all standing outside, saying, "Jack, turn the fucking wheel!"
三等船室の乗客たちが 不安を表明していると あなたは 他の船長とは違って 「教えてくれ 話をしよう 君たちの話を聞きたい」と言う 人々が「前方にある氷山が 気がかりなんだ」と告げると あなたは「非常に良い指摘だ この船は 正直に言って うまく操舵できるように 作られてはいない」と言う 「どうにかしてくれ」と言うと あなたは船橋に行くが みんな やきもきして待っているのに あなたは やたらに落ちついた様子で 私たちは外から「頼むから 舵を切ってくれ!」と叫んでいる—
You know?
わかりますか?
(Laughter)
(笑)
(Applause)
(拍手)
I mean --
つまり―
(Applause)
(拍手)
It's democracy at stake. It's our culture at stake. It's our world at stake. And Twitter is amazing and shapes so much. It's not as big as some of the other platforms, but the people of influence use it to set the agenda, and it's just hard to imagine a more important role in the world than to ... I mean, you're doing a brilliant job of listening, Jack, and hearing people, but to actually dial up the urgency and move on this stuff -- will you do that?
危険にさらされているのは 民主主義であり 私たちの文化であり 世界なんです Twitter は素晴らしいもので 役立ってもいます 他のプラットフォームに比べれば 小さくても 影響力のある人々が 方向を示すのに使っています これ以上に世界で重要な役割は ないと思います― あなたは 人々の言葉に 耳を傾けていて素晴らしいけれど― 実際に緊急性をもって 物事を実行するという重要な役割を あなたは実行するんですか?
JD: Yes, and we have been moving substantially. I mean, there's been a few dynamics in Twitter's history. One, when I came back to the company, we were in a pretty dire state in terms of our future, and not just from how people were using the platform, but from a corporate narrative as well. So we had to fix a bunch of the foundation, turn the company around, go through two crazy layoffs, because we just got too big for what we were doing, and we focused all of our energy on this concept of serving the public conversation. And that took some work. And as we dived into that, we realized some of the issues with the fundamentals. We could do a bunch of superficial things to address what you're talking about, but we need the changes to last, and that means going really, really deep and paying attention to what we started 13 years ago and really questioning how the system works and how the framework works and what is needed for the world today, given how quickly everything is moving and how people are using it. So we are working as quickly as we can, but quickness will not get the job done. It's focus, it's prioritization, it's understanding the fundamentals of the network and building a framework that scales and that is resilient to change, and being open about where we are and being transparent about where are so that we can continue to earn trust.
(ジャック)ええ 大きな行動を 起こしています Twitter の歴史には いくつか転換点がありました 私が会社に復帰したとき 将来の見通しは かなり悲惨なものでした プラットフォームの 利用のされ方だけでなく 企業のあり方としてもです ですから 企業としての 基礎を修正して 方向転換をしました 2度 大規模なリストラもしました 企業として大きくなりすぎていたんです それから 全エネルギーを 公共の場での対話に役立つという 理念に向けました 努力も必要でした 実際に深く取り組んでみて 根本的な部分の問題にも 気づきました 今 話に出たことに対処するため 表層的なことは色々できても 変化は持続するもので なければなりません だからこそ 深く掘り下げて 13年前に始めたことに しっかり目を向けて 問いかけなければなりません システムや枠組みが どう機能しているのか また 物事も利用の仕方も どんどん変わっていく中で 現在の世界は 何を必要としているのか できるだけ迅速に対応していますが 迅速さだけでは成し遂げられません 重点の置き方や 優先順位も重要ですし このネットワークの本質を理解し 規模の大きさや変化に 柔軟に対応できる枠組みを 構築しなければなりません 現状についてオープン かつ透明性を保って 信頼を得ることも必要です
So I'm proud of all the frameworks that we've put in place. I'm proud of our direction. We obviously can move faster, but that required just stopping a bunch of stupid stuff we were doing in the past.
実現にこぎつけた枠組みについては 誇りに思っていますし 方向性についても そうです もっと速く前進もできるでしょうが 過去のばかげた過ちの数々を 止めねばなりませんでしたので
CA: All right. Well, I suspect there are many people here who, if given the chance, would love to help you on this change-making agenda you're on, and I don't know if Whitney -- Jack, thank you for coming here and speaking so openly. It took courage. I really appreciate what you said, and good luck with your mission.
(クリス)なるほど この場にいる多く人が 機会さえあれば 変革へのアジェンダについて 手助けしたいと思っているでしょう ウィットニーもそうでしょう ジャック 登壇してオープンに 語ってくれてありがとう 勇気が要ったと思います 非常に良いことを言ってくれました うまくいくことを願っています
JD: Thank you so much. Thanks for having me.
(ジャック)ありがとうございました
(Applause)
(拍手)
Thank you.
ありがとう