Chris Anderson: What worries you right now? You've been very open about lots of issues on Twitter. What would be your top worry about where things are right now?
Chris Anderson : Qu’est-ce qui vous inquiète ? Vous avez été très ouvert sur beaucoup de problèmes sur Twitter. Quelle serait votre principale inquiétude quant à l’état actuel des choses ?
Jack Dorsey: Right now, the health of the conversation. So, our purpose is to serve the public conversation, and we have seen a number of attacks on it. We've seen abuse, we've seen harassment, we've seen manipulation, automation, human coordination, misinformation. So these are all dynamics that we were not expecting 13 years ago when we were starting the company. But we do now see them at scale, and what worries me most is just our ability to address it in a systemic way that is scalable, that has a rigorous understanding of how we're taking action, a transparent understanding of how we're taking action and a rigorous appeals process for when we're wrong, because we will be wrong.
Jack Dorsey : Actuellement, la santé de la conversation. Notre objectif est de servir le débat public et nous y avons vu un certain nombre d’attaques. Nous avons vu des abus, du harcèlement, de la manipulation, de l’automatisation, de la coordination humaine, de la désinformation. Ce sont des dynamiques auxquelles nous ne nous attendions pas il y a 13 ans, quand nous étions en train de lancer l’entreprise. Mais nous les voyons maintenant à grande échelle et ce qui m’inquiète le plus est notre capacité à résoudre cela de façon systémique et adaptée à l’échelle, avec une compréhension rigoureuse de comment nous agissons, une vision transparente de comment nous agissons et une procédure d’appel rigoureuse pour les fois où nous avons tort, car nous aurons tort.
Whitney Pennington Rodgers: I'm really glad to hear that that's something that concerns you, because I think there's been a lot written about people who feel they've been abused and harassed on Twitter, and I think no one more so than women and women of color and black women. And there's been data that's come out -- Amnesty International put out a report a few months ago where they showed that a subset of active black female Twitter users were receiving, on average, one in 10 of their tweets were some form of harassment. And so when you think about health for the community on Twitter, I'm interested to hear, "health for everyone," but specifically: How are you looking to make Twitter a safe space for that subset, for women, for women of color and black women?
Whitney Pennington Rodgers : Je suis ravie d’entendre que cela vous inquiète car il y a beaucoup d’articles sur des personnes qui se sont senties maltraitées, harcelées sur Twitter et je crois que personne ne l’a plus été que les femmes, les femmes de couleur et les femmes noires. Des données ont été publiées -- Amnesty International a publié un rapport il y a quelques mois où ils ont montré que pour un sous-groupe de femmes noires utilisant Twitter, en moyenne un tweet sur 10 reçus présentait une forme de harcèlement. Quand vous pensez à la santé de la communauté sur Twitter, cela m’intéresse d’entendre « de la santé pour tout le monde », mais en particulier : comment allez-vous faire de Twitter un espace sûr pour ce sous-groupe, pour les femmes,
JD: Yeah. So it's a pretty terrible situation when you're coming to a service that, ideally, you want to learn something about the world, and you spend the majority of your time reporting abuse, receiving abuse, receiving harassment. So what we're looking most deeply at is just the incentives that the platform naturally provides and the service provides. Right now, the dynamic of the system makes it super-easy to harass and to abuse others through the service, and unfortunately, the majority of our system in the past worked entirely based on people reporting harassment and abuse. So about midway last year, we decided that we were going to apply a lot more machine learning, a lot more deep learning to the problem, and try to be a lot more proactive around where abuse is happening, so that we can take the burden off the victim completely. And we've made some progress recently. About 38 percent of abusive tweets are now proactively identified by machine learning algorithms so that people don't actually have to report them. But those that are identified are still reviewed by humans, so we do not take down content or accounts without a human actually reviewing it. But that was from zero percent just a year ago. So that meant, at that zero percent, every single person who received abuse had to actually report it, which was a lot of work for them, a lot of work for us and just ultimately unfair.
pour les femmes de couleur et les femmes noires ? JD : Ouais. C’est une situation effroyable quand vous venez sur un service où, idéalement, vous voulez apprendre quelque chose sur le monde et vous passez la majorité de votre temps à signaler des abus, à être agressée, à être harcelée. Nous reconsidérons en profondeur les incitations que la plateforme offre naturellement et le service qu’elle fournit. Actuellement, la dynamique du système rend cela très facile de harceler et d’agresser les autres via le service et malheureusement, auparavant, la majorité de notre système était entièrement basé sur le signalement du harcèlement et des agressions. Vers le milieu de l’année dernière, nous avons décidé d’appliquer beaucoup plus d’apprentissage automatique, d’apprentissage profond au problème et d’essayer d’être plus proactifs là où il y a des agressions afin de pouvoir soulager complètement les victimes de ce fardeau. Récemment, nous avons réalisé des progrès. Environ 38 % des tweets abusifs sont identifiés de façon proactive par des algorithmes d’apprentissage automatique afin que les gens n’aient pas à les signaler. Ceux qui sont identifiés sont passés en revue par des êtres humains afin de ne pas supprimer du contenu ou des comptes sans que quelqu’un ne les contrôle. C’était à zéro pourcent il y a un an. À ce zéro pourcent, toute personne étant agressée devant le signaler, ce qui représentait beaucoup de travail pour elle, pour nous et était fondamentalement injuste.
The other thing that we're doing is making sure that we, as a company, have representation of all the communities that we're trying to serve. We can't build a business that is successful unless we have a diversity of perspective inside of our walls that actually feel these issues every single day. And that's not just with the team that's doing the work, it's also within our leadership as well. So we need to continue to build empathy for what people are experiencing and give them better tools to act on it and also give our customers a much better and easier approach to handle some of the things that they're seeing. So a lot of what we're doing is around technology, but we're also looking at the incentives on the service: What does Twitter incentivize you to do when you first open it up? And in the past, it's incented a lot of outrage, it's incented a lot of mob behavior, it's incented a lot of group harassment. And we have to look a lot deeper at some of the fundamentals of what the service is doing to make the bigger shifts. We can make a bunch of small shifts around technology, as I just described, but ultimately, we have to look deeply at the dynamics in the network itself, and that's what we're doing.
Une autre chose que nous faisons, c’est de nous s’assurer qu’en tant qu’entreprise, nous avons une représentation de toutes les communautés que nous servons. Nous ne pouvons pas bâtir une entreprise fructueuse sans avoir de diversité de points de vue au sein de nos murs qui ressentent ces problèmes au quotidien. Ce n’est pas valable qu’avec l’équipe qui accomplit le travail mais aussi avec notre direction. Nous devons continuer à développer de l’empathie pour ce que les gens vivent, leur offrir de meilleurs outils pour agir en fonction de leur vécu et offrir à nos clients une approche meilleure et plus simple pour gérer le genre de choses que nous voyons. Une grande partie de notre travail a trait à la technologie mais nous considérons également les incitations du service : qu’est-ce que Twitter vous encourage-t-il à faire quand vous l’ouvrez ? Auparavant, il encourageait fortement l’indignation, le comportement de foule, le harcèlement collectif. Nous devons considérer plus en profondeur certains des principes fondamentaux de ce que le service fait pour affecter de plus grands changements. Nous pouvons faire de petits changements concernant la technologie mais fondamentalement, nous devons considérer en profondeur les dynamiques dans le réseau même
CA: But what's your sense -- what is the kind of thing that you might be able to change that would actually fundamentally shift behavior?
et c’est ce que nous faisons. CA : Quelle est votre impression -- quel genre de choses que vous pourriez changer modifieraient fondamentalement les comportements ?
JD: Well, one of the things -- we started the service with this concept of following an account, as an example, and I don't believe that's why people actually come to Twitter. I believe Twitter is best as an interest-based network. People come with a particular interest. They have to do a ton of work to find and follow the related accounts around those interests. What we could do instead is allow you to follow an interest, follow a hashtag, follow a trend, follow a community, which gives us the opportunity to show all of the accounts, all the topics, all the moments, all the hashtags that are associated with that particular topic and interest, which really opens up the perspective that you see. But that is a huge fundamental shift to bias the entire network away from just an account bias towards a topics and interest bias.
JD : Une des choses -- nous avons démarré le service avec ce concept de suivre un compte, en tant qu’exemple, et je ne crois pas que ce soit la raison pour laquelle les gens viennent sur Twitter. Je crois que Twitter est surtout un réseau basé sur les centres d’intérêt. Les gens y viennent avec un centre d’intérêt particulier. Il leur faut beaucoup de travail pour trouver et suivre les comptes associés à ces centres d’intérêt. Nous pourrions plutôt vous permettre de suivre un centre d’intérêt, suivre un hashtag, suivre une tendance, suivre une communauté, ce qui nous offre l’opportunité de montrer tous les comptes, tous les sujets, tous les moments, tous les hashtags qui sont associés à ce sujet et centre d’intérêt en particulier, ce qui ouvre les perspectives que vous voyez. Mais c’est un changement fondamental faisant passer tous le réseau d’une subjectivité liée à un compte à une subjectivité liée à un sujet et centre d’intérêt.
CA: Because isn't it the case that one reason why you have so much content on there is a result of putting millions of people around the world in this kind of gladiatorial contest with each other for followers, for attention? Like, from the point of view of people who just read Twitter, that's not an issue, but for the people who actually create it, everyone's out there saying, "You know, I wish I had a few more 'likes,' followers, retweets." And so they're constantly experimenting, trying to find the path to do that. And what we've all discovered is that the number one path to do that is to be some form of provocative, obnoxious, eloquently obnoxious, like, eloquent insults are a dream on Twitter, where you rapidly pile up -- and it becomes this self-fueling process of driving outrage. How do you defuse that?
CA : N’est-il pas vrai qu’une des raisons pour lesquelles vous avez là tant de contenu résulte du fait d’avoir mis des millions de personnes à travers le monde en compétition les uns contre les autres tels des gladiateurs pour des abonnés, pour de l’attention ? Du point de vue des gens qui ne font que lire Twitter, ce n’est pas un problème, mais pour les gens qui créent, tout le monde dit : « J’aimerais avoir quelques “j’aime”, abonnés, retweets de plus. » Ils font constamment des expérimentations, essayent de trouver comment faire cela. Nous avons tous découvert qu’un moyen pour y arriver, c’est d’être provocateur, odieux, odieux de façon éloquente, les insultes éloquentes sont un rêve sur Twitter, vous êtes vite suivi -- cela devient un processus d’outrage s’autoalimentant. Comment arrêter cela ?
JD: Yeah, I mean, I think you're spot on, but that goes back to the incentives. Like, one of the choices we made in the early days was we had this number that showed how many people follow you. We decided that number should be big and bold, and anything that's on the page that's big and bold has importance, and those are the things that you want to drive. Was that the right decision at the time? Probably not. If I had to start the service again, I would not emphasize the follower count as much. I would not emphasize the "like" count as much. I don't think I would even create "like" in the first place, because it doesn't actually push what we believe now to be the most important thing, which is healthy contribution back to the network and conversation to the network, participation within conversation, learning something from the conversation. Those are not things that we thought of 13 years ago, and we believe are extremely important right now.
JD : Je pense que vous touchez au cœur du problème, mais cela en revient aux incitations. Un des choix que nous avons faits au tout début a été que nous avions ce nombre montrant combien vous avez d’abonnés. Nous avons décidé que ce nombre devrait être en grand et en gras, que toute chose sur la page étant en grand et en gras avait de l’importance et était ce que vous deviez aspirer à stimuler. Était-ce la bonne décision à l’époque ? Probablement pas. Si je devais relancer le service, je ne valoriserais pas autant le nombre d’abonnés. Je ne valoriserais pas autant le nombre de « j’aime ». Je ne pense pas que je créerais de « j’aime » du tout car cela n’est pas un moteur de ce que nous croyons aujourd’hui être la chose la plus importante : les contributions saines au réseau et la conversation avec le réseau, la participation à la conversation, l’apprentissage de quelque chose via cette conversation. Nous n’avons pas pensé à ces choses-là il y a 13 ans et nous les croyons extrêmement importantes aujourd’hui.
So we have to look at how we display the follower count, how we display retweet count, how we display "likes," and just ask the deep question: Is this really the number that we want people to drive up? Is this the thing that, when you open Twitter, you see, "That's the thing I need to increase?" And I don't believe that's the case right now.
Nous devons considérer la façon d’afficher le nombre d’abonnés, la façon d’afficher le nombre de retweets, le nombre de « j’aime » et poser la question profonde : est-ce vraiment le nombre que les gens veulent faire augmenter ? Est-ce la chose que, quand vous ouvrez Twitter, c’est cela que vous devez augmenter. Je ne crois pas que ce soit le cas.
(Applause)
(Applaudissements)
WPR: I think we should look at some of the tweets that are coming in from the audience as well.
WPR : Nous devrions regarder certains des tweets venant du public.
CA: Let's see what you guys are asking. I mean, this is -- generally, one of the amazing things about Twitter is how you can use it for crowd wisdom, you know, that more knowledge, more questions, more points of view than you can imagine, and sometimes, many of them are really healthy.
CA : Voyons voir ce que vous demandez. C’est -- en général, une des choses géniales concernant Twitter, c’est son utilisation pour la sagesse de foule : plus de savoir, plus de questions, plus de points de vue que vous ne pouvez l’imaginer et parfois, la plupart sont vraiment sains.
WPR: I think one I saw that passed already quickly down here, "What's Twitter's plan to combat foreign meddling in the 2020 US election?" I think that's something that's an issue we're seeing on the internet in general, that we have a lot of malicious automated activity happening. And on Twitter, for example, in fact, we have some work that's come from our friends at Zignal Labs, and maybe we can even see that to give us an example of what exactly I'm talking about, where you have these bots, if you will, or coordinated automated malicious account activity, that is being used to influence things like elections. And in this example we have from Zignal which they've shared with us using the data that they have from Twitter, you actually see that in this case, white represents the humans -- human accounts, each dot is an account. The pinker it is, the more automated the activity is. And you can see how you have a few humans interacting with bots. In this case, it's related to the election in Israel and spreading misinformation about Benny Gantz, and as we know, in the end, that was an election that Netanyahu won by a slim margin, and that may have been in some case influenced by this. And when you think about that happening on Twitter, what are the things that you're doing, specifically, to ensure you don't have misinformation like this spreading in this way, influencing people in ways that could affect democracy?
WPR : Je crois en avoir vu un passer rapidement disant : « Comment Twitter compte-t-il lutter contre les ingérences étrangères ? » Je crois que c’est un problème observé sur Internet en général : il y a beaucoup d’activité automatisée et malicieuse. Sur Twitter, par exemple, nous avons un travail venant de nos amis à Zignal Labs et nous pouvons peut-être le voir et prendre un exemple de ce dont je parle : vous avez ces robots, si vous voulez, ou une activité de compte coordonnée, automatisée et malicieuse utilisée pour influencer des choses comme les élections. Dans cet exemple que Zignal a partagé avec nous et utilisant les données qu’ils ont sur Twitter, vous voyez que dans ce cas le blanc représente des êtres humains -- des comptes humains, chaque point est un compte. Plus il est rose, plus l’activité est automatisée. Il y a quelques êtres humains interagissant avec des robots. Dans ce cas, il s’agit des élections en Israël et de la diffusion de désinformation au sujet de Benny Gantz et, finalement, c’est une élection que Netanyahu a gagnée de justesse et elle a pu être influencée par cela. Quand vous pensez à ce qu’il se passe sur Twitter, quelles choses en particulier faites-vous pour vous assurer de ne pas avoir une telle diffusion de la désinformation influençant les gens de façons pouvant avoir un effet sur la démocratie ?
JD: Just to back up a bit, we asked ourselves a question: Can we actually measure the health of a conversation, and what does that mean? And in the same way that you have indicators and we have indicators as humans in terms of are we healthy or not, such as temperature, the flushness of your face, we believe that we could find the indicators of conversational health. And we worked with a lab called Cortico at MIT to propose four starter indicators that we believe we could ultimately measure on the system. And the first one is what we're calling shared attention. It's a measure of how much of the conversation is attentive on the same topic versus disparate. The second one is called shared reality, and this is what percentage of the conversation shares the same facts -- not whether those facts are truthful or not, but are we sharing the same facts as we converse? The third is receptivity: How much of the conversation is receptive or civil or the inverse, toxic? And then the fourth is variety of perspective. So, are we seeing filter bubbles or echo chambers, or are we actually getting a variety of opinions within the conversation? And implicit in all four of these is the understanding that, as they increase, the conversation gets healthier and healthier.
JD : Pour revenir un peu en arrière, nous nous sommes posé une question : pouvons-nous mesurer la santé d’une conversation et qu’est-ce que cela signifie ? Comme vous avez des indicateurs et nous avons des indicateurs pour savoir si nous sommes en bonne santé tels que la température, la rougeur de votre visage, nous croyions pouvoir trouver les indicateurs de la santé de la conversation. Nous avons travaillé avec un labo du MIT appelé Cortico pour proposer quatre indicateurs initiaux que nous croyons pouvoir utiliser pour mesurer le système. Le premier est ce que nous appelons « attention partagée ». C’est une mesure indiquant si la conversation est attentive plutôt que disparate sur un sujet. Le deuxième s’appelle « réalité partagée » : quel pourcentage de la conversation partage les mêmes faits -- non pas est-ce que ces faits sont vrais ou faux, mais partageons-nous les mêmes faits durant notre conversation ? Le troisième est la réceptivité : quelle part de la conversation est réceptive ou civile ou au contraire, toxique ? Le quatrième est la diversité des points de vue. Observons-nous des bulles de filtres ou des chambres d’écho ou avons-nous une diversité d’opinions dans la conversation ? Implicitement avec ces quatre indicateurs, nous nous entendons pour dire que lorsqu’ils augmentent, la conversation devient de plus en plus saine.
So our first step is to see if we can measure these online, which we believe we can. We have the most momentum around receptivity. We have a toxicity score, a toxicity model, on our system that can actually measure whether you are likely to walk away from a conversation that you're having on Twitter because you feel it's toxic, with some pretty high degree. We're working to measure the rest, and the next step is, as we build up solutions, to watch how these measurements trend over time and continue to experiment. And our goal is to make sure that these are balanced, because if you increase one, you might decrease another. If you increase variety of perspective, you might actually decrease shared reality.
Notre première étape est de voir si nous pouvons les mesurer en ligne, ce que nous croyons possible. Nous avons le plus de dynamisme concernant la réceptivité. Nous avons un score de toxicité, un modèle de toxicité, dans notre système qui peut mesurer si vous allez probablement vous retirer d’une conversation que vous avez sur Twitter car vous la trouvez toxique, dont l’exactitude est plutôt élevée. Nous travaillons à mesurer le reste et la prochaine étape est, alors que nous élaborons des solutions, d’observer la tendance de ces mesures au fil du temps et de continuer à expérimenter. Notre objectif est de nous assurer qu’ils soient équilibrés car si vous en augmentez un, vous pourriez en abaisser un autre. Si vous améliorez la diversité des points de vue, vous pourriez faire baisser la réalité partagée.
CA: Just picking up on some of the questions flooding in here.
CA : Je recueille certaines des questions qui nous inondent là-haut.
JD: Constant questioning.
JD : Plein de questions.
CA: A lot of people are puzzled why, like, how hard is it to get rid of Nazis from Twitter?
CA : Beaucoup de gens sont perplexes quant à pourquoi, à quel point est-il difficile de se débarrasser des nazis sur Twitter ?
JD: (Laughs)
JD : (Rit)
So we have policies around violent extremist groups, and the majority of our work and our terms of service works on conduct, not content. So we're actually looking for conduct. Conduct being using the service to repeatedly or episodically harass someone, using hateful imagery that might be associated with the KKK or the American Nazi Party. Those are all things that we act on immediately. We're in a situation right now where that term is used fairly loosely, and we just cannot take any one mention of that word accusing someone else as a factual indication that they should be removed from the platform. So a lot of our models are based around, number one: Is this account associated with a violent extremist group? And if so, we can take action. And we have done so on the KKK and the American Nazi Party and others. And number two: Are they using imagery or conduct that would associate them as such as well?
Nous avons des politiques concernant les groupes extrémistes violents et la majorité de notre travail et nos conditions d’utilisation sont basées sur le comportement, pas le contenu. Nous considérons le comportement. Le comportement, c’est l’utilisation du service pour harceler quelqu’un de façon répétée ou épisodique, utiliser des images haineuses pouvant être associées avec le Ku Klux Klan ou le parti nazi américain. Ce sont des choses pour lesquelles nous prenons des mesures immédiates. Nous sommes actuellement dans une situation où ce terme est employé à tout vent et nous ne pouvons pas prendre une allusion à ce mot en accusant quelqu’un d’autre comme une indication factuelle qu’il devrait être banni de la plateforme. Beaucoup de nos modèles sont basés, numéro un : ce compte est-il associé à un groupe extrémiste violent ? Si oui, nous pouvons prendre des mesures. Nous l’avons fait avec le Ku Klux Klan, le parti nazi américain et d’autres. Numéro deux : utilise-t-il des images ou a-t-il un comportement qui les y associerait ?
CA: How many people do you have working on content moderation to look at this?
CA : Combien de gens avez-vous à travailler sur la modération du contenu ?
JD: It varies. We want to be flexible on this, because we want to make sure that we're, number one, building algorithms instead of just hiring massive amounts of people, because we need to make sure that this is scalable, and there are no amount of people that can actually scale this. So this is why we've done so much work around proactive detection of abuse that humans can then review. We want to have a situation where algorithms are constantly scouring every single tweet and bringing the most interesting ones to the top so that humans can bring their judgment to whether we should take action or not, based on our terms of service.
JD : Cela dépend. Nous voulons être flexibles car nous voulons nous assurer que, premièrement, nous développons des algorithmes au lieu d’embaucher beaucoup de gens car nous devons nous assurer que cela puisse être étendu et à si grande échelle, cela ne peut pas être fait par des humains. C’est pourquoi nous avons réalisé tant de travail sur la détection proactive d’abus que des humains peuvent vérifier. Nous voulons avoir une situation où des algorithmes parcourent constamment tous les tweets et font remonter les plus intéressants pour que des humains puissent exercer leur jugement sur la prise de mesures ou non d’après nos conditions d’utilisation.
WPR: But there's not an amount of people that are scalable, but how many people do you currently have monitoring these accounts, and how do you figure out what's enough?
WPR : C'est impossible à faire avec des humains, mais combien de personnes avez-vous actuellement à surveiller ces comptes et comment déterminez-vous le nombre suffisant ?
JD: They're completely flexible. Sometimes we associate folks with spam. Sometimes we associate folks with abuse and harassment. We're going to make sure that we have flexibility in our people so that we can direct them at what is most needed. Sometimes, the elections. We've had a string of elections in Mexico, one coming up in India, obviously, the election last year, the midterm election, so we just want to be flexible with our resources. So when people -- just as an example, if you go to our current terms of service and you bring the page up, and you're wondering about abuse and harassment that you just received and whether it was against our terms of service to report it, the first thing you see when you open that page is around intellectual property protection. You scroll down and you get to abuse, harassment and everything else that you might be experiencing.
JD : C’est entièrement flexible. Parfois, nous assignons des gens au spam. Parfois, nous assignons des gens aux abus et au harcèlement. Nous allons nous assurer d’avoir la flexibilité dans nos effectifs afin d’orienter leur travail sur ce qui est nécessaire. Parfois, les élections. Il y a eu une série d’élections au Mexique, à venir en Inde, évidemment, les élections de mi-mandat l’année dernière, donc nous voulons être flexibles avec nos ressources. Quand les gens -- par exemple, si vous allez voir nos conditions d’utilisation, vous chargez la page et vous vous interrogez sur les abus, le harcèlement dont vous avez été victime et si cela va à l’encontre de nos conditions d’utilisation pour les signaler, la première chose que vous voyez en ouvrant cette page concerne la protection de la propriété intellectuelle. Si vous allez plus bas, vous arrivez aux abus et au harcèlement et tout ce à quoi vous pourriez faire face.
So I don't know how that happened over the company's history, but we put that above the thing that people want the most information on and to actually act on. And just our ordering shows the world what we believed was important. So we're changing all that. We're ordering it the right way, but we're also simplifying the rules so that they're human-readable so that people can actually understand themselves when something is against our terms and when something is not. And then we're making -- again, our big focus is on removing the burden of work from the victims. So that means push more towards technology, rather than humans doing the work -- that means the humans receiving the abuse and also the humans having to review that work. So we want to make sure that we're not just encouraging more work around something that's super, super negative, and we want to have a good balance between the technology and where humans can actually be creative, which is the judgment of the rules, and not just all the mechanical stuff of finding and reporting them. So that's how we think about it.
J’ignore comment cela s’est passé dans l’histoire de l’entreprise mais nous avons placé cela au-dessus de ce au sujet de quoi les gens veulent le plus d’informations et une prise de mesures. L’ordre montre au monde ce que nous pensions important. Nous changeons tout cela. Nous réordonnons cela comme il faut mais nous simplifions aussi les règles pour qu’elles soient intelligibles et que les gens puissent comprendre d’eux-mêmes quand une chose va ou non à l’encontre de nos conditions d’utilisation. Puis nous faisons -- de nouveau, nous mettons l’accent sur le fait de soulager les victimes de la charge de travail. Cela signifie de délester plus de travail sur la technologie plutôt qu’il soit réalisé par des humains -- que ce soit les humains victimes d’abus ainsi que les humains devant les examiner. Nous voulons nous assurer de ne pas seulement encourager plus de travail autour de quelque chose de très, très négatif et nous voulons avoir un équilibre entre la technologie et là où les humains peuvent être créatifs, c’est-à-dire l’appréciation des règles et pas seulement l’aspect mécanique : la recherche et le signalement. Voilà comment nous voyons cela.
CA: I'm curious to dig in more about what you said. I mean, I love that you said you are looking for ways to re-tweak the fundamental design of the system to discourage some of the reactive behavior, and perhaps -- to use Tristan Harris-type language -- engage people's more reflective thinking. How far advanced is that? What would alternatives to that "like" button be?
CA : Je suis curieux de creuser ce que vous avez dit. J’aime que vous ayez dit que vous cherchiez des moyens de remettre au point la conception du système pour décourager des comportements réactifs et peut-être -- pour utiliser un langage à la Tristan Harris -- motiver la pensée plus réflexive des gens. À quel stade en est-ce ? Quelles seraient des alternatives au bouton « j’aime » ?
JD: Well, first and foremost, my personal goal with the service is that I believe fundamentally that public conversation is critical. There are existential problems facing the world that are facing the entire world, not any one particular nation-state, that global public conversation benefits. And that is one of the unique dynamics of Twitter, that it is completely open, it is completely public, it is completely fluid, and anyone can see any other conversation and participate in it. So there are conversations like climate change. There are conversations like the displacement in the work through artificial intelligence. There are conversations like economic disparity. No matter what any one nation-state does, they will not be able to solve the problem alone. It takes coordination around the world, and that's where I think Twitter can play a part.
JD : Avant tout, mon objectif personnel avec le service est que je crois fondamentalement qu’une conversation publique est essentielle. Le monde fait face à des problèmes existentiels -- le monde entier y fait face, pas un État-nation en particulier -- auxquels une conversation publique bénéficie. C’est l’une des dynamiques uniques à Twitter : c’est entièrement ouvert, c’est entièrement public, c’est complètement fluide et tout le monde peut voir et participer à toutes les conversations. Il y a des conversations comme le changement climatique, les déplacements dans le travail via l’intelligence artificielle, la disparité économique. Peu importe ce qu’un État-nation fait, il ne pourra pas résoudre le problème seul. Cela nécessite une coordination à travers le monde et c’est là que je pense que Twitter peut jouer un rôle.
The second thing is that Twitter, right now, when you go to it, you don't necessarily walk away feeling like you learned something. Some people do. Some people have a very, very rich network, a very rich community that they learn from every single day. But it takes a lot of work and a lot of time to build up to that. So we want to get people to those topics and those interests much, much faster and make sure that they're finding something that, no matter how much time they spend on Twitter -- and I don't want to maximize the time on Twitter, I want to maximize what they actually take away from it and what they learn from it, and --
La deuxième chose est qu’actuellement, quand vous allez sur Twitter, vous n’en partez pas nécessairement avec le sentiment d’avoir appris quelque chose. Pour certains, c’est le cas. Certains ont un réseau très, très riche, une communauté très riche et ils apprennent chaque jour. Mais il faut beaucoup de travail et de temps pour établir cela. Nous voulons que les gens en viennent à ces sujets et centres d’intérêt bien plus rapidement et nous assurer qu’ils trouvent quelque chose, peu importe le temps qu’ils passent sur Twitter -- je ne veux pas maximiser le temps sur Twitter, je veux maximiser ce qu’ils en tirent et ce qu’ils y apprennent...
CA: Well, do you, though? Because that's the core question that a lot of people want to know. Surely, Jack, you're constrained, to a huge extent, by the fact that you're a public company, you've got investors pressing on you, the number one way you make your money is from advertising -- that depends on user engagement. Are you willing to sacrifice user time, if need be, to go for a more reflective conversation?
CA : Est-ce vraiment le cas ? C’est la question principale à laquelle les gens veulent une réponse. Certainement, Jack, vous êtes considérablement contraint par le fait d’être une entreprise privée, des investisseurs font pression sur vous, la façon principale dont vous gagnez de l’argent, c’est la publicité -- cela dépend de l’engagement des utilisateurs. Êtes-vous prêt à sacrifier le temps des utilisateurs, si besoin est, pour vous diriger vers une conversation plus réflexive ?
JD: Yeah; more relevance means less time on the service, and that's perfectly fine, because we want to make sure that, like, you're coming to Twitter, and you see something immediately that you learn from and that you push. We can still serve an ad against that. That doesn't mean you need to spend any more time to see more. The second thing we're looking at --
JD : Plus de pertinence signifie moins de temps sur le service et c’est très bien car je veux m’assurer que vous veniez sur Twitter et que vous voyiez immédiatement quelque chose à apprendre et qui vous fait avancer. Nous pouvons toujours placer une annonce là-dessus. Vous n’avez pas à passer plus de temps pour voir plus. Secondement, nous considérons...
CA: But just -- on that goal, daily active usage, if you're measuring that, that doesn't necessarily mean things that people value every day. It may well mean things that people are drawn to like a moth to the flame, every day. We are addicted, because we see something that pisses us off, so we go in and add fuel to the fire, and the daily active usage goes up, and there's more ad revenue there, but we all get angrier with each other. How do you define ... "Daily active usage" seems like a really dangerous term to be optimizing.
CA : Sur cet objectif, l’utilisation active quotidienne, si vous mesurez cela, cela ne signifie pas que ce sont des choses que les gens apprécient chaque jour. Ce pourrait être des choses les attirant tels des papillons vers une flamme. Nous sommes accros car nous voyons quelque chose qui nous énerve, nous ajoutons de l’huile sur le feu, l’utilisation active quotidienne augmente, il y a plus de revenus publicitaires mais nous sommes tous plus en colère envers les autres. Comme définissez-vous... « Utilisation active quotidienne » semble être un terme dangereux à optimiser.
(Applause)
(Applaudissements)
JD: Taken alone, it is, but you didn't let me finish the other metric, which is, we're watching for conversations and conversation chains. So we want to incentivize healthy contribution back to the network, and what we believe that is is actually participating in conversation that is healthy, as defined by those four indicators I articulated earlier.
JD : Tout seul, ça l’est, mais vous ne m’avez pas laissé finir l’autre métrique : nous observons les conversations et les chaînes de conversations. Nous voulons encourager des contributions saines pour le réseau et ce que nous croyons que c'est, c’est la participation à une conversation qui est saine, telle que définie par ces quatre indicateurs
So you can't just optimize around one metric. You have to balance and look constantly at what is actually going to create a healthy contribution to the network and a healthy experience for people. Ultimately, we want to get to a metric where people can tell us, "Hey, I learned something from Twitter, and I'm walking away with something valuable." That is our goal ultimately over time, but that's going to take some time.
que j’ai présentés plus tôt. Vous ne pouvez pas optimiser une seule métrique. Il faut un équilibre et constamment considérer ce qui va créer une contribution saine pour le réseau et une expérience saine pour les gens. Finalement, nous voulons établir une métrique où les gens peuvent nous dire : « J’ai appris quelque chose sur Twitter et je repars avec une chose qui a de la valeur. » C’est notre objectif ultime, mais cela va prendre du temps.
CA: You come over to many, I think to me, as this enigma. This is possibly unfair, but I woke up the other night with this picture of how I found I was thinking about you and the situation, that we're on this great voyage with you on this ship called the "Twittanic" --
CA : Pour beaucoup, je pense pour moi, vous paraissez être une énigme. C’est peut-être injuste mais je me suis réveillé l’autre soir avec cette image qui me faisait penser à vous et à la situation : nous étions en voyage avec vous sur un bateau appelé « Twittanic » --
(Laughter)
(Rires)
and there are people on board in steerage who are expressing discomfort, and you, unlike many other captains, are saying, "Well, tell me, talk to me, listen to me, I want to hear." And they talk to you, and they say, "We're worried about the iceberg ahead." And you go, "You know, that is a powerful point, and our ship, frankly, hasn't been built properly for steering as well as it might." And we say, "Please do something." And you go to the bridge, and we're waiting, and we look, and then you're showing this extraordinary calm, but we're all standing outside, saying, "Jack, turn the fucking wheel!"
et il y a des gens sur l’entrepont qui expriment un malaise et vous, contrairement à de nombreux capitaines, leur dites : « Dites-moi, parlez-moi, écoutez-moi, je veux entendre. » Ils vous parlent et vous disent : « L’iceberg devant nous inquiète. » Et vous dites : « C’est une très bonne remarque et notre bateau n’a pas été fait de façon appropriée pour tourner autant que nécessaire. » Nous disons : « Agissez. » Vous allez sur le pont et nous attendons, nous regardons et vous faites preuve d’un calme extraordinaire, mais nous sommes tous dehors à dire : « Jack, allez, tournez le gouvernail ! »
You know?
Vous voyez ?
(Laughter)
(Rires)
(Applause)
(Applaudissements)
I mean --
Je veux dire --
(Applause)
(Applaudissements)
It's democracy at stake. It's our culture at stake. It's our world at stake. And Twitter is amazing and shapes so much. It's not as big as some of the other platforms, but the people of influence use it to set the agenda, and it's just hard to imagine a more important role in the world than to ... I mean, you're doing a brilliant job of listening, Jack, and hearing people, but to actually dial up the urgency and move on this stuff -- will you do that?
La démocratie est en jeu. Notre culture est en jeu. Notre monde est en jeu. Twitter est génial et façonne tant de choses. Ce n’est pas aussi grand que d’autres plateformes, mais les gens influents l’utilisent pour établir un programme et il est difficile d’imaginer un rôle plus important au monde que de... Vous faites un excellent travail en écoutant et entendant les gens, Jack, mais élevez l’état d’urgence et faites avancer les choses -- ferez-vous cela ?
JD: Yes, and we have been moving substantially. I mean, there's been a few dynamics in Twitter's history. One, when I came back to the company, we were in a pretty dire state in terms of our future, and not just from how people were using the platform, but from a corporate narrative as well. So we had to fix a bunch of the foundation, turn the company around, go through two crazy layoffs, because we just got too big for what we were doing, and we focused all of our energy on this concept of serving the public conversation. And that took some work. And as we dived into that, we realized some of the issues with the fundamentals. We could do a bunch of superficial things to address what you're talking about, but we need the changes to last, and that means going really, really deep and paying attention to what we started 13 years ago and really questioning how the system works and how the framework works and what is needed for the world today, given how quickly everything is moving and how people are using it. So we are working as quickly as we can, but quickness will not get the job done. It's focus, it's prioritization, it's understanding the fundamentals of the network and building a framework that scales and that is resilient to change, and being open about where we are and being transparent about where are so that we can continue to earn trust.
JD : Oui, et nous avons fait des progrès substantiels. Il y a eu quelques dynamiques dans l’histoire de Twitter. Un : quand je suis revenu dans l’entreprise, nous étions dans un état déplorable concernant notre avenir et pas seulement quant à la façon dont les gens utilisaient la plateforme, mais aussi d’un point de vue de l’entreprise. Nous avons dû réparer quelques fondations, redresser l’entreprise, en passer par deux folles périodes de licenciements, car nous étions devenus trop gros pour ce que nous faisions, et nous avons concentré toute notre énergie sur ce concept qu’est servir le débat public. Cela a nécessité du travail. En nous plongeant là-dedans, nous avons vu les problèmes avec des principes fondamentaux. Nous pouvions faire des choses superficielles pour régler ce dont vous parlez, mais les changements doivent durer et cela signifie aller très en profondeur et prêter attention à ce que nous avons démarré il y a 13 ans et remettre en question comment le système et la structure fonctionnent et ce dont le monde a besoin aujourd’hui, étant données la rapidité à laquelle tout avance et l’utilisation des gens. Nous travaillons aussi vite que possible, mais la rapidité n’accomplira pas le travail. C’est la concentration, la priorisation, la compréhension des principes fondamentaux du réseau et l’établissement d’une structure à grande échelle et s’adaptant aux changements, être ouverts et transparents quant à où nous en sommes afin de continuer à gagner la confiance des gens.
So I'm proud of all the frameworks that we've put in place. I'm proud of our direction. We obviously can move faster, but that required just stopping a bunch of stupid stuff we were doing in the past.
Je suis fier des bases que nous avons mises en place. Je suis fier de notre direction. Nous pouvons évidemment aller plus vite, mais cela nécessitait de mettre un terme à des trucs stupides que nous faisions.
CA: All right. Well, I suspect there are many people here who, if given the chance, would love to help you on this change-making agenda you're on, and I don't know if Whitney -- Jack, thank you for coming here and speaking so openly. It took courage. I really appreciate what you said, and good luck with your mission.
CA : Très bien. Je suppose qu’il y a beaucoup de gens ici qui, s’ils en avaient l’opportunité, aimeraient vous aider à réaliser ces changements et je ne sais pas si Whitney -- Jack, merci d’être venu et d’avoir parlé si ouvertement. Cela a nécessité du courage. J’apprécie ce que vous avez dit et bon courage pour votre mission.
JD: Thank you so much. Thanks for having me.
JD : Merci beaucoup. Merci de m’avoir invité.
(Applause)
(Applaudissements)
Thank you.
Merci.