Chris Anderson: What worries you right now? You've been very open about lots of issues on Twitter. What would be your top worry about where things are right now?
Chris Anderson: O que te preocupa agora? Foste muito franco acerca de muitos dos problemas do Twitter. Qual é a tua maior preocupação acerca do estado das coisas neste momento?
Jack Dorsey: Right now, the health of the conversation. So, our purpose is to serve the public conversation, and we have seen a number of attacks on it. We've seen abuse, we've seen harassment, we've seen manipulation, automation, human coordination, misinformation. So these are all dynamics that we were not expecting 13 years ago when we were starting the company. But we do now see them at scale, and what worries me most is just our ability to address it in a systemic way that is scalable, that has a rigorous understanding of how we're taking action, a transparent understanding of how we're taking action and a rigorous appeals process for when we're wrong, because we will be wrong.
Jack Dorsey: Neste momento é a saúde das conversas. O nosso propósito é estar ao serviço das conversas públicas e temos visto muitos ataques a isso. Temos visto insultos, intimidação, temos visto manipulação, automatização, coordenação humana, desinformação. Isto são dinâmicas que não esperávamos há 13 anos, quando começámos a empresa. Vemo-las agora em grande escala. O que mais me preocupa é a nossa capacidade de as abordar de uma forma sistemática que seja expansível, que tenha uma compreensão rigorosa de como estamos a agir, uma compreensão transparente de como estamos a agir e um rigoroso processo de recurso para quando errarmos porque nós vamos errar.
Whitney Pennington Rodgers: I'm really glad to hear that that's something that concerns you, because I think there's been a lot written about people who feel they've been abused and harassed on Twitter, and I think no one more so than women and women of color and black women. And there's been data that's come out -- Amnesty International put out a report a few months ago where they showed that a subset of active black female Twitter users were receiving, on average, one in 10 of their tweets were some form of harassment. And so when you think about health for the community on Twitter, I'm interested to hear, "health for everyone," but specifically: How are you looking to make Twitter a safe space for that subset, for women, for women of color and black women?
Whitney Pennington Rodgers: Fico feliz por ouvir que isso é uma coisa que te preocupa porque escreveu-se tanto sobre pessoas que se sentiram agredidas e intimidadas no Twitter em especial, mulheres e mulheres de cor, mulheres negras. Houve dados apresentados. A Amnistia Internacional divulgou um relatório há uns meses em que mostraram que um subgrupo de utilizadoras negras ativas do Twitter em cada 10 "tweets" que recebiam em média, um deles continha qualquer tipo de intimidação. Por isso, quando pensas na saúde da comunidade no Twitter, eu gostava de ouvir "saúde para todos". Especificamente, como estás a tentar tornar o Twitter um espaço seguro para esse subgrupo, para as mulheres, e para as mulheres de cor?
JD: Yeah. So it's a pretty terrible situation when you're coming to a service that, ideally, you want to learn something about the world, and you spend the majority of your time reporting abuse, receiving abuse, receiving harassment. So what we're looking most deeply at is just the incentives that the platform naturally provides and the service provides. Right now, the dynamic of the system makes it super-easy to harass and to abuse others through the service, and unfortunately, the majority of our system in the past worked entirely based on people reporting harassment and abuse. So about midway last year, we decided that we were going to apply a lot more machine learning, a lot more deep learning to the problem, and try to be a lot more proactive around where abuse is happening, so that we can take the burden off the victim completely. And we've made some progress recently. About 38 percent of abusive tweets are now proactively identified by machine learning algorithms so that people don't actually have to report them. But those that are identified are still reviewed by humans, so we do not take down content or accounts without a human actually reviewing it. But that was from zero percent just a year ago. So that meant, at that zero percent, every single person who received abuse had to actually report it, which was a lot of work for them, a lot of work for us and just ultimately unfair.
JD: Sim, é uma situação terrível quando nos juntamos a um serviço em que, idealmente, queremos aprender algo sobre o mundo e passamos a maior parte do tempo a denunciar insultos, a receber insultos, a receber intimidações. O que nós estamos a analisar com mais atenção são os incentivos que a plataforma providencia naturalmente e os serviços que providencia. Agora a dinâmica do sistema faz com que seja muito fácil intimidar e insultar os outros através do serviço. Infelizmente, a maior parte do nosso sistema no passado baseava-se em que as pessoas reportavam as intimidações e insultos. Em meados do ano passado, decidimos que íamos utilizar muito mais soluções de aprendizagem de máquinas e de aprendizagem profunda e tentar ser mais proativos quando os insultos acontecem, para tirarmos completamente o peso de cima da vítima. Fizemos alguns progressos recentemente. Cerca de 38% dos "tweets" insultuosos são agora identificados proativamente por algoritmos automáticos e as pessoas já não têm de os reportar. Mas os que são identificados ainda são revistos por pessoas, por isso não tiramos conteúdo ou contas sem a revisão de um ser humano. Mas isto era 0% há um ano. Ou seja, com 0%, cada pessoa que fosse insultada tinha de os reportar, o que lhes dava muito trabalho, e nos dava muito trabalho e, afinal de contas, era injusto.
The other thing that we're doing is making sure that we, as a company, have representation of all the communities that we're trying to serve. We can't build a business that is successful unless we have a diversity of perspective inside of our walls that actually feel these issues every single day. And that's not just with the team that's doing the work, it's also within our leadership as well. So we need to continue to build empathy for what people are experiencing and give them better tools to act on it and also give our customers a much better and easier approach to handle some of the things that they're seeing. So a lot of what we're doing is around technology, but we're also looking at the incentives on the service: What does Twitter incentivize you to do when you first open it up? And in the past, it's incented a lot of outrage, it's incented a lot of mob behavior, it's incented a lot of group harassment. And we have to look a lot deeper at some of the fundamentals of what the service is doing to make the bigger shifts. We can make a bunch of small shifts around technology, as I just described, but ultimately, we have to look deeply at the dynamics in the network itself, and that's what we're doing.
O outro aspeto é que estamos a assegurar que nós, como empresa, temos representadas todas as comunidades que estamos a tentar servir. Não podemos construir um negócio de sucesso se não tivermos diversidade de perspetivas dentro da nossa casa onde se sentem esses problemas todos os dias. E isso não envolve só a equipa que está a fazer o trabalho mas também toda a direção. Temos de continuar a criar empatia com o que as pessoas estão a experimentar e dar-lhes melhores ferramentas para agirem e também dar aos nossos clientes uma abordagem melhor e mais fácil para lidar com algumas coisas que estão a ver. Muito do que fazemos está ligado à tecnologia mas também estamos a olhar para os incentivos do serviço: O que é que o Twitter vos incentiva a fazer quando o abrem? No passado, incentivou muita indignação, incentivou muita violência de grupo, incentivou muita intimidação a grupos. Temos de olhar mais profundamente para alguns dos princípios do que o serviço está a fazer para conseguir mudanças maiores. Podemos fazer pequenas mudanças a nível tecnológico, como já descrevi, mas temos de olhar profundamente para a dinâmica da rede em si e é o que estamos a fazer.
CA: But what's your sense -- what is the kind of thing that you might be able to change that would actually fundamentally shift behavior?
CA: Mas o que é que achas? Que tipo de coisas achas que vão conseguir mudar que sejam uma mudança de comportamento fundamental?
JD: Well, one of the things -- we started the service with this concept of following an account, as an example, and I don't believe that's why people actually come to Twitter. I believe Twitter is best as an interest-based network. People come with a particular interest. They have to do a ton of work to find and follow the related accounts around those interests. What we could do instead is allow you to follow an interest, follow a hashtag, follow a trend, follow a community, which gives us the opportunity to show all of the accounts, all the topics, all the moments, all the hashtags that are associated with that particular topic and interest, which really opens up the perspective that you see. But that is a huge fundamental shift to bias the entire network away from just an account bias towards a topics and interest bias.
JD: Bem, uma das coisas, por exemplo. Começámos o serviço com o conceito de seguir uma conta, mas eu não acredito que seja para isso que as pessoas usam o Twitter. Acho que o Twitter funciona melhor como uma rede social baseada em interesses. As pessoas vêm com um determinado interesse. É trabalhoso encontrar e seguir as contas relacionadas com esses interesses. O que nós podemos fazer é permitir seguir um interesse, seguir uma "hashtag", uma tendência, seguir uma comunidade, o que nos dá a oportunidade de mostrar todas as contas, todos os temas, todos os momentos, todas as "hashtags" que estão associadas com esse tópico ou interesse em particular, o que abre a perspetiva do que vemos. Isto é uma enorme mudança fazer com que toda a rede deixe de estar ligada às contas e passe a estar ligada a tópicos e interesses.
CA: Because isn't it the case that one reason why you have so much content on there is a result of putting millions of people around the world in this kind of gladiatorial contest with each other for followers, for attention? Like, from the point of view of people who just read Twitter, that's not an issue, but for the people who actually create it, everyone's out there saying, "You know, I wish I had a few more 'likes,' followers, retweets." And so they're constantly experimenting, trying to find the path to do that. And what we've all discovered is that the number one path to do that is to be some form of provocative, obnoxious, eloquently obnoxious, like, eloquent insults are a dream on Twitter, where you rapidly pile up -- and it becomes this self-fueling process of driving outrage. How do you defuse that?
CA: Mas não se dá o caso de que uma das razões pela qual vocês têm tanto conteúdo é o resultado de pôr milhões de pessoas do mundo inteiro nesta competição de gladiadores uns contra os outros para ganhar seguidores, para conquistar atenção? Do ponto de vista das pessoas que só leem o Twitter, isso não é um problema mas para quem o criou, todos dizem: "Gostava de ter mais 'likes', mais seguidores, mais 'retweets'." Estão sempre a experimentar, a tentar encontrar um caminho para isso. Descobrimos que o caminho principal para isso é algum tipo de provocação detestável, eloquentemente detestável. Os insultos eloquentes são um sonho no Twitter, onde rapidamente se acumulam e se tornam neste processo de autoalimentação da indignação. Como se pode acabar com isso?
JD: Yeah, I mean, I think you're spot on, but that goes back to the incentives. Like, one of the choices we made in the early days was we had this number that showed how many people follow you. We decided that number should be big and bold, and anything that's on the page that's big and bold has importance, and those are the things that you want to drive. Was that the right decision at the time? Probably not. If I had to start the service again, I would not emphasize the follower count as much. I would not emphasize the "like" count as much. I don't think I would even create "like" in the first place, because it doesn't actually push what we believe now to be the most important thing, which is healthy contribution back to the network and conversation to the network, participation within conversation, learning something from the conversation. Those are not things that we thought of 13 years ago, and we believe are extremely important right now.
JD: Acho que é exatamente isso mas voltamos de novo aos incentivos. Uma das nossas escolhas iniciais foi mostrar o número de pessoas que nos seguiam. Decidimos que esse número devia ser grande e destacado e, como tudo o que é grande e destacado na página. é importante, essas são as coisas que queremos atingir. Foi a decisão certa na altura? Provavelmente não. Se eu criasse o serviço de novo, não daria tanta ênfase ao número de seguidores. Não daria tanta ênfase aos "likes". Acho que nem criaria os "likes" porque não leva ao que acreditamos ser a coisa mais importante, isto é, uma contribuição saudável na rede e conversas na rede, uma participação nas conversas, aprender algo com as conversas. Não pensámos nestas coisas há 13 anos e agora acreditamos que são muito importantes.
So we have to look at how we display the follower count, how we display retweet count, how we display "likes," and just ask the deep question: Is this really the number that we want people to drive up? Is this the thing that, when you open Twitter, you see, "That's the thing I need to increase?" And I don't believe that's the case right now.
Temos de ver como exibimos o número de seguidores, como exibimos o número de "retweets", como exibimos os "likes" e perguntar verdadeiramente: É este o número a que queremos dar ênfase? É isto que vemos, quando abrimos o Twitter: "É isto que eu tenho de reforçar?" Eu não acredito que agora seja esse o caso.
(Applause)
(Aplausos)
WPR: I think we should look at some of the tweets that are coming in from the audience as well.
WPR: Acho que devíamos ver alguns "tweets" que também estão a vir da audiência.
CA: Let's see what you guys are asking. I mean, this is -- generally, one of the amazing things about Twitter is how you can use it for crowd wisdom, you know, that more knowledge, more questions, more points of view than you can imagine, and sometimes, many of them are really healthy.
CA: Vamos ver o que estão a perguntar. Isto é uma das coisas fantásticas do Twitter é poder usá-lo para saber a opinião de um grupo, mais conhecimento, mais questões, mais pontos de vista do que se pode imaginar e às vezes, muito saudáveis.
WPR: I think one I saw that passed already quickly down here, "What's Twitter's plan to combat foreign meddling in the 2020 US election?" I think that's something that's an issue we're seeing on the internet in general, that we have a lot of malicious automated activity happening. And on Twitter, for example, in fact, we have some work that's come from our friends at Zignal Labs, and maybe we can even see that to give us an example of what exactly I'm talking about, where you have these bots, if you will, or coordinated automated malicious account activity, that is being used to influence things like elections. And in this example we have from Zignal which they've shared with us using the data that they have from Twitter, you actually see that in this case, white represents the humans -- human accounts, each dot is an account. The pinker it is, the more automated the activity is. And you can see how you have a few humans interacting with bots. In this case, it's related to the election in Israel and spreading misinformation about Benny Gantz, and as we know, in the end, that was an election that Netanyahu won by a slim margin, and that may have been in some case influenced by this. And when you think about that happening on Twitter, what are the things that you're doing, specifically, to ensure you don't have misinformation like this spreading in this way, influencing people in ways that could affect democracy?
WPR: Vi um que passou rapidamente por aqui: "Como vão combater a interferência estrangeira nas eleições de 2020?" Penso que é um assunto que estamos a ver na Internet em geral. Há muita atividade automatizada maliciosa. No Twitter, de facto, temos trabalho dos nossos amigos na Zignal Labs e talvez possamos ver aí um exemplo do que estou a falar, em que temos estes "bots" ou contas com atividade automatizada maliciosa que estão a ser usadas para influenciar coisas como eleições. Neste exemplo da Zignal que eles partilharam connosco usando os dados que têm do Twitter, podem ver que, neste caso, o branco representa seres humanos - contas humanas, cada ponto é uma conta. Quanto mais cor-de-rosa, tanto mais atividade automatizada. Podemos ver alguns seres humanos a interagir com "bots". Neste caso, está relacionado com as eleições em Israel e está a espalhar desinformação acerca de Benny Gantz. Como sabemos, no fim, as eleições foram ganhas por Netanyahu por uma pequena margem que pode ter sido influenciada, nalguns casos, por isso. Quando pensamos no que está a acontecer no Twitter, o que é que vocês estão a fazer, especificamente, para assegurar que a desinformação não se espalhe assim, influenciando pessoas de formas que afetam a democracia?
JD: Just to back up a bit, we asked ourselves a question: Can we actually measure the health of a conversation, and what does that mean? And in the same way that you have indicators and we have indicators as humans in terms of are we healthy or not, such as temperature, the flushness of your face, we believe that we could find the indicators of conversational health. And we worked with a lab called Cortico at MIT to propose four starter indicators that we believe we could ultimately measure on the system. And the first one is what we're calling shared attention. It's a measure of how much of the conversation is attentive on the same topic versus disparate. The second one is called shared reality, and this is what percentage of the conversation shares the same facts -- not whether those facts are truthful or not, but are we sharing the same facts as we converse? The third is receptivity: How much of the conversation is receptive or civil or the inverse, toxic? And then the fourth is variety of perspective. So, are we seeing filter bubbles or echo chambers, or are we actually getting a variety of opinions within the conversation? And implicit in all four of these is the understanding that, as they increase, the conversation gets healthier and healthier.
JD: Voltando um pouco atrás, perguntámo-nos o seguinte: Podemos medir a saúde de uma conversa e o que é que isso significa? Tal como temos indicadores e temos indicadores humanos para ver se estamos saudáveis ou não tais como a temperatura, a cor da cara, acreditamos que podíamos encontrar indicadores da saúde das conversas. Trabalhámos com um laboratório chamado Cortico no MIT para propor quatro indicadores iniciais que acreditamos que podem fazer medições no sistema. O primeiro é o que chamamos "atenção partilhada". É uma medida de quanto da conversa está atenta ao mesmo assunto e não se dispersa. O segundo chama-se "realidade partilhada" e é a percentagem da conversa que partilha os mesmo factos - não se esses factos são verdadeiros ou não mas se estamos a partilhar os mesmos factos nas conversas. O terceiro é a "recetividade": Quanto da conversa é recetivo ou cívico ou, pelo contrário, é tóxico? E o quarto é a "variedade de perspetiva". Estaremos a ver bolhas de filtro ou câmaras de eco, ou estaremos a ter uma variedade de opiniões dentro da conversa? Implícito nestes quatro é a compreensão de que, à medida que aumentam, a conversa torna-se mais saudável.
So our first step is to see if we can measure these online, which we believe we can. We have the most momentum around receptivity. We have a toxicity score, a toxicity model, on our system that can actually measure whether you are likely to walk away from a conversation that you're having on Twitter because you feel it's toxic, with some pretty high degree. We're working to measure the rest, and the next step is, as we build up solutions, to watch how these measurements trend over time and continue to experiment. And our goal is to make sure that these are balanced, because if you increase one, you might decrease another. If you increase variety of perspective, you might actually decrease shared reality.
Então, o primeiro passo é tentar medi-los "online", o que achamos que conseguimos. A maior dinâmica é em torno da recetividade. Temos uma pontuação de toxicidade e um modelo de toxicidade, no sistema, que consegue medir se é provável que alguém se afaste de uma conversa que está a ter no Twitter porque sente que é tóxica, a um nível muito alto. Estamos a tentar medir o resto. O próximo passo é, enquanto construímos soluções, ver como estas medidas se comportam ao longo do tempo e continuar a experimentar. O nosso objetivo é assegurar que estão equilibradas porque, se aumentamos uma, poderemos diminuir a outra. Se aumentarmos a variedade de perspetiva, poderemos diminuir a realidade partilhada.
CA: Just picking up on some of the questions flooding in here.
CA: Agarrando numa das perguntas que estão a chegar em massa...
JD: Constant questioning.
JD: Questionamento constante.
CA: A lot of people are puzzled why, like, how hard is it to get rid of Nazis from Twitter?
CA: Muitas pessoas estão perplexas perguntando porque é que é difícil eliminar os nazis do Twitter?
JD: (Laughs)
So we have policies around violent extremist groups, and the majority of our work and our terms of service works on conduct, not content. So we're actually looking for conduct. Conduct being using the service to repeatedly or episodically harass someone, using hateful imagery that might be associated with the KKK or the American Nazi Party. Those are all things that we act on immediately. We're in a situation right now where that term is used fairly loosely, and we just cannot take any one mention of that word accusing someone else as a factual indication that they should be removed from the platform. So a lot of our models are based around, number one: Is this account associated with a violent extremist group? And if so, we can take action. And we have done so on the KKK and the American Nazi Party and others. And number two: Are they using imagery or conduct that would associate them as such as well?
JD: Temos diretrizes relativas a grupos extremistas violentos e a maior parte do nosso trabalho e das nossas condições de funcionamento estão ligados à conduta, não ao conteúdo. Estamos a olhar para a conduta. Conduta é usar o serviço para intimidar alguém repetidamente ou de forma pontual, usar imagens de ódio que poderão estar associadas ao KKK ou ao Partido Nazi Americano. Nós agimos imediatamente contra estas coisas. Estamos numa situação agora em que esse termo é usado de forma vaga mas nós não podemos considerar qualquer pessoa que use essa palavra para acusar outra pessoa como uma indicação factual de que devem ser retirados da plataforma. Muitos dos nossos modelos são baseados em, número um: Esta conta está associada a um grupo extremista violento? Se sim, podemos agir. Fizemos isto com o KKK, o Partido Nazi Americano e outros. Número dois: Estão a usar imagens ou conduta que também os associaria a tal?
CA: How many people do you have working on content moderation to look at this?
CA: Quantas pessoas têm a trabalhar na moderação de conteúdos, para ver isso?
JD: It varies. We want to be flexible on this, because we want to make sure that we're, number one, building algorithms instead of just hiring massive amounts of people, because we need to make sure that this is scalable, and there are no amount of people that can actually scale this. So this is why we've done so much work around proactive detection of abuse that humans can then review. We want to have a situation where algorithms are constantly scouring every single tweet and bringing the most interesting ones to the top so that humans can bring their judgment to whether we should take action or not, based on our terms of service.
JD: Depende. Queremos ser flexíveis nisto, porque queremos ter a certeza de que estamos, número um, a construir algoritmos em vez de contratar imensas pessoas porque temos de ter a certeza que podemos alargar isso e não há nenhum número de pessoas que consiga alargar isso. Foi por isso que fizemos tanto trabalho à volta da deteção proativa de insultos que possam ser revistos por pessoass. Queremos ter uma situação em que haja algoritmos constantemente a filtrar cada "tweet" e a destacar os mais interessantes para que seres humanos possam julgar se devemos agir ou não, com base nas nossas condições de serviço.
WPR: But there's not an amount of people that are scalable, but how many people do you currently have monitoring these accounts, and how do you figure out what's enough?
WPR: Não há um número de pessoas que possa aumentar mas quantas pessoas têm vocês agora a monitorizar essas contas e como conseguem perceber quando esse número é suficiente?
JD: They're completely flexible. Sometimes we associate folks with spam. Sometimes we associate folks with abuse and harassment. We're going to make sure that we have flexibility in our people so that we can direct them at what is most needed. Sometimes, the elections. We've had a string of elections in Mexico, one coming up in India, obviously, the election last year, the midterm election, so we just want to be flexible with our resources. So when people -- just as an example, if you go to our current terms of service and you bring the page up, and you're wondering about abuse and harassment that you just received and whether it was against our terms of service to report it, the first thing you see when you open that page is around intellectual property protection. You scroll down and you get to abuse, harassment and everything else that you might be experiencing.
JD: É uma coisa completamente flexível. Às vezes associamos pessoas a "spam". Às vezes associamos pessoas a insultos e intimidação. Vamos garantir que temos flexibilidade quanto às pessoas que temos para as direcionarmos para onde são precisas. Às vezes, para as eleições. Tivemos uma série de eleições no México, vai haver uma na Índia. Obviamente, as eleições do ano passado, as eleições intercalares por isso queremos ser flexíveis com os recursos. Quando as pessoas, por exemplo, forem aos nossos termos de serviço atuais e abrirem a página e estiverem a pensar nos insultos ou intimidações que receberem, se isso vai contra os nossos termos de serviço, para o denunciarem, a primeira coisa que veem ao abrir a página é sobre a proteção da propriedade intelectual. A seguir, veem a parte dos insultos, da intimidação e de tudo a que podem estar sujeitos.
So I don't know how that happened over the company's history, but we put that above the thing that people want the most information on and to actually act on. And just our ordering shows the world what we believed was important. So we're changing all that. We're ordering it the right way, but we're also simplifying the rules so that they're human-readable so that people can actually understand themselves when something is against our terms and when something is not. And then we're making -- again, our big focus is on removing the burden of work from the victims. So that means push more towards technology, rather than humans doing the work -- that means the humans receiving the abuse and also the humans having to review that work. So we want to make sure that we're not just encouraging more work around something that's super, super negative, and we want to have a good balance between the technology and where humans can actually be creative, which is the judgment of the rules, and not just all the mechanical stuff of finding and reporting them. So that's how we think about it.
Não sei como isso aconteceu no decorrer da história da empresa mas pusemos isso acima do que as pessoas querem ou seja, mais informação e mais capacidade de ação. A nossa ordem mostra ao mundo o que acreditamos ser mais importante. Estamos a mudar tudo isso. Estamos a ordenar da forma certa mas também estamos a simplificar as regras para que sejam compreensíveis para que as pessoas compreendam quando algo é contrário aos nossos termos e quando não é. Estamos a fazer isso. De novo, o grande foco é tirar o peso do trabalho de cima das vítimas. Isso significa mais foco na tecnologia do que em pessoas a trabalharem, ou seja, as pessoas que são insultadas e as pessoas que reveem esse trabalho. Queremos assegurar que não estamos a incentivar mais trabalho à volta de algo extremamente negativo e queremos ter um bom equilíbrio entre a tecnologia e aquilo em que os seres humanos podem ser criativos que é a julgarem as regras e não na parte mecânica de encontrar e denunciar. É assim que nós vemos isto.
CA: I'm curious to dig in more about what you said. I mean, I love that you said you are looking for ways to re-tweak the fundamental design of the system to discourage some of the reactive behavior, and perhaps -- to use Tristan Harris-type language -- engage people's more reflective thinking. How far advanced is that? What would alternatives to that "like" button be?
CA: Gostava de aprofundar o que acabaste de dizer. Adoro teres dito que estão à procura de formas de mudar o "design" fundamental do sistema para desencoraja comportamento reativo - e usando uma linguagem do tipo de Tristan Harris - envolver talvez um pensamento mais reflexivo das pessoas. Em que ponto é que isso está? Quais seriam as alternativas ao botão do "like"?
JD: Well, first and foremost, my personal goal with the service is that I believe fundamentally that public conversation is critical. There are existential problems facing the world that are facing the entire world, not any one particular nation-state, that global public conversation benefits. And that is one of the unique dynamics of Twitter, that it is completely open, it is completely public, it is completely fluid, and anyone can see any other conversation and participate in it. So there are conversations like climate change. There are conversations like the displacement in the work through artificial intelligence. There are conversations like economic disparity. No matter what any one nation-state does, they will not be able to solve the problem alone. It takes coordination around the world, and that's where I think Twitter can play a part.
JD: Bem, primeiro que tudo, o meu objetivo pessoal com o serviço é que acredito fundamentalmente que as conversas públicas são cruciais. Há problemas existenciais no mundo que são enfrentados pelo mundo todo, não só por um estado-nação, que as conversas públicas globais beneficiam. Isto é uma das dinâmicas únicas do Twitter que é completamente aberto, completamente público, completamente fluido e todos podem ver as conversas e participar nelas. Há conversas sobre a alteração climática. Há conversas sobre a deslocalização do trabalho devido à inteligência artificial. Há conversas sobre a disparidade económica. Independentemente do que um estado-nação faz, não conseguirão resolver o problema sozinhos. É necessário coordenação em todo o mundo e é aí que o Twitter pode desempenhar um papel.
The second thing is that Twitter, right now, when you go to it, you don't necessarily walk away feeling like you learned something. Some people do. Some people have a very, very rich network, a very rich community that they learn from every single day. But it takes a lot of work and a lot of time to build up to that. So we want to get people to those topics and those interests much, much faster and make sure that they're finding something that, no matter how much time they spend on Twitter -- and I don't want to maximize the time on Twitter, I want to maximize what they actually take away from it and what they learn from it, and --
A segunda coisa é que, quando vamos ao Twitter nem sempre saímos de lá a sentir que aprendemos alguma coisa. Algumas pessoas sim. Algumas pessoas têm uma rede muito rica, uma comunidade muito rica na qual aprendem todos os dias. Mas é preciso muito trabalho e muito tempo para construir isso. Então queremos pôr as pessoas nesses tópicos e nesses interesses muito mais rapidamente e certificar que elas estão a encontrar qualquer coisa que, independentemente do tempo que estão no Twitter - e eu não quero maximizar o tempo no Twitter, quero maximizar o que as pessoas tiram dele e o que aprendem dele.
CA: Well, do you, though? Because that's the core question that a lot of people want to know. Surely, Jack, you're constrained, to a huge extent, by the fact that you're a public company, you've got investors pressing on you, the number one way you make your money is from advertising -- that depends on user engagement. Are you willing to sacrifice user time, if need be, to go for a more reflective conversation?
CA: Mas queres mesmo? Porque essa é a questão central que muitas pessoas querem saber. Jack, vocês estão certamente limitados em grande medida pelo facto de serem uma empresa pública, têm investidores a pressionarem-vos, a maior forma de ganharem dinheiro é através de publicidade, o que depende do envolvimento do utilizador. Estão prontos a abdicar do tempo dos utilizadores, se necessário, para conseguirem uma conversa mais reflexiva?
JD: Yeah; more relevance means less time on the service, and that's perfectly fine, because we want to make sure that, like, you're coming to Twitter, and you see something immediately that you learn from and that you push. We can still serve an ad against that. That doesn't mean you need to spend any more time to see more. The second thing we're looking at --
JD: Sim, mais relevância significa menos tempo no serviço e não tem qualquer problema porque queremos garantir que chegam ao Twitter, e veem imediatamente algo que aprendem e que passam. Podemos passar um anúncio na mesma. Não significa que temos de gastar mais tempo para ver mais. O segundo ponto que estamos a ver...
CA: But just -- on that goal, daily active usage, if you're measuring that, that doesn't necessarily mean things that people value every day. It may well mean things that people are drawn to like a moth to the flame, every day. We are addicted, because we see something that pisses us off, so we go in and add fuel to the fire, and the daily active usage goes up, and there's more ad revenue there, but we all get angrier with each other. How do you define ... "Daily active usage" seems like a really dangerous term to be optimizing.
CA: Relativamente a esse objetivo, utilização ativa diária, se estão a medir isso, não significa necessariamente coisas que as pessoas valorizem todos os dias. Pode significar coisas que atraem pessoas como a luz atrai a traça, todos os dias. Estamos viciados porque vemos algo que nos irrita, entramos ali e deitamos lenha na fogueira, e a utilização ativa diária cresce e há mais receita de anúncios, mas estamos todos zangados uns com os outros. Como defines "utilização ativa diária"? Parece ser um termo muito perigoso para otimizar.
(Applause)
(Aplausos)
JD: Taken alone, it is, but you didn't let me finish the other metric, which is, we're watching for conversations and conversation chains. So we want to incentivize healthy contribution back to the network, and what we believe that is is actually participating in conversation that is healthy, as defined by those four indicators I articulated earlier.
JD: Visto isoladamente, é, mas não me deixaram acabar a outra métrica que é estarmos a ver as conversas e as cadeias de conversas. Queremos incentivar contribuições saudáveis de novo na rede e o que nós acreditamos ser participar numa conversa que é saudável, como definida naqueles quatro indicadores que mencionei antes.
So you can't just optimize around one metric. You have to balance and look constantly at what is actually going to create a healthy contribution to the network and a healthy experience for people. Ultimately, we want to get to a metric where people can tell us, "Hey, I learned something from Twitter, and I'm walking away with something valuable." That is our goal ultimately over time, but that's going to take some time.
Não é possível otimizar à volta de uma só métrica. É preciso equilibrar e olhar constantemente para o que vai criar uma contribuição saudável para a rede e uma experiência saudável para as pessoas. No fundo, queremos uma métrica em que as pessoas nos digam: "Aprendi uma coisa no Twitter e levo comigo algo valioso." Este é o nosso objetivo ao longo do tempo mas isso vai demorar algum tempo.
CA: You come over to many, I think to me, as this enigma. This is possibly unfair, but I woke up the other night with this picture of how I found I was thinking about you and the situation, that we're on this great voyage with you on this ship called the "Twittanic" --
CA: Penso que muitos veem isso como um enigma. Talvez seja injusto mas acordei uma noite com uma imagem de como pensava sobre ti e sobre esta situação. Estávamos numa grande viagem num barco chamado "Twittanic"...
(Laughter)
(Risos)
and there are people on board in steerage who are expressing discomfort, and you, unlike many other captains, are saying, "Well, tell me, talk to me, listen to me, I want to hear." And they talk to you, and they say, "We're worried about the iceberg ahead." And you go, "You know, that is a powerful point, and our ship, frankly, hasn't been built properly for steering as well as it might." And we say, "Please do something." And you go to the bridge, and we're waiting, and we look, and then you're showing this extraordinary calm, but we're all standing outside, saying, "Jack, turn the fucking wheel!"
e havia pessoas a bordo na terceira classe que se queixavam de desconforto. Ao contrário dos outros capitães, tu dizias: "Digam-me, falem comigo, ouçam-me, eu quero ouvir." E eles falam e dizem: "Estamos preocupados com o icebergue ali à frente." E tu dizes: "Sabem, é uma boa observação, "o nosso navio não foi construído adequadamente "para a terceira classe como devia." Nós dizemos: "Faz algo." Tu vais para a ponte e nós ficamos à espera, olhamos e tu estás a mostrar esta calma extraordinária mas nós estamos todos cá fora a dizer: "Jack, gira a porra do leme!"
You know?
Percebes?
(Laughter)
(Risos)
(Applause)
(Aplausos)
I mean --
Ou seja...
(Applause)
(Aplausos)
It's democracy at stake. It's our culture at stake. It's our world at stake. And Twitter is amazing and shapes so much. It's not as big as some of the other platforms, but the people of influence use it to set the agenda, and it's just hard to imagine a more important role in the world than to ... I mean, you're doing a brilliant job of listening, Jack, and hearing people, but to actually dial up the urgency and move on this stuff -- will you do that?
É a democracia que está em risco. É a nossa cultura em risco. É o nosso mundo em risco. O Twitter é fantástico e modela muito. Não é tão grande como outras plataformas mas as pessoas com influência usam-no para definir um programa, e é difícil imaginar um papel mais importante no mundo. Estás a fazer um trabalho brilhante a ouvir as pessoas, Jack, mas vais marcar como urgente e fazer algo? Vais fazer isso?
JD: Yes, and we have been moving substantially. I mean, there's been a few dynamics in Twitter's history. One, when I came back to the company, we were in a pretty dire state in terms of our future, and not just from how people were using the platform, but from a corporate narrative as well. So we had to fix a bunch of the foundation, turn the company around, go through two crazy layoffs, because we just got too big for what we were doing, and we focused all of our energy on this concept of serving the public conversation. And that took some work. And as we dived into that, we realized some of the issues with the fundamentals. We could do a bunch of superficial things to address what you're talking about, but we need the changes to last, and that means going really, really deep and paying attention to what we started 13 years ago and really questioning how the system works and how the framework works and what is needed for the world today, given how quickly everything is moving and how people are using it. So we are working as quickly as we can, but quickness will not get the job done. It's focus, it's prioritization, it's understanding the fundamentals of the network and building a framework that scales and that is resilient to change, and being open about where we are and being transparent about where are so that we can continue to earn trust.
JD: Sim, nós temos mudado substancialmente. Houve algumas dinâmicas na história do Twitter. Uma, quando voltei para a empresa, estávamos num momento difícil em termos do nosso futuro e não só de como as pessoas estavam a usar a plataforma mas também quanto à narrativa corporativa. Tivemos de reparar grande parte da base, dar a volta à empresa, passar por duas loucas reduções de pessoal porque éramos grandes demais para o que estávamos a fazer e concentrámos toda a nossa energia neste conceito de servir a conversa pública. Foi preciso algum trabalho. Quando mergulhámos nisso, reparámos nalguns problemas com os princípios. Podíamos fazer um monte de coisas superficiais para tratar do que falaste mas precisamos que as mudanças durem e isso significa ir mesmo ao fundo e prestar atenção ao que iniciámos há 13 anos e questionar a sério como o sistema funciona e como o enquadramento funciona e o que é preciso para o mundo de hoje, dada a velocidade com que tudo se move e como as pessoas estão a usá-lo. Trabalhamos tão depressa quanto possível mas não é a rapidez que vai fazer o trabalho. É a concentração, o estabelecimento de prioridades, é compreender os princípios da rede e construir um enquadramento que possa crescer e que seja resistente à mudança e aberto sobre onde estamos, transparente sobre onde estamos para continuarmos a ganhar confiança.
So I'm proud of all the frameworks that we've put in place. I'm proud of our direction. We obviously can move faster, but that required just stopping a bunch of stupid stuff we were doing in the past.
Tenho orgulho em todos os enquadramentos que implementámos. Tenho orgulho na nossa direção. Claro que podemos andar mais depressa mas isto exige abandonar uma série de coisas parvas que fizemos no passado.
CA: All right. Well, I suspect there are many people here who, if given the chance, would love to help you on this change-making agenda you're on, and I don't know if Whitney -- Jack, thank you for coming here and speaking so openly. It took courage. I really appreciate what you said, and good luck with your mission.
CA: Ok. Eu suspeito que há muitas pessoas aqui que, se pudessem, adorariam ajudar-te neste plano de mudanças em que estás e não sei se a Whitney... Jack, obrigado por vires aqui e falares tão abertamente. É preciso coragem. Dou muito valor ao que disseste e boa sorte com a tua missão.
JD: Thank you so much. Thanks for having me.
JD: Muito obrigado. Obrigado pelo convite.
(Applause)
(Aplausos)
Thank you.
Obrigado.