Chris Anderson: What worries you right now? You've been very open about lots of issues on Twitter. What would be your top worry about where things are right now?
Chris Anderson: Qual é a sua preocupação atual? Você tem sido bastante aberto sobre muitos problemas do Twitter. Qual seria a sua maior preocupação sobre como as coisas estão hoje?
Jack Dorsey: Right now, the health of the conversation. So, our purpose is to serve the public conversation, and we have seen a number of attacks on it. We've seen abuse, we've seen harassment, we've seen manipulation, automation, human coordination, misinformation. So these are all dynamics that we were not expecting 13 years ago when we were starting the company. But we do now see them at scale, and what worries me most is just our ability to address it in a systemic way that is scalable, that has a rigorous understanding of how we're taking action, a transparent understanding of how we're taking action and a rigorous appeals process for when we're wrong, because we will be wrong.
Jack Dorsey: Neste momento, é a saúde da conversa. Nosso propósito é servir à conversa pública, e temos visto muitos ataques nela. Temos visto insulto, assédio, manipulação, automação, coordenação humana e desinformação. Todas essas são dinâmicas que não esperávamos 13 anos atrás, quando começamos a empresa. Mas agora vemos isso em grande escala, e o que mais me preocupa é a nossa capacidade de resolver isso de forma sistêmica, em grande escala, que tenha uma compreensão rigorosa de como estamos agindo, uma compreensão transparente de como estamos agindo e um processo rigoroso de contestação para quando errarmos, porque vamos errar.
Whitney Pennington Rodgers: I'm really glad to hear that that's something that concerns you, because I think there's been a lot written about people who feel they've been abused and harassed on Twitter, and I think no one more so than women and women of color and black women. And there's been data that's come out -- Amnesty International put out a report a few months ago where they showed that a subset of active black female Twitter users were receiving, on average, one in 10 of their tweets were some form of harassment. And so when you think about health for the community on Twitter, I'm interested to hear, "health for everyone," but specifically: How are you looking to make Twitter a safe space for that subset, for women, for women of color and black women?
Whitney Pennington Rodgers: Que bom ouvir que isso te preocupa, pois muito tem sido escrito sobre pessoas que sentem que tem sido insultadas e assediadas no Twitter, sobretudo mulheres, mulheres de cor e negras. A Anistia Internacional divulgou um relatório há alguns meses apontando um subgrupo de mulheres negras usuárias ativas do Twitter, que, de cada dez tuítes que recebiam, um, em média, era uma forma de assédio. E, quando pensamos em saúde para a comunidade do Twitter, estou interessada em ouvir "saúde para todos", mas especificamente como você tenta fazer do Twitter um espaço seguro para esse subgrupo de mulheres, mulheres de cor e negras?
JD: Yeah. So it's a pretty terrible situation when you're coming to a service that, ideally, you want to learn something about the world, and you spend the majority of your time reporting abuse, receiving abuse, receiving harassment. So what we're looking most deeply at is just the incentives that the platform naturally provides and the service provides. Right now, the dynamic of the system makes it super-easy to harass and to abuse others through the service, and unfortunately, the majority of our system in the past worked entirely based on people reporting harassment and abuse. So about midway last year, we decided that we were going to apply a lot more machine learning, a lot more deep learning to the problem, and try to be a lot more proactive around where abuse is happening, so that we can take the burden off the victim completely. And we've made some progress recently. About 38 percent of abusive tweets are now proactively identified by machine learning algorithms so that people don't actually have to report them. But those that are identified are still reviewed by humans, so we do not take down content or accounts without a human actually reviewing it. But that was from zero percent just a year ago. So that meant, at that zero percent, every single person who received abuse had to actually report it, which was a lot of work for them, a lot of work for us and just ultimately unfair.
JD: Verdade. É uma situação bem terrível quando se acessa um serviço em que se busca, idealmente, aprender algo sobre o mundo, e se passa a maior parte do tempo denunciando e recebendo insultos, sofrendo assédio. Então, nós... estamos procurando mais profundamente os incentivos que a plataforma e o serviço propiciam naturalmente. Atualmente, a dinâmica do sistema torna superfácil assediar e insultar os outros através do serviço, e, infelizmente, boa parte do nosso sistema no passado trabalhou inteiramente com base em pessoas denunciando assédio e insultos. Por isso, em meados do ano passado, decidimos que íamos aplicar muito mais aprendizado de máquina, e aprendizado profundo no problema, e tentar ser muito mais proativos quando o insulto está acontecendo, para que possamos tirar completamente o fardo da vítima. E recentemente fizemos alguns progressos: cerca de 38% dos tuítes insultantes agora são identificados proativamente por algoritmos de aprendizado de máquina para que as pessoas não precisem denunciá-los. Mas aqueles que são identificados ainda são revisados por humanos, por isso não removemos conteúdo ou contas sem a revisão humana. Mas isso era 0% apenas um ano atrás. Ou seja, esse 0% representa que toda pessoa que era insultada tinha de reportá-lo, o que significava muito trabalho para elas e para nós, algo completamente injusto.
The other thing that we're doing is making sure that we, as a company, have representation of all the communities that we're trying to serve. We can't build a business that is successful unless we have a diversity of perspective inside of our walls that actually feel these issues every single day. And that's not just with the team that's doing the work, it's also within our leadership as well. So we need to continue to build empathy for what people are experiencing and give them better tools to act on it and also give our customers a much better and easier approach to handle some of the things that they're seeing. So a lot of what we're doing is around technology, but we're also looking at the incentives on the service: What does Twitter incentivize you to do when you first open it up? And in the past, it's incented a lot of outrage, it's incented a lot of mob behavior, it's incented a lot of group harassment. And we have to look a lot deeper at some of the fundamentals of what the service is doing to make the bigger shifts. We can make a bunch of small shifts around technology, as I just described, but ultimately, we have to look deeply at the dynamics in the network itself, and that's what we're doing.
A outra coisa que estamos fazendo é assegurar que, como empresa, tenhamos representação de todas as comunidades que tentamos atender. Não podemos construir um negócio bem-sucedido sem que tenhamos conosco uma diversidade de perspectivas que sintam de fato esses problemas todos os dias. E isso não é só com a equipe operacional, mas também na liderança da empresa. Precisamos continuar a construir empatia pelo que as pessoas estão experimentando e lhes dar melhores ferramentas para agir e também dar aos nossos clientes uma abordagem melhor e mais fácil para lidar com algumas das coisas que estão vendo. Assim, muito do que estamos fazendo tem a ver com tecnologia, mas também consideramos os incentivos no serviço: o que o Twitter incentiva a pessoa a fazer quando ela o acessa pela primeira vez? No passado, ele incentivou muito disparate, muito comportamento de massa, muito assédio em grupo. Temos de olhar muito mais profundamente alguns dos fundamentos do que o serviço está fazendo para criar as maiores mudanças. Podemos fazer várias pequenas mudanças com a tecnologia, como acabei de descrever, mas, em última análise, temos de observar profundamente a dinâmica da própria rede, e é o que estamos fazendo hoje.
CA: But what's your sense -- what is the kind of thing that you might be able to change that would actually fundamentally shift behavior?
CA: Mas o que na sua opinião você teria condições de alterar que fundamentalmente mudaria o comportamento?
JD: Well, one of the things -- we started the service with this concept of following an account, as an example, and I don't believe that's why people actually come to Twitter. I believe Twitter is best as an interest-based network. People come with a particular interest. They have to do a ton of work to find and follow the related accounts around those interests. What we could do instead is allow you to follow an interest, follow a hashtag, follow a trend, follow a community, which gives us the opportunity to show all of the accounts, all the topics, all the moments, all the hashtags that are associated with that particular topic and interest, which really opens up the perspective that you see. But that is a huge fundamental shift to bias the entire network away from just an account bias towards a topics and interest bias.
JD: Bem, nós começamos o serviço com o conceito de seguir uma conta, como um exemplo, e não acredito que seja por isso que as pessoas acessem o Twitter. Acredito que o Twitter seja melhor como uma rede baseada em interesses. As pessoas o acessam devido a um determinado interesse. Elas têm muito trabalho para encontrar e acompanhar as contas relacionadas a esses interesses. Poderíamos, em vez disso, permitir que seguissem um interesse, seguissem uma hashtag, uma tendência, uma comunidade, o que nos dá a oportunidade de mostrar todas as contas, todos os tópicos, os momentos, todas as hashtags que estão associados àquele determinado tópico e interesse, o que realmente abre a perspectiva que a pessoa vê. Mas essa é uma enorme mudança fundamental, para desviar toda a rede do viés de apenas uma conta para um viés de tópicos e interesses.
CA: Because isn't it the case that one reason why you have so much content on there is a result of putting millions of people around the world in this kind of gladiatorial contest with each other for followers, for attention? Like, from the point of view of people who just read Twitter, that's not an issue, but for the people who actually create it, everyone's out there saying, "You know, I wish I had a few more 'likes,' followers, retweets." And so they're constantly experimenting, trying to find the path to do that. And what we've all discovered is that the number one path to do that is to be some form of provocative, obnoxious, eloquently obnoxious, like, eloquent insults are a dream on Twitter, where you rapidly pile up -- and it becomes this self-fueling process of driving outrage. How do you defuse that?
CA: Mas não é verdade que o fato de haver tanto conteúdo lá é o resultado de se colocar milhões de pessoas do mundo todo num tipo de competição gladiatorial umas com as outras por seguidores, por atenção? Do ponto de vista daqueles que apenas leem o Twitter, isso não é problema, mas, para quem cria tuítes, eles dizem: "Eu gostaria de ter mais curtidas, seguidores, retuítes". Assim, elas constantemente experimentam, tentando encontrar um jeito de fazer isso. E parece que todos descobriram que o melhor jeito é sendo, de alguma forma, provocativo detestável, eloquentemente detestável... insultos eloquentes são um sonho no Twitter e a pessoa se avulta rapidamente, retroalimentando esse processo de estimular ultrajes. Como você neutraliza isso?
JD: Yeah, I mean, I think you're spot on, but that goes back to the incentives. Like, one of the choices we made in the early days was we had this number that showed how many people follow you. We decided that number should be big and bold, and anything that's on the page that's big and bold has importance, and those are the things that you want to drive. Was that the right decision at the time? Probably not. If I had to start the service again, I would not emphasize the follower count as much. I would not emphasize the "like" count as much. I don't think I would even create "like" in the first place, because it doesn't actually push what we believe now to be the most important thing, which is healthy contribution back to the network and conversation to the network, participation within conversation, learning something from the conversation. Those are not things that we thought of 13 years ago, and we believe are extremely important right now.
JD: Sim, acho que você foi ao ponto, mas isso remonta aos incentivos. Uma das escolhas que fizemos no início foi mostrar o número de seguidores. Decidimos que esse número deveria ser grande e ambicioso, e qualquer coisa numa página grande e ambiciosa teria importância, e a pessoa buscaria atrair essas coisas. Foi uma decisão acertada na época? Provavelmente não. Se tivesse de recomeçar o Twitter, não enfatizaria tanto o número de seguidores, nem o número de curtidas. Pra começar, acho que nem criaria as curtidas, porque elas não estimulam aquilo que agora acreditamos ser o mais importante, que é a contribuição saudável para a rede, conversa dentro da rede, participação dentro da conversa, e aprender algo com essa conversa. Não consideramos essas coisas há 13 anos, mas hoje acreditamos que sejam extremamente importantes.
So we have to look at how we display the follower count, how we display retweet count, how we display "likes," and just ask the deep question: Is this really the number that we want people to drive up? Is this the thing that, when you open Twitter, you see, "That's the thing I need to increase?" And I don't believe that's the case right now.
Então temos de ver como mostramos a conta do seguidor, a contagem de retuítes, como mostramos as curtidas, e nos perguntar seriamente: esse é realmente o número que queremos que as pessoas alcancem? É isso o que a pessoa, quando abre o Twitter, pensa: "É isso o que eu preciso aumentar?" E não acredito que seja o caso agora.
(Applause)
(Aplausos)
WPR: I think we should look at some of the tweets that are coming in from the audience as well.
WPR: Vamos ver alguns dos tuítes chegando com perguntas da plateia também.
CA: Let's see what you guys are asking. I mean, this is -- generally, one of the amazing things about Twitter is how you can use it for crowd wisdom, you know, that more knowledge, more questions, more points of view than you can imagine, and sometimes, many of them are really healthy.
CA: Vejamos o que estão perguntando. Umas das coisas incríveis sobre o Twitter é como podemos usá-lo como inteligência coletiva, sabe, mais conhecimento, mais perguntas, mais opiniões do que se pode imaginar e, às vezes, muitos deles são realmente saudáveis.
WPR: I think one I saw that passed already quickly down here, "What's Twitter's plan to combat foreign meddling in the 2020 US election?" I think that's something that's an issue we're seeing on the internet in general, that we have a lot of malicious automated activity happening. And on Twitter, for example, in fact, we have some work that's come from our friends at Zignal Labs, and maybe we can even see that to give us an example of what exactly I'm talking about, where you have these bots, if you will, or coordinated automated malicious account activity, that is being used to influence things like elections. And in this example we have from Zignal which they've shared with us using the data that they have from Twitter, you actually see that in this case, white represents the humans -- human accounts, each dot is an account. The pinker it is, the more automated the activity is. And you can see how you have a few humans interacting with bots. In this case, it's related to the election in Israel and spreading misinformation about Benny Gantz, and as we know, in the end, that was an election that Netanyahu won by a slim margin, and that may have been in some case influenced by this. And when you think about that happening on Twitter, what are the things that you're doing, specifically, to ensure you don't have misinformation like this spreading in this way, influencing people in ways that could affect democracy?
WPR: Uma das perguntas aqui é: "Qual o plano do Twitter para combater a ingerência estrangeira nas eleições dos EUA em 2020?" Acho que essa é uma questão que vemos na internet em geral, pois há muita atividade maliciosa automatizada acontecendo. E no Twitter, por exemplo, temos um trabalho dos nossos amigos no Zignal Labs, e talvez possamos pegar um exemplo para demonstrar o que estou falando, no qual existem esses "bots", ou atividade de conta automatizada coordenada maliciosa, sendo usados para influenciar, por exemplo, as eleições. E temos um exemplo do Zignal, que eles compartilharam conosco, usando os dados que eles têm do Twitter, e podemos ver que, nesse caso, o branco representa cada ponto como uma conta de humano. Quanto mais rosa, mais automatizada é a atividade e dá pra ver como existem alguns humanos interagindo com bots. Trata-se aqui da eleição em Israel, em que se espalhou desinformação sobre Benny Gantz, e, no final, essa foi uma eleição na qual Netanyahu ganhou por uma pequena margem, e pode ter sido influenciado por isso. E quando pensamos nisso acontecendo no Twitter, o que estão fazendo especificamente para evitar que desinformação assim se espalhe dessa maneira, influenciando as pessoas em maneiras que podem afetar a democracia?
JD: Just to back up a bit, we asked ourselves a question: Can we actually measure the health of a conversation, and what does that mean? And in the same way that you have indicators and we have indicators as humans in terms of are we healthy or not, such as temperature, the flushness of your face, we believe that we could find the indicators of conversational health. And we worked with a lab called Cortico at MIT to propose four starter indicators that we believe we could ultimately measure on the system. And the first one is what we're calling shared attention. It's a measure of how much of the conversation is attentive on the same topic versus disparate. The second one is called shared reality, and this is what percentage of the conversation shares the same facts -- not whether those facts are truthful or not, but are we sharing the same facts as we converse? The third is receptivity: How much of the conversation is receptive or civil or the inverse, toxic? And then the fourth is variety of perspective. So, are we seeing filter bubbles or echo chambers, or are we actually getting a variety of opinions within the conversation? And implicit in all four of these is the understanding that, as they increase, the conversation gets healthier and healthier.
JD: Só para voltar um pouco. Nós nos perguntamos: podemos realmente medir a saúde de uma conversa, e o que isso significa? E da mesma maneira que existem indicadores para medir a saúde dos seres humanos, como temperatura, as faces coradas, acreditamos que poderíamos encontrar os indicadores da saúde conversacional. E trabalhamos com um laboratório chamado Cortico, no MIT, para propor quatro indicadores iniciais que acreditamos que poderiam no final serem medidas no sistema. O primeiro é o que chamamos de atenção compartilhada. Ele mede quanto da conversa tem a ver com o mesmo tópico ou é um disparate. O segundo é chamado realidade compartilhada, que mede qual porcentagem da conversa compartilha os mesmos fatos. Não mede se os fatos são verdadeiros ou não, mas se compartilhamos os mesmos fatos enquanto conversamos. O terceiro é a receptividade: quanto da conversa é receptiva ou civilizada, ou o inverso, tóxica? E o quarto é a variedade de perspectiva. Assim, estamos vendo bolhas de filtro ou câmaras de eco, ou recebendo uma variedade de opiniões dentro da conversa? Está implícito em todos esses quatro o entendimento de que, à medida que eles aumentam, a conversa fica cada vez mais saudável.
So our first step is to see if we can measure these online, which we believe we can. We have the most momentum around receptivity. We have a toxicity score, a toxicity model, on our system that can actually measure whether you are likely to walk away from a conversation that you're having on Twitter because you feel it's toxic, with some pretty high degree. We're working to measure the rest, and the next step is, as we build up solutions, to watch how these measurements trend over time and continue to experiment. And our goal is to make sure that these are balanced, because if you increase one, you might decrease another. If you increase variety of perspective, you might actually decrease shared reality.
Então, nosso primeiro passo é ver se podemos medir isso on-line, o que acreditamos poder. Estamos num ótimo momento no que se refere à receptividade. Temos uma pontuação de toxicidade, um modelo de toxicidade, em nosso sistema que pode medir de fato a chance de a pessoa se afastar de uma conversa que está tendo no Twitter, por sentir que é tóxica, num grau bastante preciso. Estamos trabalhando para medir o resto, e o próximo passo é, enquanto construímos soluções, ver como essas medidas se comportam ao longo do tempo e continuar a testar. E nosso objetivo é garantir que os indicadores estejam equilibrados, porque, se aumentarmos um, podemos diminuir outro. Se aumentarmos a variedade de perspectiva, podemos acabar diminuindo a realidade compartilhada.
CA: Just picking up on some of the questions flooding in here.
CA: Só para pegar algumas das inúmeras perguntas aqui.
JD: Constant questioning.
JD: Questionamento constante.
CA: A lot of people are puzzled why, like, how hard is it to get rid of Nazis from Twitter?
CA: Muitas pessoas estão intrigadas em saber quão difícil é se livrar de nazistas no Twitter.
JD: (Laughs)
JD: (Risos)
So we have policies around violent extremist groups, and the majority of our work and our terms of service works on conduct, not content. So we're actually looking for conduct. Conduct being using the service to repeatedly or episodically harass someone, using hateful imagery that might be associated with the KKK or the American Nazi Party. Those are all things that we act on immediately. We're in a situation right now where that term is used fairly loosely, and we just cannot take any one mention of that word accusing someone else as a factual indication that they should be removed from the platform. So a lot of our models are based around, number one: Is this account associated with a violent extremist group? And if so, we can take action. And we have done so on the KKK and the American Nazi Party and others. And number two: Are they using imagery or conduct that would associate them as such as well?
Temos políticas para grupos extremistas violentos, e a maior parte do nosso trabalho e dos nossos termos de serviço trabalha na conduta, não no conteúdo. Então, realmente focamos a conduta. Conduta na utilização do serviço, repetidamente ou ocasionalmente assediar alguém, usar imagens cheias de ódio que possam estar associadas ao KKK ou ao Partido Nazista Americano. Tudo isso são coisas nas quais agimos imediatamente. Estamos numa situação em que esse termo é usado de forma bastante frouxa, e não podemos aceitar simplesmente a palavra de uma pessoa para acusar uma outra como uma indicação fatual de que esta deva ser removida da plataforma. Então muitos dos nossos modelos baseiam-se, primeiro: essa conta está associada a um grupo extremista violento? E, se for o caso, podemos agir. E fizemos isso com o KKK e o Partido Nazista Americano e outros. Segundo: eles estão usando imagens ou tendo condutas que os associariam a isso também?
CA: How many people do you have working on content moderation to look at this?
CA: Quantas pessoas trabalham na moderação de conteúdo, cuidando disso?
JD: It varies. We want to be flexible on this, because we want to make sure that we're, number one, building algorithms instead of just hiring massive amounts of people, because we need to make sure that this is scalable, and there are no amount of people that can actually scale this. So this is why we've done so much work around proactive detection of abuse that humans can then review. We want to have a situation where algorithms are constantly scouring every single tweet and bringing the most interesting ones to the top so that humans can bring their judgment to whether we should take action or not, based on our terms of service.
JD: Isso varia. Queremos ser flexíveis nisso, porque queremos ter certeza de estarmos, primeiramente, construindo algoritmos em vez de apenas contratar um número enorme de pessoas, porque precisamos ter certeza de que isso pode ser ajustado, e não há um número de pessoas que se possa ajustar a isso. Por isso trabalhamos muito na detecção proativa do insulto que humanos possam rever. Queremos ter uma situação em que os algoritmos vasculhem constantemente cada tuíte, trazendo os mais interessantes para o topo para que humanos possam avaliar, para saber se devemos agir ou não, com base em nossos termos de serviço.
WPR: But there's not an amount of people that are scalable, but how many people do you currently have monitoring these accounts, and how do you figure out what's enough?
WPR: Pode não haver uma quantidade ajustável de pessoas, mas quantas vocês têm atualmente monitorando essas contas, e como sabem que é suficiente?
JD: They're completely flexible. Sometimes we associate folks with spam. Sometimes we associate folks with abuse and harassment. We're going to make sure that we have flexibility in our people so that we can direct them at what is most needed. Sometimes, the elections. We've had a string of elections in Mexico, one coming up in India, obviously, the election last year, the midterm election, so we just want to be flexible with our resources. So when people -- just as an example, if you go to our current terms of service and you bring the page up, and you're wondering about abuse and harassment that you just received and whether it was against our terms of service to report it, the first thing you see when you open that page is around intellectual property protection. You scroll down and you get to abuse, harassment and everything else that you might be experiencing.
JD: Elas são completamente flexíveis. Às vezes as designamos para spam, outras vezes para insulto e assédio. Buscamos ser flexíveis com nosso pessoal de modo a direcioná-lo para o que for mais necessário. Às vezes, são as eleições. Tivemos uma sequência de eleições no México, uma em breve na Índia, obviamente as eleições legislativas do ano passado, então nós queremos ser flexíveis com nossos recursos. Apenas como um exemplo, se você consultar nossos termos de serviço atuais e rolar a página para cima, e estiver se perguntando sobre o insulto ou assédio que acabou de sofrer para saber se denunciá-lo é contra nossos termos de serviço, a primeira coisa que vai ver ao abrir essa página é sobre proteção da propriedade intelectual. Ao rolar para baixo, vai ler sobre insulto, assédio ou qualquer outra coisa que possa estar sofrendo.
So I don't know how that happened over the company's history, but we put that above the thing that people want the most information on and to actually act on. And just our ordering shows the world what we believed was important. So we're changing all that. We're ordering it the right way, but we're also simplifying the rules so that they're human-readable so that people can actually understand themselves when something is against our terms and when something is not. And then we're making -- again, our big focus is on removing the burden of work from the victims. So that means push more towards technology, rather than humans doing the work -- that means the humans receiving the abuse and also the humans having to review that work. So we want to make sure that we're not just encouraging more work around something that's super, super negative, and we want to have a good balance between the technology and where humans can actually be creative, which is the judgment of the rules, and not just all the mechanical stuff of finding and reporting them. So that's how we think about it.
Não sei bem como isso aconteceu ao longo da história da empresa, mas colocamos isso acima da coisa que as pessoas querem, mais informações sobre isso e como agir. E a nossa forma de ordenar isso mostra o que acreditávamos ser importante. Estamos mudando tudo isso. Estamos ordenando do jeito certo, mas também simplificando as regras para que sejam legíveis para as pessoas e que elas consigam de fato entender quando algo é contra nossos termos e quando não é. E estamos fazendo... novamente, nosso grande foco é remover o peso do trabalho das vítimas. E isso significa usar mais tecnologia, em vez de seres humanos, o que significa seres humanos sofrendo insulto e tendo de rever esse trabalho. Assim, queremos assegurar que não estamos apenas incentivando mais trabalho em torno de algo que é supernegativo e queremos um bom equilíbrio entre a tecnologia e onde os humanos podem ser criativos, que é o julgamento das regras, e não apenas toda a coisa mecânica de encontrá-los e reportá-los. É isso que pensamos.
CA: I'm curious to dig in more about what you said. I mean, I love that you said you are looking for ways to re-tweak the fundamental design of the system to discourage some of the reactive behavior, and perhaps -- to use Tristan Harris-type language -- engage people's more reflective thinking. How far advanced is that? What would alternatives to that "like" button be?
CA: Gostaria de explorar mais isso. Adorei o que disse sobre procurar maneiras para reajustar o design fundamental do sistema para desencorajar alguns dos comportamento reativos e talvez, para usar termos de Tristan Harris, atrair o pensamento mais reflexivo das pessoas. Como estão os avanços nisso? Quais seriam as alternativas para aquele botão "curtir"?
JD: Well, first and foremost, my personal goal with the service is that I believe fundamentally that public conversation is critical. There are existential problems facing the world that are facing the entire world, not any one particular nation-state, that global public conversation benefits. And that is one of the unique dynamics of Twitter, that it is completely open, it is completely public, it is completely fluid, and anyone can see any other conversation and participate in it. So there are conversations like climate change. There are conversations like the displacement in the work through artificial intelligence. There are conversations like economic disparity. No matter what any one nation-state does, they will not be able to solve the problem alone. It takes coordination around the world, and that's where I think Twitter can play a part.
JD: Bem, em primeiro lugar, meu objetivo pessoal com o serviço é que acredito fundamentalmente que a conversa pública é crucial. O mundo inteiro está enfrentando problemas existenciais, não apenas um estado-nação em particular, de que o debate público global se beneficia. E essa é uma das dinâmicas únicas do Twitter: ser completamente aberto, completamente público, fluído, e qualquer um pode ver qualquer conversa e participar dela. Há conversas como a mudança climática. Há conversas como perda de vagas de emprego por causa da inteligência artificial. Há conversas como disparidade econômica. Não importa o que qualquer estado-nação faça, ele não será capaz de resolver o problema sozinho. É preciso coordenação com o resto do mundo, e é aí que acho que o Twitter pode desempenhar um papel.
The second thing is that Twitter, right now, when you go to it, you don't necessarily walk away feeling like you learned something. Some people do. Some people have a very, very rich network, a very rich community that they learn from every single day. But it takes a lot of work and a lot of time to build up to that. So we want to get people to those topics and those interests much, much faster and make sure that they're finding something that, no matter how much time they spend on Twitter -- and I don't want to maximize the time on Twitter, I want to maximize what they actually take away from it and what they learn from it, and --
A segunda coisa é que o Twitter, como é hoje, quando você acessa, não sai sentindo necessariamente que aprendeu alguma coisa. Algumas pessoas sentem e possuem uma rede muito rica, uma comunidade muito rica com a qual aprendem todos os dias. Mas é preciso muito trabalho e muito tempo para construir isso. Queremos levar as pessoas para esses tópicos e interesses de forma muito mais rápida e assegurar que elas encontrem algo que, não importa quanto tempo elas passem no Twitter, e não quero maximizar o tempo no Twitter, quero maximizar o que elas realmente tiram de lá e o que aprendem com isso, e...
CA: Well, do you, though? Because that's the core question that a lot of people want to know. Surely, Jack, you're constrained, to a huge extent, by the fact that you're a public company, you've got investors pressing on you, the number one way you make your money is from advertising -- that depends on user engagement. Are you willing to sacrifice user time, if need be, to go for a more reflective conversation?
CA: Bem, essa é a questão central que muita gente quer saber. Certamente, Jack, você está limitado, em grande medida, pelo fato de ser uma empresa pública, ter investidores te pressionando, sua principal fonte de dinheiro ser a publicidade e isso depende do envolvimento do usuário. Você está disposto a sacrificar o tempo do usuário, se necessário, para ir para uma conversa mais reflexiva?
JD: Yeah; more relevance means less time on the service, and that's perfectly fine, because we want to make sure that, like, you're coming to Twitter, and you see something immediately that you learn from and that you push. We can still serve an ad against that. That doesn't mean you need to spend any more time to see more. The second thing we're looking at --
JD: Sim, mais relevância significa menos tempo no serviço, e isso está perfeitamente bem, porque queremos ter certeza de que a pessoa acesse o Twitter e veja algo imediatamente com que aprenda e divulgue. Ainda podemos veicular um anúncio aí. Não significa que precisa de mais tempo para ver mais. A segunda coisa...
CA: But just -- on that goal, daily active usage, if you're measuring that, that doesn't necessarily mean things that people value every day. It may well mean things that people are drawn to like a moth to the flame, every day. We are addicted, because we see something that pisses us off, so we go in and add fuel to the fire, and the daily active usage goes up, and there's more ad revenue there, but we all get angrier with each other. How do you define ... "Daily active usage" seems like a really dangerous term to be optimizing.
CA: Nesse objetivo, uso ativo diário, se você está medindo isso, não significa necessariamente coisas que as pessoas valorizam todo dia. Podem ser coisas para as quais as pessoas são atraídas, como a mariposa para a luz, todo dia... somos viciados. Vemos algo que nos irrita, aí entramos e jogamos lenha na fogueira, e o uso ativo diário aumenta, e há mais receita publicitária, mas todos ficamos com mais raiva uns dos outros. Como você define... "uso ativo diário" parece ser realmente um termo perigoso para otimizar.
(Applause)
(Aplausos)
JD: Taken alone, it is, but you didn't let me finish the other metric, which is, we're watching for conversations and conversation chains. So we want to incentivize healthy contribution back to the network, and what we believe that is is actually participating in conversation that is healthy, as defined by those four indicators I articulated earlier.
JD: Tomado sozinho, é, mas você não me deixou terminar a outra métrica, que é estarmos atentos a conversas e cadeias de conversas. Queremos incentivar contribuição saudável de volta à rede, e acreditamos que isso possa ser feito participando de conversas saudáveis, definidas por aqueles quatro indicadores que mencionei anteriormente.
So you can't just optimize around one metric. You have to balance and look constantly at what is actually going to create a healthy contribution to the network and a healthy experience for people. Ultimately, we want to get to a metric where people can tell us, "Hey, I learned something from Twitter, and I'm walking away with something valuable." That is our goal ultimately over time, but that's going to take some time.
Por isso não podemos otimizar apenas uma métrica. Temos de equilibrar e olhar constantemente o que realmente vai criar uma contribuição saudável para a rede e uma experiência saudável para as pessoas. No final, queremos chegar a uma métrica em que as pessoas nos digam: "Ei, aprendi algo no Twitter, e estou saindo com algo de valor". Esse é o nosso objetivo, mas vai levar algum tempo.
CA: You come over to many, I think to me, as this enigma. This is possibly unfair, but I woke up the other night with this picture of how I found I was thinking about you and the situation, that we're on this great voyage with you on this ship called the "Twittanic" --
CA: Para muitos, e para mim, você é um enigma. Isso é possivelmente injusto, mas acordei uma noite dessas com uma imagem de como eu via você e a situação: estamos numa viagem ótima com você num navio chamado "Twittanic"...
(Laughter)
(Risos)
and there are people on board in steerage who are expressing discomfort, and you, unlike many other captains, are saying, "Well, tell me, talk to me, listen to me, I want to hear." And they talk to you, and they say, "We're worried about the iceberg ahead." And you go, "You know, that is a powerful point, and our ship, frankly, hasn't been built properly for steering as well as it might." And we say, "Please do something." And you go to the bridge, and we're waiting, and we look, and then you're showing this extraordinary calm, but we're all standing outside, saying, "Jack, turn the fucking wheel!"
e há pessoas a bordo na terceira classe que estão expressando desconforto, e você, ao contrário de muitos outros comandantes, está dizendo: "Bem, me contem, falem comigo, quero ouvir". E elas dizem: "Estamos preocupados com o iceberg à frente". Você diz: "Essa é uma questão importante, e nosso navio, francamente, não foi feito para ser dirigido como deveria". E lhe pedimos: "Por favor, faça algo". Você vai à cabine de comando, e ficamos esperando, observando e você demonstra uma calma extraordinária, mas todos nós estamos do lado de fora, dizendo: "Jack, vire essa porra de leme!"
You know?
Sabe?
(Laughter)
(Risos)
(Applause)
(Aplausos) (Vivas)
I mean --
(Applause)
It's democracy at stake. It's our culture at stake. It's our world at stake. And Twitter is amazing and shapes so much. It's not as big as some of the other platforms, but the people of influence use it to set the agenda, and it's just hard to imagine a more important role in the world than to ... I mean, you're doing a brilliant job of listening, Jack, and hearing people, but to actually dial up the urgency and move on this stuff -- will you do that?
É a democracia em jogo, é a nossa cultura e nosso mundo em jogo, e o Twitter é incrível e molda muito. Não é tão grande quanto outras plataformas, mas as pessoas de influência usam-no para definir a agenda, e é difícil imaginar um papel mais importante no mundo do que para... quero dizer, você está fazendo um trabalho brilhante de ouvir as pessoas, Jack, mas é preciso ressaltar a urgência e trabalhar nisso. Você pretende fazer isso?
JD: Yes, and we have been moving substantially. I mean, there's been a few dynamics in Twitter's history. One, when I came back to the company, we were in a pretty dire state in terms of our future, and not just from how people were using the platform, but from a corporate narrative as well. So we had to fix a bunch of the foundation, turn the company around, go through two crazy layoffs, because we just got too big for what we were doing, and we focused all of our energy on this concept of serving the public conversation. And that took some work. And as we dived into that, we realized some of the issues with the fundamentals. We could do a bunch of superficial things to address what you're talking about, but we need the changes to last, and that means going really, really deep and paying attention to what we started 13 years ago and really questioning how the system works and how the framework works and what is needed for the world today, given how quickly everything is moving and how people are using it. So we are working as quickly as we can, but quickness will not get the job done. It's focus, it's prioritization, it's understanding the fundamentals of the network and building a framework that scales and that is resilient to change, and being open about where we are and being transparent about where are so that we can continue to earn trust.
JD: Sim, e estamos nos movendo significativamente. Tem havido algumas dinâmicas na história do Twitter. Uma, quando voltei para a empresa, estávamos num estado terrível em termos do nosso futuro, não apenas como as pessoas estavam usando a plataforma, mas nossa narrativa corporativa também. Tivemos de consertar muito da fundação, revirar a empresa, passar por duas demissões em massa malucas, porque ficamos grandes demais para o que estávamos fazendo, e concentramos toda nossa energia no conceito de servir à conversa pública. E isso exigiu muito trabalho. E, quando mergulhamos nisso, percebemos alguns dos problemas com os fundamentos. Poderíamos fazer um monte de coisas superficiais para abordar o que você está falando, mas precisamos de mudanças duradouras, e isso significa ir mais fundo e prestar atenção ao que começamos há 13 anos, questionando de fato como o sistema e a estrutura funcionam e o que é necessário para o mundo hoje, dada a rapidez como tudo está se movendo e as pessoas o estão usando. Trabalhamos o mais rápido possível, mas rapidez não vai resolver. É o foco, é a priorização, é entender os fundamentos da rede e construir uma estrutura que se ajuste, que seja resiliente à mudança, e ser abertos e transparentes sobre onde estamos para que possamos continuar a merecer confiança.
So I'm proud of all the frameworks that we've put in place. I'm proud of our direction. We obviously can move faster, but that required just stopping a bunch of stupid stuff we were doing in the past.
Por isso estou orgulhoso das estruturas que estabelecemos. Estou orgulhoso da nossa direção. Obviamente podemos nos mover mais rápido, mas isso demandaria
CA: All right. Well, I suspect there are many people here who, if given the chance, would love to help you on this change-making agenda you're on, and I don't know if Whitney -- Jack, thank you for coming here and speaking so openly. It took courage. I really appreciate what you said, and good luck with your mission.
simplesmente evitar um monte de coisas estúpidas que fazíamos no passado. CA: Suspeito que há muitas pessoas aqui que, se tivessem a chance, adorariam ajudá-lo nessa sua agenda de mudança e, não sei a Whitney... Jack, obrigado por vir aqui e falar tão abertamente. Foi preciso coragem. Muito obrigado pelo que você falou e boa sorte com sua missão.
JD: Thank you so much. Thanks for having me.
JD: Muito obrigado. Obrigado por me receber.
(Applause)
(Aplausos)
Thank you.
Obrigado.