Chris Anderson: What worries you right now? You've been very open about lots of issues on Twitter. What would be your top worry about where things are right now?
Chris Anderson: Che cosa ti preoccupa ora? Sei stato molto aperto su molti problemi di Twitter. Qual è la tua principale preoccupazione sullo stato delle cose oggi?
Jack Dorsey: Right now, the health of the conversation. So, our purpose is to serve the public conversation, and we have seen a number of attacks on it. We've seen abuse, we've seen harassment, we've seen manipulation, automation, human coordination, misinformation. So these are all dynamics that we were not expecting 13 years ago when we were starting the company. But we do now see them at scale, and what worries me most is just our ability to address it in a systemic way that is scalable, that has a rigorous understanding of how we're taking action, a transparent understanding of how we're taking action and a rigorous appeals process for when we're wrong, because we will be wrong.
Jack Dorsey: Oggi, lo stato di salute del dialogo. Il nostro obiettivo è servire il dialogo pubblico, che è stato attaccato più volte. Ha subito abusi, molestie, manipolazioni, automazioni, disinformazione, coordinamento umano. Sono tutte dinamiche che non ci aspettavamo quando abbiamo fondato l'azienda, 13 anni fa. Oggi ci sono su larga scala, invece, e quello che mi preoccupa di più è la nostra capacità di gestirli in modo sistematico e scalabile, con una comprensione rigorosa di come stiamo intervenendo, una comprensione trasparente di come stiamo intervenendo e un processo di scrutinio rigoroso per quando faremo sbagli. Perché ne faremo, prima o poi.
Whitney Pennington Rodgers: I'm really glad to hear that that's something that concerns you, because I think there's been a lot written about people who feel they've been abused and harassed on Twitter, and I think no one more so than women and women of color and black women. And there's been data that's come out -- Amnesty International put out a report a few months ago where they showed that a subset of active black female Twitter users were receiving, on average, one in 10 of their tweets were some form of harassment. And so when you think about health for the community on Twitter, I'm interested to hear, "health for everyone," but specifically: How are you looking to make Twitter a safe space for that subset, for women, for women of color and black women?
Whitney Pennington Rodgers: sono felice di sentire che è una cosa che ti preoccupa, perché credo sia stato scritto molto di gente che si è sentita aggredita e molestata su Twitter, e credo nessuno più delle donne e delle donne di colore e donne nere. Sono usciti dei dati -- Amnesty International ha pubblicato un rapporto qualche mese fa che mostrava come una serie di donne di colore attive su Twitter, subisca in media, in risposta a un tweet su dieci, una qualche forma di aggressione. Quando pensi allo stato di salute della comunità su Twitter, sono felice di sentire "salute per tutti". Ma nello specifico, come renderai Twitter un luogo più sicuro per quelle donne di colore e donne nere?
JD: Yeah. So it's a pretty terrible situation when you're coming to a service that, ideally, you want to learn something about the world, and you spend the majority of your time reporting abuse, receiving abuse, receiving harassment. So what we're looking most deeply at is just the incentives that the platform naturally provides and the service provides. Right now, the dynamic of the system makes it super-easy to harass and to abuse others through the service, and unfortunately, the majority of our system in the past worked entirely based on people reporting harassment and abuse. So about midway last year, we decided that we were going to apply a lot more machine learning, a lot more deep learning to the problem, and try to be a lot more proactive around where abuse is happening, so that we can take the burden off the victim completely. And we've made some progress recently. About 38 percent of abusive tweets are now proactively identified by machine learning algorithms so that people don't actually have to report them. But those that are identified are still reviewed by humans, so we do not take down content or accounts without a human actually reviewing it. But that was from zero percent just a year ago. So that meant, at that zero percent, every single person who received abuse had to actually report it, which was a lot of work for them, a lot of work for us and just ultimately unfair.
JD: Sì. È una situazione piuttosto terribile quando aderisci a un servizio da cui, idealmente, vuoi imparare qualcosa del mondo, e passi più tempo a segnalare e ricevere molestie, subire violenza. Quello che cerchiamo di approfondire sono gli incentivi che la piattaforma e il servizio forniscono naturalmente. Con la dinamica attuale del sistema, è facilissimo molestare e insultare altri attraverso il servizio. E purtroppo, in passato gran parte del sistema era interamente basato sulla segnalazione di molestie e insulti. A metà dell'anno scorso, abbiamo deciso che avremmo applicato molto più apprendimento automatico, nel trattare la questione, e avremmo cercato di essere molto più proattivi sulle molestie, in modo da farci carico completamente del problema della vittima. Abbiamo fatto progressi recentemente. Il 38 percento circa dei tweet molesti è ora correttamente identificato da algoritmi di apprendimento automatico, così la gente non deve nemmeno segnalarli. Ma quelli che vengono identificati vengono comunque controllati da persone, in modo da non rimuovere contenuti o account senza prima controllare. Siamo partiti da zero solo un anno fa. "Da zero" significa che ogni singolo utente molestato doveva segnalarlo, il che significa impegno degli utenti, e molto lavoro per noi, il che è ingiusto.
The other thing that we're doing is making sure that we, as a company, have representation of all the communities that we're trying to serve. We can't build a business that is successful unless we have a diversity of perspective inside of our walls that actually feel these issues every single day. And that's not just with the team that's doing the work, it's also within our leadership as well. So we need to continue to build empathy for what people are experiencing and give them better tools to act on it and also give our customers a much better and easier approach to handle some of the things that they're seeing. So a lot of what we're doing is around technology, but we're also looking at the incentives on the service: What does Twitter incentivize you to do when you first open it up? And in the past, it's incented a lot of outrage, it's incented a lot of mob behavior, it's incented a lot of group harassment. And we have to look a lot deeper at some of the fundamentals of what the service is doing to make the bigger shifts. We can make a bunch of small shifts around technology, as I just described, but ultimately, we have to look deeply at the dynamics in the network itself, and that's what we're doing.
L'altra cosa che facciamo è assicurarci che in quanto azienda, siamo rappresentati da tutte le comunità che cerchiamo di servire. Non possiamo costruire un'azienda di successo senza una diversità di prospettive nel nostro ufficio, che vive questi problemi quotidianamente. E non solo nel team che fa il lavoro, ma anche tra i leader. Dobbiamo continuare a creare empatia in quello che la gente vive e darle più strumenti per agire e dare anche ai nostri clienti un approccio migliore e più facile per gestire alcune cose che vedono. Molto di quello che facciamo è tecnologico, ma analizziamo anche gli incentivi del servizio: cosa ti spinge a fare, Twitter, la prima volta che lo apri? In passato, ha alimentato offese, ha alimentato movimenti di massa, ha alimentato molestie di gruppo. E dobbiamo approfondire molto le basi di come il servizio agisce per i grandi cambiamenti. Possiamo fare tanti piccoli cambiamenti tecnologici, come ho detto; ma in definitiva dobbiamo approfondire le dinamiche della rete stessa, ed è quello che stiamo facendo.
CA: But what's your sense -- what is the kind of thing that you might be able to change that would actually fundamentally shift behavior?
CA: Ma qual è il senso -- che tipo di cose potreste cambiare che potrebbe modificare il comportamento?
JD: Well, one of the things -- we started the service with this concept of following an account, as an example, and I don't believe that's why people actually come to Twitter. I believe Twitter is best as an interest-based network. People come with a particular interest. They have to do a ton of work to find and follow the related accounts around those interests. What we could do instead is allow you to follow an interest, follow a hashtag, follow a trend, follow a community, which gives us the opportunity to show all of the accounts, all the topics, all the moments, all the hashtags that are associated with that particular topic and interest, which really opens up the perspective that you see. But that is a huge fundamental shift to bias the entire network away from just an account bias towards a topics and interest bias.
JD: Una delle cose -- abbiamo iniziato il servizio con il concetto di seguire un account, ad esempio, e non credo sia questo il motivo per cui la gente arriva su Twitter. Credo che Twitter funzioni meglio come rete basata sugli interessi. La gente arriva con un particolare interesse. Deve impegnarsi molto per trovare e seguire gli account giusti che ruotano attorno a quegli interessi. Potremmo invece consentire di seguire un argomento, seguire un hashtag, seguire un trend, seguire una comunità, il che ci dà l'opportunità di mostrare tutti gli account, tutti gli argomenti, momenti, hashtag associati a quell'interesse, o a quell'argomento, il che allarga le prospettive. Ma è un cambiamento importante spostare l'intera rete dal principio di un solo account al principio di argomento o interesse.
CA: Because isn't it the case that one reason why you have so much content on there is a result of putting millions of people around the world in this kind of gladiatorial contest with each other for followers, for attention? Like, from the point of view of people who just read Twitter, that's not an issue, but for the people who actually create it, everyone's out there saying, "You know, I wish I had a few more 'likes,' followers, retweets." And so they're constantly experimenting, trying to find the path to do that. And what we've all discovered is that the number one path to do that is to be some form of provocative, obnoxious, eloquently obnoxious, like, eloquent insults are a dream on Twitter, where you rapidly pile up -- and it becomes this self-fueling process of driving outrage. How do you defuse that?
CA: Perché non è vero che un motivo per cui avete tanto contenuto è frutto del mettere insieme milioni di persone nel mondo l'uno contro l'altro in questa specie di arena di gladiatori per i follower, per l'attenzione? Dal punto di vista di utenti che leggono solo Twitter, non è un problema, ma per chi lo crea, sono tutti lì a dire, "Sai, vorrei tanto avere più 'like', 'follower', 'retweet'." Quindi continuano a sperimentare, in cerca della strada giusta. Abbiamo scoperto che il modo migliore è essere provocatori, insopportabili, eloquentemente molesti, gli insulti eloquenti sono un sogno su Twitter, si accumula rapidamente -- diventa un processo di rabbia che si auto-alimenta. Come si può disinnescare?
JD: Yeah, I mean, I think you're spot on, but that goes back to the incentives. Like, one of the choices we made in the early days was we had this number that showed how many people follow you. We decided that number should be big and bold, and anything that's on the page that's big and bold has importance, and those are the things that you want to drive. Was that the right decision at the time? Probably not. If I had to start the service again, I would not emphasize the follower count as much. I would not emphasize the "like" count as much. I don't think I would even create "like" in the first place, because it doesn't actually push what we believe now to be the most important thing, which is healthy contribution back to the network and conversation to the network, participation within conversation, learning something from the conversation. Those are not things that we thought of 13 years ago, and we believe are extremely important right now.
JD: Hai colto il punto, ma questo ci riporta agli incentivi. Una delle scelte che abbiamo fatto agli inizi è stata mostrare il numero di follower. Abbiamo deciso che quel numero doveva essere bello grande, e tutto ciò che è bello grande sulla pagina è importante, e quelle sono le cose da spingere. È stata la decisione giusta all'epoca? Probabilmente no. Se dovessi ricominciare, non enfatizzerei così tanto i follower. Non enfatizzerei tanto il conteggio dei 'like'. Non credo nemmeno che creerei i 'like', perché in realtà non spinge quello che ora crediamo sia la cosa più importante, ossia un valido contributo alla rete e al dialogo in rete, la partecipazione alla conversazione, imparare qualcosa dalla conversazione. Non sono cose a cui, 13 anni fa, avevamo pensato e crediamo siano molto importanti ora.
So we have to look at how we display the follower count, how we display retweet count, how we display "likes," and just ask the deep question: Is this really the number that we want people to drive up? Is this the thing that, when you open Twitter, you see, "That's the thing I need to increase?" And I don't believe that's the case right now.
Dobbiamo analizzare come mostriamo i follower, come mostriamo il conteggio dei retweet, come mostriamo i 'like', e porci la domanda importante: è questo il vero numero che vogliamo far aumentare? Aprendo Twitter, è questo il punto centrale: "Che cosa devo far aumentare?" Non credo sia così, ora.
(Applause)
(Applausi)
WPR: I think we should look at some of the tweets that are coming in from the audience as well.
WPR: Credo che dovremmo analizzare alcuni tweet che arrivano dal pubblico.
CA: Let's see what you guys are asking. I mean, this is -- generally, one of the amazing things about Twitter is how you can use it for crowd wisdom, you know, that more knowledge, more questions, more points of view than you can imagine, and sometimes, many of them are really healthy.
CA: Vediamo cosa state chiedendo. Una delle cose straordinarie di Twitter è come si può usare il contributo del pubblico, più conoscenza, più domande, più punti di vista di quanto si possa immaginare. E alcuni, talvolta, sono molto validi.
WPR: I think one I saw that passed already quickly down here, "What's Twitter's plan to combat foreign meddling in the 2020 US election?" I think that's something that's an issue we're seeing on the internet in general, that we have a lot of malicious automated activity happening. And on Twitter, for example, in fact, we have some work that's come from our friends at Zignal Labs, and maybe we can even see that to give us an example of what exactly I'm talking about, where you have these bots, if you will, or coordinated automated malicious account activity, that is being used to influence things like elections. And in this example we have from Zignal which they've shared with us using the data that they have from Twitter, you actually see that in this case, white represents the humans -- human accounts, each dot is an account. The pinker it is, the more automated the activity is. And you can see how you have a few humans interacting with bots. In this case, it's related to the election in Israel and spreading misinformation about Benny Gantz, and as we know, in the end, that was an election that Netanyahu won by a slim margin, and that may have been in some case influenced by this. And when you think about that happening on Twitter, what are the things that you're doing, specifically, to ensure you don't have misinformation like this spreading in this way, influencing people in ways that could affect democracy?
WPR: Uno che ho visto passare velocemente, "Qual è il piano di Twitter per combattere l'ingerenza straniera alle elezioni 2020?" Credo sia un problema per Internet in generale, le attività ostili automatizzate. Su Twitter, per esempio, lavoriamo con i nostri amici di Zignal Labs, magari possiamo anche vedere un esempio di quel che dico. Ci sono questi bot, se volete, o attività ostile automatizzata e coordinata di account che vengono utilizzati per influenzare cose come le elezioni. In questo esempio che Zignal ha condiviso, utilizzando i dati di Twitter, vedete che in questo caso, il bianco rappresenta account di persone, ogni punto è un account. Più è rosa, più l'attività è automatizzata. Vedete che alcune persone interagiscono con i bot. In questo caso, è legato alle elezioni in Israele e la disinformazione diffusa su Benny Gantz, e sappiamo che alle elezioni Netanyahu ha vinto con pochissimo margine, e potrebbe esserne stato influenzato. Se pensate a quello che succede su Twitter, cosa fate, nello specifico, per assicurarvi che non si diffonda disinformazione come questa, che influenza la gente compromettendo la democrazia?
JD: Just to back up a bit, we asked ourselves a question: Can we actually measure the health of a conversation, and what does that mean? And in the same way that you have indicators and we have indicators as humans in terms of are we healthy or not, such as temperature, the flushness of your face, we believe that we could find the indicators of conversational health. And we worked with a lab called Cortico at MIT to propose four starter indicators that we believe we could ultimately measure on the system. And the first one is what we're calling shared attention. It's a measure of how much of the conversation is attentive on the same topic versus disparate. The second one is called shared reality, and this is what percentage of the conversation shares the same facts -- not whether those facts are truthful or not, but are we sharing the same facts as we converse? The third is receptivity: How much of the conversation is receptive or civil or the inverse, toxic? And then the fourth is variety of perspective. So, are we seeing filter bubbles or echo chambers, or are we actually getting a variety of opinions within the conversation? And implicit in all four of these is the understanding that, as they increase, the conversation gets healthier and healthier.
JD: Torniamo indietro un attimo, ci siamo fatti una domanda: possiamo misurare lo stato di salute della conversazione politica, e cosa ne ricaviamo? Così come voi avete indicatori e noi umani abbiamo indicatori dello stato di salute, come la temperatura, il rossore del viso, crediamo di poter trovare degli indicatori dello stato di salute della conversazione. Abbiamo lavorato con un laboratorio di nome Cortico all'MIT per proporre quattro indicatori che crediamo possano misurare il sistema. Il primo è quello che chiamiamo attenzione condivisa. È un indicatore di quanto è concentrata la conversazione sullo stesso argomento, piuttosto che dispersa. Il secondo si chiama realtà condivisa, ed è la percentuale di conversazione che condivide gli stessi fatti -- non se quei fatti sono veri o no, ma se condividiamo gli stessi fatti mentre dialoghiamo. Il terzo è la ricettività: quanto della conversazione è aperta e civile o viceversa, tossica? Il quarto è la diversità di prospettive. Siamo in bolle informative o in echo-chamber, o siamo davvero esposti a una varietà di opinioni, nelle conversazioni? Implicito in tutti e quattro è l'idea che più aumentano, più la conversazione è sana.
So our first step is to see if we can measure these online, which we believe we can. We have the most momentum around receptivity. We have a toxicity score, a toxicity model, on our system that can actually measure whether you are likely to walk away from a conversation that you're having on Twitter because you feel it's toxic, with some pretty high degree. We're working to measure the rest, and the next step is, as we build up solutions, to watch how these measurements trend over time and continue to experiment. And our goal is to make sure that these are balanced, because if you increase one, you might decrease another. If you increase variety of perspective, you might actually decrease shared reality.
Il primo passo è vedere se possiamo misurarle online, e crediamo di poterlo fare. Abbiamo più slancio nella ricettività. Abbiamo una scala o un modello di tossicità, nel nostro sistema che può misurare se stai per andartene dalla conversazione su Twitter perché hai la sensazione che sia tossica, e ha ottime capacità di previsione. Stiamo lavorando alla misurazione del resto. E il prossimo passo, mentre cerchiamo nuove soluzioni, è osservare come variano queste misure nel tempo e continuare a sperimentare. Il nostro obiettivo è assicurarci che siano equilibrate, perché se ne aumenti una, potresti ridurre l'altra. Se aumenta la diversità di prospettiva, potrebbe ridursi la realtà condivisa.
CA: Just picking up on some of the questions flooding in here.
CA: Prendiamo qualcuna delle domande che stanno arrivando.
JD: Constant questioning.
JD: Un continuo di domande.
CA: A lot of people are puzzled why, like, how hard is it to get rid of Nazis from Twitter?
CA: Molti si chiedono perché mai sia così difficile liberare Twitter dai nazisti.
JD: (Laughs)
JD: (Risate)
So we have policies around violent extremist groups, and the majority of our work and our terms of service works on conduct, not content. So we're actually looking for conduct. Conduct being using the service to repeatedly or episodically harass someone, using hateful imagery that might be associated with the KKK or the American Nazi Party. Those are all things that we act on immediately. We're in a situation right now where that term is used fairly loosely, and we just cannot take any one mention of that word accusing someone else as a factual indication that they should be removed from the platform. So a lot of our models are based around, number one: Is this account associated with a violent extremist group? And if so, we can take action. And we have done so on the KKK and the American Nazi Party and others. And number two: Are they using imagery or conduct that would associate them as such as well?
Abbiamo regole per gruppi violenti ed estremisti, e gran parte del nostro lavoro e i termini del servizio funzionano sul comportamento, non sul contenuto. Sono i comportamenti, che cerchiamo. "Comportamento" significa usare questo servizio per molestare qualcuno ripetutamente o episodicamente, usare immagini cariche di odio che potrebbero essere associate al KKK o al Partito Nazista Americano. Sono tutte cose su cui interveniamo immediatamente. Siamo in una situazione in cui il termine viene usato liberamente, e non possiamo intervenire ad ogni uso della parola accusando qualcuno come elemento per rimuoverlo dalla piattaforma. Molti dei nostri modelli sono basati su: Uno, questo account è associato a un gruppo estremista violento? Se così fosse, possiamo intervenire. Lo abbiamo fatto sul KKK, sul Partito Nazista Americano e altri. Due: usano immagini o comportamenti che li associano a questi gruppi?
CA: How many people do you have working on content moderation to look at this?
CA: Quante persone lavorano alla moderazione dei contenuti?
JD: It varies. We want to be flexible on this, because we want to make sure that we're, number one, building algorithms instead of just hiring massive amounts of people, because we need to make sure that this is scalable, and there are no amount of people that can actually scale this. So this is why we've done so much work around proactive detection of abuse that humans can then review. We want to have a situation where algorithms are constantly scouring every single tweet and bringing the most interesting ones to the top so that humans can bring their judgment to whether we should take action or not, based on our terms of service.
JD: Dipende. Vogliamo essere flessibili, perché vogliamo essere certi di costruire algoritmi invece di assumere persone in modo indiscriminato, perché dobbiamo assicurarci che sia scalabile, e non c'è quantità di persone che lo possa fare su larga scala. Ecco perché abbiamo lavorato tanto sulla rilevazione proattiva degli abusi che le persone possono poi controllare. Vogliamo una situazione in cui gli algoritmi setacciano in continuazione ogni singolo tweet portando alla luce i più interessanti in modo che le persone possano valutare se prendere provvedimenti o no, secondo i termini del servizio.
WPR: But there's not an amount of people that are scalable, but how many people do you currently have monitoring these accounts, and how do you figure out what's enough?
WPR: Nessuna quantità di persone funziona su larga scala, ma quante persone avete oggi sul controllo degli account, e come capite quando sono abbastanza?
JD: They're completely flexible. Sometimes we associate folks with spam. Sometimes we associate folks with abuse and harassment. We're going to make sure that we have flexibility in our people so that we can direct them at what is most needed. Sometimes, the elections. We've had a string of elections in Mexico, one coming up in India, obviously, the election last year, the midterm election, so we just want to be flexible with our resources. So when people -- just as an example, if you go to our current terms of service and you bring the page up, and you're wondering about abuse and harassment that you just received and whether it was against our terms of service to report it, the first thing you see when you open that page is around intellectual property protection. You scroll down and you get to abuse, harassment and everything else that you might be experiencing.
JD: Sono assolutamente flessibili. Qualche volta associamo la gente allo spam. Qualche volta l'associamo all'abuso e alla molestia. Ci assicureremo di avere flessibilità nelle persone in modo da indirizzarle dove sono necessarie. Talvolta le elezioni. Ci sono state le elezioni in Messico, tra poco ci saranno in India, ovviamente le elezioni l'anno scorso, quelle di metà mandato; vogliamo essere flessibili con le risorse. Quando la gente -- ad esempio, se controllate i termini del servizio e guardate sulla pagina in alto, e per abusi e molestie che avete ricevuto vi chiedete se sono contrari ai termini del servizio per segnalarli, la prima cosa che vedete aprendo quella pagina è la protezione della proprietà intellettuale. Scendete e arrivate ad abusi e molestie e qualunque cosa viviate.
So I don't know how that happened over the company's history, but we put that above the thing that people want the most information on and to actually act on. And just our ordering shows the world what we believed was important. So we're changing all that. We're ordering it the right way, but we're also simplifying the rules so that they're human-readable so that people can actually understand themselves when something is against our terms and when something is not. And then we're making -- again, our big focus is on removing the burden of work from the victims. So that means push more towards technology, rather than humans doing the work -- that means the humans receiving the abuse and also the humans having to review that work. So we want to make sure that we're not just encouraging more work around something that's super, super negative, and we want to have a good balance between the technology and where humans can actually be creative, which is the judgment of the rules, and not just all the mechanical stuff of finding and reporting them. So that's how we think about it.
Non so come sia successo nella storia dell'azienda, ma l'abbiamo messo prima delle cose su cui la gente vuole più informazioni e su cui vuole agire. Il semplice ordine delle due cose mostra le nostre priorità di allora. Cambieremo tutto questo. Lo metteremo nell'ordine giusto, ma semplificheremo anche le regole in modo che siano comprensibili in modo che la gente possa capire quando qualcosa è contrario ai termini di servizio e quando non lo è. E poi facciamo -- il nostro focus è sulla rimozione del carico di lavoro dalle vittime. Significa spingere più verso la tecnologia, invece di far fare il lavoro a chi subisce molestie e a chi deve controllarle. Vogliamo assicurarci non solo di incoraggiare più impegno su una cosa molto indesiderabile, ma vogliamo avere un giusto equilibrio tra la tecnologia e la creatività delle persone, ossia nell'interpretazione delle regole, e non solo la parte meccanica del trovare e segnalare. Noi la vediamo così.
CA: I'm curious to dig in more about what you said. I mean, I love that you said you are looking for ways to re-tweak the fundamental design of the system to discourage some of the reactive behavior, and perhaps -- to use Tristan Harris-type language -- engage people's more reflective thinking. How far advanced is that? What would alternatives to that "like" button be?
CA: Vorrei approfondire quel che hai detto. Mi piace quando dici di voler cercare modi per riprogettare il sistema scoraggiare comportamenti reazionari, e forse -- usando il linguaggio di Tristan Harris -- spingere verso un pensiero più riflessivo. A che punto siamo? Quali alternative potrebbero esserci a quel tasto 'like'?
JD: Well, first and foremost, my personal goal with the service is that I believe fundamentally that public conversation is critical. There are existential problems facing the world that are facing the entire world, not any one particular nation-state, that global public conversation benefits. And that is one of the unique dynamics of Twitter, that it is completely open, it is completely public, it is completely fluid, and anyone can see any other conversation and participate in it. So there are conversations like climate change. There are conversations like the displacement in the work through artificial intelligence. There are conversations like economic disparity. No matter what any one nation-state does, they will not be able to solve the problem alone. It takes coordination around the world, and that's where I think Twitter can play a part.
JD: Prima di tutto, il mio obiettivo personale con il servizio è che credo sostanzialmente che il dialogo pubblico sia fondamentale. Il mondo affronta problemi esistenziali, non sono problemi di singole nazioni, e ne beneficia il dialogo globale. E questa è una delle dinamiche uniche di Twitter: è completamente aperta, è completamente pubblica, è completamente fluida, e tutti possono vedere e partecipare a qualunque altra conversazione. Ci sono dialoghi sul cambiamento climatico. Ci sono dialoghi come la distruzione del lavoro ad opera dell'intelligenza artificiale. Ci sono dialoghi come la diseguaglianza economica. Qualunque cosa faccia una nazione, non sarà in grado di risolvere il problema da sola. Ci vuole coordinamento mondiale, ed è qui che entra in gioco Twitter.
The second thing is that Twitter, right now, when you go to it, you don't necessarily walk away feeling like you learned something. Some people do. Some people have a very, very rich network, a very rich community that they learn from every single day. But it takes a lot of work and a lot of time to build up to that. So we want to get people to those topics and those interests much, much faster and make sure that they're finding something that, no matter how much time they spend on Twitter -- and I don't want to maximize the time on Twitter, I want to maximize what they actually take away from it and what they learn from it, and --
La seconda cosa è che Twitter, oggi, quando entrate, non ne uscite necessariamente avendo imparato qualcosa. Alcune persone sì. Alcuni hanno una rete molto ricca, una comunità molto ricca da cui imparano ogni giorno. Ma ci vogliono molto impegno e tempo per costruirle. Vogliamo che la gente arrivi a questi argomenti e interessi molto più rapidamente e assicurarci che trovino qualcosa, indipendentemente da quanto tempo passano su Twitter -- e non voglio massimizzare il tempo su Twitter, voglio massimizzare ciò che si ottiene ciò che si impara, e --
CA: Well, do you, though? Because that's the core question that a lot of people want to know. Surely, Jack, you're constrained, to a huge extent, by the fact that you're a public company, you've got investors pressing on you, the number one way you make your money is from advertising -- that depends on user engagement. Are you willing to sacrifice user time, if need be, to go for a more reflective conversation?
CA: Davvero? Perché è la domanda fondamentale che si pongono tutti. Jack, sei largamente limitato dal fatto di essere un'azienda quotata, hai investitori che fanno pressione, i soldi si fanno in primo luogo con la pubblicità -- e questa dipende dal coinvolgimento degli utenti. Sei disposto a sacrificare il tempo che trascorrono gli utenti, in favore di un dialogo più riflessivo?
JD: Yeah; more relevance means less time on the service, and that's perfectly fine, because we want to make sure that, like, you're coming to Twitter, and you see something immediately that you learn from and that you push. We can still serve an ad against that. That doesn't mean you need to spend any more time to see more. The second thing we're looking at --
JD: Sì, maggiore pertinenza significa meno tempo sul Twitter. E va benissimo, perché vogliamo assicurarci che quando arrivate su Twitter, e vedete qualcosa da cui imparare immediatamente, possiamo comunque abbinarvi una pubblicità. Non significa che dovete passare più tempo e vedere di più. La seconda cosa che cerchiamo --
CA: But just -- on that goal, daily active usage, if you're measuring that, that doesn't necessarily mean things that people value every day. It may well mean things that people are drawn to like a moth to the flame, every day. We are addicted, because we see something that pisses us off, so we go in and add fuel to the fire, and the daily active usage goes up, and there's more ad revenue there, but we all get angrier with each other. How do you define ... "Daily active usage" seems like a really dangerous term to be optimizing.
CA: Ma su quell'obiettivo, il tempo giornaliero trascorso, anche se lo misurate, non significa necessariamente che la gente valorizzi ogni giorno. Potrebbe solo indicare da cosa la gente è attirata ogni giorno. Siamo dipendenti, perché vediamo cose che ci fanno arrabbiare, quindi entriamo e gettiamo benzina su fuoco, e aumenta l'uso giornaliero, e aumentano i ricavi pubblicitari, ma siamo sempre più arrabbiati. Come definire... "Utenti attivi al mese" sembra un termine pericoloso da ottimizzare.
(Applause)
(Applausi)
JD: Taken alone, it is, but you didn't let me finish the other metric, which is, we're watching for conversations and conversation chains. So we want to incentivize healthy contribution back to the network, and what we believe that is is actually participating in conversation that is healthy, as defined by those four indicators I articulated earlier.
JD: Da solo lo è, ma non mi hai fatto finire l'altro indicatore, ossia osservare le conversazioni e le catene di conversazione. Se vogliamo incentivare i contributi sani alla rete, e crediamo che questo significhi partecipare a un dialogo "sano", secondo i quattro indicatori che ho citato prima,
So you can't just optimize around one metric. You have to balance and look constantly at what is actually going to create a healthy contribution to the network and a healthy experience for people. Ultimately, we want to get to a metric where people can tell us, "Hey, I learned something from Twitter, and I'm walking away with something valuable." That is our goal ultimately over time, but that's going to take some time.
non si può ottimizzare un solo indicatore. Bisogna bilanciare e osservare in continuazione ciò che contribuisce a creare un dialogo sano della rete e un'esperienza sana per la gente. Infine, vogliamo un indicatore per cui la gente possa dire, "Ho imparato qualcosa da Twitter, e mi porto via preziose conoscenze." Questo è il nostro obiettivo finale, ma ci vorrà del tempo.
CA: You come over to many, I think to me, as this enigma. This is possibly unfair, but I woke up the other night with this picture of how I found I was thinking about you and the situation, that we're on this great voyage with you on this ship called the "Twittanic" --
CA: Per molti, almeno per me, sembri un enigma. Probabilmente è ingiusto, ma mi sono svegliato la scorsa notte con questa immagine di come vedo la situazione, siamo con te in questo grande viaggio su questa nave chiamata "Twittanic" --
(Laughter)
(Risate)
and there are people on board in steerage who are expressing discomfort, and you, unlike many other captains, are saying, "Well, tell me, talk to me, listen to me, I want to hear." And they talk to you, and they say, "We're worried about the iceberg ahead." And you go, "You know, that is a powerful point, and our ship, frankly, hasn't been built properly for steering as well as it might." And we say, "Please do something." And you go to the bridge, and we're waiting, and we look, and then you're showing this extraordinary calm, but we're all standing outside, saying, "Jack, turn the fucking wheel!"
Ci sono persone a bordo in terza classe che segnalano un malessere, e tu, contrariamente ad altri capitani, dici, "Ditemi, parlate con me, ascoltatemi, voglio ascoltare." Ti parlano, e dicono, " Siamo preoccupati per l'iceberg che abbiamo di fronte." E tu, "Lo so, è un punto importante, e la nostra nave, onestamente, non è stata progettata per virare così bene." E noi, "Per favore, fai qualcosa." Tu vai sul ponte, e noi aspettiamo, guardiamo, e mostri questa calma straordinaria, ma noi siamo tutti lì a dire, "Jack, gira quel fottuto timone!"
You know?
Capisci che intendo dire?
(Laughter)
(Risate)
(Applause)
(Applausi)
I mean --
Voglio dire --
(Applause)
(Applausi)
It's democracy at stake. It's our culture at stake. It's our world at stake. And Twitter is amazing and shapes so much. It's not as big as some of the other platforms, but the people of influence use it to set the agenda, and it's just hard to imagine a more important role in the world than to ... I mean, you're doing a brilliant job of listening, Jack, and hearing people, but to actually dial up the urgency and move on this stuff -- will you do that?
C'è la democrazia, in gioco. La nostra cultura, è in gioco. Il mondo, è in gioco. E Twitter è meraviglioso, ci definisce. Non è grande come altre piattaforme, ma le persone influenti lo usano per stabilire le priorità, è difficile immaginare un ruolo più importante al mondo - Jack, stai facendo un ottimo lavoro ascoltando la gente, ma per affrontare l'urgenza e andare avanti -- lo farai?
JD: Yes, and we have been moving substantially. I mean, there's been a few dynamics in Twitter's history. One, when I came back to the company, we were in a pretty dire state in terms of our future, and not just from how people were using the platform, but from a corporate narrative as well. So we had to fix a bunch of the foundation, turn the company around, go through two crazy layoffs, because we just got too big for what we were doing, and we focused all of our energy on this concept of serving the public conversation. And that took some work. And as we dived into that, we realized some of the issues with the fundamentals. We could do a bunch of superficial things to address what you're talking about, but we need the changes to last, and that means going really, really deep and paying attention to what we started 13 years ago and really questioning how the system works and how the framework works and what is needed for the world today, given how quickly everything is moving and how people are using it. So we are working as quickly as we can, but quickness will not get the job done. It's focus, it's prioritization, it's understanding the fundamentals of the network and building a framework that scales and that is resilient to change, and being open about where we are and being transparent about where are so that we can continue to earn trust.
JD: Sì, abbiamo fatto passi avanti. Sono state tante le dinamiche, nella storia di Twitter. Uno, quando sono tornato in azienda, nuotavamo in cattive acque, non solo per come la gente usava la piattaforma, ma anche in termini di narrativa aziendale. Abbiamo dovuto sistemare le fondamenta, mettere l'azienda sottosopra, passare per due ondate di licenziamenti, perché eravamo troppo grandi per quel che facevamo. E le nostre energie andavano su questo concetto di aiutare il dialogo. È stato un enorme lavoro. Ci siamo buttati, abbiamo identificato alcuni problemi alla base. Abbiamo fatto un po' di cose superficiali per sistemare ciò di cui parli, ma i cambiamenti dovevano essere duraturi, e questo significa approfondire e prestare attenzione a quel che abbiamo creato 13 anni fa e mettere in discussione il funzionamento del sistema e quello che serve al mondo oggi, considerando come tutto cambia velocemente e come la gente lo usa. Lavoriamo più velocemente possibile, ma la velocità non è sufficiente. Ci vuole concentrazione, priorità, capire le basi della rete e costruire una struttura modulare che si adatta ai cambiamenti, essere aperti e trasparenti su dove siamo per continuare a essere degni di fiducia.
So I'm proud of all the frameworks that we've put in place. I'm proud of our direction. We obviously can move faster, but that required just stopping a bunch of stupid stuff we were doing in the past.
Sono fiero della struttura che abbiamo messo in piedi. Sono fiero della direzione. Ovviamente potremmo essere più veloci, ma questo significa smettere di fare una serie di cose stupide che facevamo in passato.
CA: All right. Well, I suspect there are many people here who, if given the chance, would love to help you on this change-making agenda you're on, and I don't know if Whitney -- Jack, thank you for coming here and speaking so openly. It took courage. I really appreciate what you said, and good luck with your mission.
CA: Bene. Credo che molti qui, avendone la possibilità, vorrebbero aiutare il cambiamento, e non so se Whitney -- Jack, grazie per essere venuto a parlare apertamente. Ci è voluto coraggio. Apprezzo davvero quello che hai detto, e buona fortuna nella tua missione.
JD: Thank you so much. Thanks for having me.
JD: Grazie infinite. Grazie per avermi invitato.
(Applause)
(Applausi)
Thank you.
Grazie.