Κρις Άντερσον: Τι σε ανησυχεί αυτήν τη στιγμή; Ήσουν πολύ ανοιχτός για πολλά θέματα με το Twitter. Ποια θα ήταν η μεγαλύτερή σου ανησυχία για το πού είναι τα πράγματα αυτήν τη στιγμή;
Chris Anderson: What worries you right now? You've been very open about lots of issues on Twitter. What would be your top worry about where things are right now?
Τζακ Ντόρσι: Αυτήν τη στιγμή, η υγεία της συζήτησης. Έτσι, ο σκοπός μας είναι να υπηρετούμε τη δημόσια συζήτηση, και έχουμε δει αρκετές επιθέσεις σε αυτό. Έχουμε δει κακοποίηση, έχουμε δει παρενόχληση, έχουμε δει χειραγώγηση, αυτοματισμό, ανθρώπινο συντονισμό, παραπληροφόρηση. Αυτές είναι δυναμικές που δεν περιμέναμε όταν ξεκινήσαμε την εταιρία πριν από 13 χρόνια. Αλλά τώρα τις βλέπουμε σε κλίμακα, και αυτό που με ανησυχεί περισσότερο είναι η ικανότητά μας να το αντιμετωπίσουμε με έναν συστημικό τρόπο που είναι επεκτάσιμος, που έχει αυστηρή κατανόηση για το πώς αναλαμβάνουμε δράση, διαφάνεια στην κατανόηση του πώς πράττουμε και μια αυστηρή διαδικασία ενστάσεων για όταν κάνουμε λάθος, επειδή θα κάνουμε λάθη.
Jack Dorsey: Right now, the health of the conversation. So, our purpose is to serve the public conversation, and we have seen a number of attacks on it. We've seen abuse, we've seen harassment, we've seen manipulation, automation, human coordination, misinformation. So these are all dynamics that we were not expecting 13 years ago when we were starting the company. But we do now see them at scale, and what worries me most is just our ability to address it in a systemic way that is scalable, that has a rigorous understanding of how we're taking action, a transparent understanding of how we're taking action and a rigorous appeals process for when we're wrong, because we will be wrong.
Γουίτνεϊ Πάνινγκτον Ρότζερς: Χαίρομαι πολύ που ακούω ότι είναι κάτι που σε απασχολεί, επειδή πιστεύω ότι έχουν γραφτεί πολλά γι' αυτούς που αισθάνονται ότι έχουν κακοποιηθεί και παρενοχληθεί στο Twitter, και πιστεύω ότι είναι περισσότερο για τις γυναίκες και τις έγχρωμες γυναίκες και τις μαύρες γυναίκες. Και έχουν βγει πολλά δεδομένα -- η Διεθνής Αμνηστία έβγαλε μια αναφορά πριν μερικούς μήνες όπου έδειχναν ότι ένα υποσύνολο ενεργών μαύρων γυναικών που χρησιμοποιούν Twitter λάμβαναν, κατά μέσω όρο, ένα στα 10 τιτιβίσματά τους ήταν κάποιου είδους παρενόχληση. Έτσι όταν σκέφτεστε την υγεία για την κοινότητα στο Twitter, ενδιαφέρομαι να ακούσω, «υγεία για όλους», αλλά συγκεκριμένα: Πώς κοιτάτε να κάνετε το Twitter έναν ασφαλή τόπο γι' αυτό το υποσύνολο, για τις γυναίκες, τις έγχρωμες και τις μαύρες γυναίκες;
Whitney Pennington Rodgers: I'm really glad to hear that that's something that concerns you, because I think there's been a lot written about people who feel they've been abused and harassed on Twitter, and I think no one more so than women and women of color and black women. And there's been data that's come out -- Amnesty International put out a report a few months ago where they showed that a subset of active black female Twitter users were receiving, on average, one in 10 of their tweets were some form of harassment. And so when you think about health for the community on Twitter, I'm interested to hear, "health for everyone," but specifically: How are you looking to make Twitter a safe space for that subset, for women, for women of color and black women?
ΤΝ: Ναι. Είναι πολύ άσχημη κατάσταση όταν έρχεστε σε ένα σύστημα που ιδανικά, θέλετε να μάθετε κάτι για τον κόσμο, και περνάτε τον περισσότερο χρόνο σας κάνοντας αναφορές κακοποίησης, λαμβάνοντας κακοποίηση, λαμβάνοντας παρενόχληση. Έτσι κοιτάζουμε πιο βαθιά τα κίνητρα που παρέχει φυσικά η πλατφόρμα και η υπηρεσία. Τώρα, η δυναμική του συστήματος το κάνει πολύ εύκολο να παρενοχλήσετε και να κακοποιήσετε άλλους μέσω του συστήματος, και δυστυχώς, η πλειοψηφία του συστήματός μας στο παρελθόν δούλευε κατ' αποκλειστικότητα βασισμένη σε άτομα που έκαναν αναφορές παρενόχλησης και κακοποίησης. Έτσι περίπου στα μέσα του περασμένου έτους αποφασίσαμε ότι θα εφαρμόζαμε περισσότερη μηχανική μάθηση, περισσότερη βαθιά μάθηση στο πρόβλημα, και θα προσπαθήσουμε να είμαστε πιο ενεργοί εκεί που γίνεται η κακοποίηση, έτσι ώστε να πάρουμε το βάρος τελείως από το θύμα. Κι έχουμε κάνει κάποια πρόοδο πρόσφατα. Περίπου 38 τοις εκατό των καταχρηστικών τιτιβισμάτων τώρα εντοπίζονται προληπτικά από αλγόριθμους μηχανικής μάθησης έτσι ώστε να μην χρειάζεται να γίνονται αναφορές. Αλλά αυτά που αναγνωρίζονται επανεξετάζονται από ανθρώπους, έτσι δεν κατεβάζουμε περιεχόμενο ή λογαριασμούς πριν τα δει άνθρωπος. Αλλά αυτό ήταν από το μηδέν τοις εκατό πριν μόλις έναν χρόνο. Έτσι αυτό σημαίνει ότι, στο μηδέν τοις εκατό, κάθε λήπτης κατάχρησης έπρεπε να κάνει αναφορά, που είναι πολλή δουλειά γι' αυτούς, πολλή δουλειά για εμάς και στην τελική είναι άδικο.
JD: Yeah. So it's a pretty terrible situation when you're coming to a service that, ideally, you want to learn something about the world, and you spend the majority of your time reporting abuse, receiving abuse, receiving harassment. So what we're looking most deeply at is just the incentives that the platform naturally provides and the service provides. Right now, the dynamic of the system makes it super-easy to harass and to abuse others through the service, and unfortunately, the majority of our system in the past worked entirely based on people reporting harassment and abuse. So about midway last year, we decided that we were going to apply a lot more machine learning, a lot more deep learning to the problem, and try to be a lot more proactive around where abuse is happening, so that we can take the burden off the victim completely. And we've made some progress recently. About 38 percent of abusive tweets are now proactively identified by machine learning algorithms so that people don't actually have to report them. But those that are identified are still reviewed by humans, so we do not take down content or accounts without a human actually reviewing it. But that was from zero percent just a year ago. So that meant, at that zero percent, every single person who received abuse had to actually report it, which was a lot of work for them, a lot of work for us and just ultimately unfair.
Το άλλο πράγμα που κάνουμε είναι να σιγουρευτούμε ότι, ως εταιρεία, έχουμε αντιπροσώπευση από όλες τις κοινότητες που προσπαθούμε να υπηρετήσουμε. Δεν μπορούμε να χτίσουμε μια επιτυχημένη επιχείρηση εκτός κι αν έχουμε μια ποικιλία προοπτικών εσωτερικά που αισθάνονται τα θέματα αυτά κάθε μέρα. Και δεν είναι μόνο με την ομάδα που κάνει τη δουλειά, είναι και μέσα στην ηγεσία μας. Έτσι πρέπει να συνεχίσουμε να χτίζουμε ενσυναίσθηση για το τι βιώνουν οι άνθρωποι και να τους δώσουμε καλύτερα εργαλεία για να δράσουν σε αυτά καθώς και να δώσουμε στους πελάτες μας μια καλύτερη και ευκολότερη προσέγγιση για να διαχειριστούν μερικά πράγματα που βλέπουν. Έτσι πολλά από αυτά που κάνουμε έχουν να κάνουν με την τεχνολογία, αλλά κοιτάμε και τα κίνητρα στην υπηρεσία: Τι σας παρακινεί να κάνετε το Twitter όταν το πρωτοανοίγετε; Παλαιότερα, παρακινούσε πολύ αγανάκτηση, παρακινούσε συμπεριφορά όχλου, παρακινούσε ομαδική παρενόχληση. Και πρέπει να κοιτάξουμε βαθύτερα κάποιες από τις βασικές αρχές του τι κάνει η υπηρεσία για να κάνουμε μεγαλύτερες αλλαγές. Μπορούμε να κάνουμε μερικές μικρές αλλαγές τεχνολογικά, όπως περιέγραψα, αλλά στην τελική, πρέπει να κοιτάξουμε πιο βαθιά τις δυναμικές του δικτύου, και αυτό κάνουμε.
The other thing that we're doing is making sure that we, as a company, have representation of all the communities that we're trying to serve. We can't build a business that is successful unless we have a diversity of perspective inside of our walls that actually feel these issues every single day. And that's not just with the team that's doing the work, it's also within our leadership as well. So we need to continue to build empathy for what people are experiencing and give them better tools to act on it and also give our customers a much better and easier approach to handle some of the things that they're seeing. So a lot of what we're doing is around technology, but we're also looking at the incentives on the service: What does Twitter incentivize you to do when you first open it up? And in the past, it's incented a lot of outrage, it's incented a lot of mob behavior, it's incented a lot of group harassment. And we have to look a lot deeper at some of the fundamentals of what the service is doing to make the bigger shifts. We can make a bunch of small shifts around technology, as I just described, but ultimately, we have to look deeply at the dynamics in the network itself, and that's what we're doing.
ΚΑ: Αλλά ποια είναι η αίσθησή σου -- ποιο είδος πράγματος θα μπορούσατε να αλλάξετε που θα άλλαζε ουσιαστικά τη συμπεριφορά;
CA: But what's your sense -- what is the kind of thing that you might be able to change that would actually fundamentally shift behavior?
ΤΝ: Ένα από τα πράγματα -- ξεκινήσαμε την υπηρεσία με την ιδέα να ακολουθείς έναν λογαριασμό, σαν παράδειγμα, και δεν πιστεύω ότι ο κόσμος έρχεται στο Twitter γι' αυτόν τον λόγο. Πιστεύω ότι το Twitter είναι καλύτερο ως ένα δίκτυο που βασίζεται στα ενδιαφέροντα. Οι άνθρωποι έρχονται με ένα συγκεκριμένο ενδιαφέρον. Πρέπει να δουλέψουν πολύ για να βρουν και να ακολουθήσουν σχετικούς λογαριασμούς με αυτά τα ενδιαφέροντα. Θα μπορούσαμε να σας αφήσουμε να ακολουθήσετε ένα ενδιαφέρον, να ακολουθήσετε ένα hashtag, μια τάση, μια κοινότητα, που μας δίνει τη δυνατότητα να δείξουμε όλους τους λογαριασμούς, όλα τα θέματα, όλες τις στιγμές, όλα τα hashtag που σχετίζονται με το συγκεκριμένο θέμα και ενδιαφέρον, που ανοίγει πραγματικά την προοπτική σου. Αλλά είναι μια τεράστια ουσιαστική αλλαγή το να προδιαθέσουμε ένα ολόκληρο δίκτυο μακριά από έναν μόνο λογαριασμό προς θέματα και ενδιαφέροντα.
JD: Well, one of the things -- we started the service with this concept of following an account, as an example, and I don't believe that's why people actually come to Twitter. I believe Twitter is best as an interest-based network. People come with a particular interest. They have to do a ton of work to find and follow the related accounts around those interests. What we could do instead is allow you to follow an interest, follow a hashtag, follow a trend, follow a community, which gives us the opportunity to show all of the accounts, all the topics, all the moments, all the hashtags that are associated with that particular topic and interest, which really opens up the perspective that you see. But that is a huge fundamental shift to bias the entire network away from just an account bias towards a topics and interest bias.
ΚΑ: Δεν είναι όμως αυτό ότι ένας λόγος που έχετε τόσο πολύ περιεχόμενο εκεί είναι αποτέλεσμα του να βάλετε εκατομμύρια ανθρώπους παγκοσμίως σε μια είδους μονομαχία μεταξύ τους για ακόλουθους, για προσοχή; Από την οπτική γωνία αυτών που απλώς διαβάζουν στο Twitter, δεν είναι θέμα, αλλά γι' αυτούς που το δημιουργούν, όλοι εκεί έξω λένε, «Μακάρι να είχα μερικά ακόμη "like", ακόλουθους, επανατιτιβίβίσματα». Έτσι συνεχώς πειραματίζονται, προσπαθώντας να βρουν το μονοπάτι. Και αυτό που ανακαλύψαμε όλοι μας είναι ότι το νούμερο ένα μονοπάτι γι' αυτό είναι να είσαι κάπως προκλητικός, αντιπαθητικός, εύγλωττα αντιπαθητικός, οι εύγλωττες προσβολές είναι όνειρο στο Twitter, όπου γρήγορα γεμίζει -- και γίνεται αυτή η αυτοτροφοδοτούμενη διαδικασία εξοργισμού. Πώς το εξουδετερώνεις αυτό;
CA: Because isn't it the case that one reason why you have so much content on there is a result of putting millions of people around the world in this kind of gladiatorial contest with each other for followers, for attention? Like, from the point of view of people who just read Twitter, that's not an issue, but for the people who actually create it, everyone's out there saying, "You know, I wish I had a few more 'likes,' followers, retweets." And so they're constantly experimenting, trying to find the path to do that. And what we've all discovered is that the number one path to do that is to be some form of provocative, obnoxious, eloquently obnoxious, like, eloquent insults are a dream on Twitter, where you rapidly pile up -- and it becomes this self-fueling process of driving outrage. How do you defuse that?
ΤΝ: Ναι, έχεις απόλυτο δίκιο, αλλά αυτό πάει πίσω στα κίνητρα. Μία από τις επιλογές που κάναμε στις πρώιμες μέρες ήταν ότι είχαμε αυτόν τον αριθμό που έδειχνε πόσοι άνθρωποι σε ακολουθούν. Αποφασίσαμε ότι αυτός ο αριθμός πρέπει να είναι μεγάλος και παχύς, και οτιδήποτε είναι στη σελίδα και είναι μεγάλο και παχύ έχει σημασία, και σε αυτά είναι που θέλεις να επικεντρωθείς. Ήταν τότε η σωστή απόφαση; Μάλλον όχι. Αν έπρεπε να ξαναξεκινήσω την υπηρεσία, δεν θα έδινα τόσο μεγάλη έμφαση στον αριθμό ακολούθων. Δεν θα έδινα τόσο μεγάλη έμφαση στον αριθμό των «like». Δε νομίζω ότι θα έφτιαχνα καν το «like», επειδή δεν σπρώχνει πραγματικά αυτό που τώρα πιστεύουμε ότι είναι το πιο σημαντικό πράγμα, που είναι η υγιής συνεισφορά πίσω στο δίκτυο και η συζήτηση στο δίκτυο, συμμετοχή στη συζήτηση, το να μαθαίνεις κάτι από τη συζήτηση. Αυτά δεν είναι πράγματα που σκεφτήκαμε πριν από 13 χρόνια, και πιστεύουμε ότι είναι εξαιρετικά σημαντικά τώρα.
JD: Yeah, I mean, I think you're spot on, but that goes back to the incentives. Like, one of the choices we made in the early days was we had this number that showed how many people follow you. We decided that number should be big and bold, and anything that's on the page that's big and bold has importance, and those are the things that you want to drive. Was that the right decision at the time? Probably not. If I had to start the service again, I would not emphasize the follower count as much. I would not emphasize the "like" count as much. I don't think I would even create "like" in the first place, because it doesn't actually push what we believe now to be the most important thing, which is healthy contribution back to the network and conversation to the network, participation within conversation, learning something from the conversation. Those are not things that we thought of 13 years ago, and we believe are extremely important right now.
Έτσι πρέπει να δούμε πώς εμφανίζουμε τον αριθμό των ακόλουθων, πώς εμφανίζουμε τον αριθμό επανατιτιβισμάτων, πώς εμφανίζουμε τα «like», και απλώς να κάνουμε τη βαθιά ερώτηση: Είναι αυτός πραγματικά ο αριθμός που θέλουμε να καθοδηγεί τους ανθρώπους; Είναι αυτό το πράγμα, που όταν ανοίγεις το Twitter, το βλέπεις, «Αυτό το πράγμα πρέπει να αυξήσω;» Και δεν πιστεύω ότι αυτό είναι το θέμα αυτήν τη στιγμή.
So we have to look at how we display the follower count, how we display retweet count, how we display "likes," and just ask the deep question: Is this really the number that we want people to drive up? Is this the thing that, when you open Twitter, you see, "That's the thing I need to increase?" And I don't believe that's the case right now.
(Χειροκρότημα)
(Applause)
ΓΠΡ: Νομίζω ότι πρέπει να δούμε μερικά τιτιβίσματα που προέρχονται από το κοινό.
WPR: I think we should look at some of the tweets that are coming in from the audience as well.
ΚΑ: Για να δούμε τι ζητάτε. Θέλω να πω ότι γενικά, ένα από τα απίστευτα πράγματα για το Twitter είναι ότι μπορεί να χρησιμοποιηθεί για σοφία πλήθους, ξέρετε, περισσότερη γνώση, περισσότερες πληροφορίες, περισσότερες απόψεις απ' όσο μπορείτε να φανταστείτε, και μερικές φορές, αρκετές από αυτές είναι πραγματικά υγιείς.
CA: Let's see what you guys are asking. I mean, this is -- generally, one of the amazing things about Twitter is how you can use it for crowd wisdom, you know, that more knowledge, more questions, more points of view than you can imagine, and sometimes, many of them are really healthy.
ΓΠΡ: Νομίζω μία που είδα πέρασε γρήγορα εδώ, «Ποιο είναι το σχέδιο του Twitter για να καταπολεμήσει την εξωτερική παρέμβαση στις εκλογές των ΗΠΑ το 2020;» Νομίζω ότι είναι κάτι που είναι θέμα που βλέπουμε γενικά στο διαδίκτυο, ότι έχουμε πολύ κακόβουλη αυτοματοποιημένη δράση. Και στο Twitter, για παράδειγμα, έχουμε κάποια δουλειά που προέρχεται από τους φίλους μας στα Zignal Labs, και ίσως να το δούμε ως παράδειγμα γι' αυτό που μιλάω, όπου έχετε αυτά τα bot, αν θέλετε, ή συντονισμένη αυτοματοποιημένη κακόβουλη δραστηριότητα λογαριασμών, που χρησιμοποιείται για να επηρεάσει πράγματα όπως οι εκλογές. Και σε αυτό το παράδειγμα που έχουμε από τη Zignal που μοιράστηκαν μαζί μας χρησιμοποιώντας τα δεδομένα που έχουν από το Twitter, βλέπετε ότι σε αυτήν την περίπτωση, το άσπρο αντιπροσωπεύει τους ανθρώπινους λογαριασμούς, κάθε κουκκίδα είναι ένας λογαριασμός. Όσο πιο ροζ είναι, τόσο πιο αυτοματοποιημένη είναι η δραστηριότητα. Και μπορείς να δεις ότι έχετε μερικούς ανθρώπους που αλληλεπιδρούν με bot. Σε αυτήν την περίπτωση, έχει να κάνει με τις εκλογές στο Ισραήλ και τη διάδοση ψευδών πληροφοριών για τον Μπένι Γκαντζ, και όπως ξέρουμε, στο τέλος, αυτές ήταν εκλογές στις οποίες κέρδισε ο Νετανιάχου με μικρή διαφορά, και ίσως να είχε επηρεαστεί κατά κάποιο τρόπο από αυτό. Και όταν σκεφτείτε ότι αυτό συμβαίνει στο Twitter, τι κάνετε, συγκεκριμένα, για να εξασφαλίσετε ότι δεν θα εξαπλώνονται ψευδείς πληροφορίες με αυτόν τον τρόπο, επηρεάζοντας τον κόσμο με τρόπους που θα επηρέαζε τη δημοκρατία;
WPR: I think one I saw that passed already quickly down here, "What's Twitter's plan to combat foreign meddling in the 2020 US election?" I think that's something that's an issue we're seeing on the internet in general, that we have a lot of malicious automated activity happening. And on Twitter, for example, in fact, we have some work that's come from our friends at Zignal Labs, and maybe we can even see that to give us an example of what exactly I'm talking about, where you have these bots, if you will, or coordinated automated malicious account activity, that is being used to influence things like elections. And in this example we have from Zignal which they've shared with us using the data that they have from Twitter, you actually see that in this case, white represents the humans -- human accounts, each dot is an account. The pinker it is, the more automated the activity is. And you can see how you have a few humans interacting with bots. In this case, it's related to the election in Israel and spreading misinformation about Benny Gantz, and as we know, in the end, that was an election that Netanyahu won by a slim margin, and that may have been in some case influenced by this. And when you think about that happening on Twitter, what are the things that you're doing, specifically, to ensure you don't have misinformation like this spreading in this way, influencing people in ways that could affect democracy?
ΤΝ: Να πάω λιγάκι πίσω, αναρωτηθήκαμε το εξής: Μπορούμε να μετρήσουμε την υγεία μιας συζήτησης, και τι σημαίνει αυτό; Με τον ίδιο τρόπο που έχεις δείκτες και εμείς έχουμε δείκτες ως άνθρωποι για το αν είμαστε υγιείς ή όχι, όπως η θερμοκρασία, το κοκκίνισμα του προσώπου, πιστεύω ότι θα μπορούσαμε να βρούμε τους δείκτες για την υγεία της συζήτησης. Δουλέψαμε με ένα εργαστήριο που λέγεται Cortico στο MIT για να προτείνουμε τέσσερις αρχικούς δείκτες που πιστεύουμε ότι θα μπορούσαμε τελικά να μετρήσουμε στο σύστημα, Ο πρώτος είναι αυτό που λέμε μοιρασμένη προσοχή. Είναι ένα μέτρο για το πόσο από τη συζήτηση παραμένει στο ίδιο θέμα αντί να ξεφεύγει. Ο δεύτερος ονομάζεται μοιρασμένη πραγματικότητα, και είναι ποιο ποσοστό της συζήτησης μοιράζεται τα ίδια δεδομένα -- όχι αν αυτά τα δεδομένα είναι αληθή ή όχι, αλλά μοιραζόμαστε τα ίδια δεδομένα καθώς συζητάμε; Ο τρίτος είναι δεκτικότητα: Πόση από τη συζήτηση είναι δεκτική ή πολιτισμένη ή το αντίστροφο, τοξική; Και ο τέταρτος είναι ποικιλία στην προοπτική. Έτσι, βλέπουμε φιλτραρισμένες φούσκες ή κλώβους αντήχησης ή λαμβάνουμε διάφορες απόψεις μέσα στη συζήτηση; Και στους τέσσερις δείκτες κατανοούμε σιωπηρά ότι, καθώς αυξάνονται, η συζήτηση γίνεται όλο και πιο υγιής.
JD: Just to back up a bit, we asked ourselves a question: Can we actually measure the health of a conversation, and what does that mean? And in the same way that you have indicators and we have indicators as humans in terms of are we healthy or not, such as temperature, the flushness of your face, we believe that we could find the indicators of conversational health. And we worked with a lab called Cortico at MIT to propose four starter indicators that we believe we could ultimately measure on the system. And the first one is what we're calling shared attention. It's a measure of how much of the conversation is attentive on the same topic versus disparate. The second one is called shared reality, and this is what percentage of the conversation shares the same facts -- not whether those facts are truthful or not, but are we sharing the same facts as we converse? The third is receptivity: How much of the conversation is receptive or civil or the inverse, toxic? And then the fourth is variety of perspective. So, are we seeing filter bubbles or echo chambers, or are we actually getting a variety of opinions within the conversation? And implicit in all four of these is the understanding that, as they increase, the conversation gets healthier and healthier.
Έτσι το πρώτο βήμα είναι να δούμε αν μπορούμε να τα μετρήσουμε στο δίκτυο, που πιστεύω ότι μπορούμε. Έχουμε τη μεγαλύτερη δυναμική γύρω από τη δεκτικότητα. Έχουμε ένα σκορ τοξικότητας, ένα μοντέλο τοξικότητας, στο σύστημά μας που μπορεί να μετρήσει αν είναι είναι πιθανό να φύγετε από μια συζήτηση που κάνετε στο Twitter επειδή νιώθετε ότι είναι τοξική, σε πολύ μεγάλο βαθμό. Δουλεύουμε πάνω στις μετρήσεις για τα υπόλοιπα, και το επόμενο βήμα είναι, καθώς φτιάχνουμε λύσεις, για να δούμε πώς τείνουν αυτές οι μετρήσεις στο πέρασμα του χρόνου και να συνεχίσουμε να πειραματιζόμαστε. Ο σκοπός μας είναι να σιγουρευτούμε ότι είναι ισορροπημένα, επειδή αν αυξήσετε έναν, ίσως να μειώσετε κάποιον άλλον. Αν αυξήσεις την ποικιλία προοπτικών, ίσως όντως να μειώσεις τη μοιρασμένη πραγματικότητα.
So our first step is to see if we can measure these online, which we believe we can. We have the most momentum around receptivity. We have a toxicity score, a toxicity model, on our system that can actually measure whether you are likely to walk away from a conversation that you're having on Twitter because you feel it's toxic, with some pretty high degree. We're working to measure the rest, and the next step is, as we build up solutions, to watch how these measurements trend over time and continue to experiment. And our goal is to make sure that these are balanced, because if you increase one, you might decrease another. If you increase variety of perspective, you might actually decrease shared reality.
ΚΑ: Πιάνω λιγάκι τις ερωτήσεις που μας κατακλύζουν εδώ.
CA: Just picking up on some of the questions flooding in here.
ΝΤ: Συνεχείς ερωτήσεις.
JD: Constant questioning.
ΚΑ: Πολλοί αναρωτιούνται γιατί, δηλαδή, πόσο δύσκολο είναι να ξεφορτωθείτε τους Ναζί από το Twitter;
CA: A lot of people are puzzled why, like, how hard is it to get rid of Nazis from Twitter?
ΤΝ: (Γελάει)
JD: (Laughs)
Έχουμε πολιτικές σχετικά με βίαιες εξτρεμιστικές ομάδες, και η περισσότερη από τη δουλειά μας και τους όρους χρήσης μας λειτουργεί με τη συμπεριφορά, όχι με το περιεχόμενο. Κοιτάζουμε λοιπόν τη συμπεριφορά. Με συμπεριφορά εννοούμε τη χρήση της υπηρεσίας για επανειλημμένη ή επεισοδιακή παρενόχληση κάποιου, χρήση εικόνων μίσους που μπορούν να συνδεθούν με την ΚΚΚ ή το Αμερικανικό Κόμμα Ναζί. Όλα αυτά είναι πράγματα στα οποία δρούμε άμεσα. Αυτήν τη στιγμή είμαστε σε μια κατάσταση όπου αυτός ο όρος χρησιμοποιείται αρκετά χαλαρά, και δεν μπορούμε απλώς να πάρουμε μια αναφορά αυτής της λέξης που κατηγορεί κάποιον άλλον ως πραγματική ένδειξη ότι θα πρέπει να απομακρυνθούν από την πλατφόρμα. Έτσι πολλά από τα μοντέλα μας βασίζονται σε, νούμερο ένα: Σχετίζεται αυτός ο λογαριασμός με μια βίαιη εξτρεμιστική ομάδα; Αν ναι, μπορούμε να δράσουμε. Και το έχουμε κάνει με την ΚΚΚ και το Αμερικανικό Κόμμα Ναζί και άλλους. Και νούμερο δύο: Χρησιμοποιούν εικόνες ή συμπεριφορά που θα τους συνέδεαν με τέτοιο τρόπο;
So we have policies around violent extremist groups, and the majority of our work and our terms of service works on conduct, not content. So we're actually looking for conduct. Conduct being using the service to repeatedly or episodically harass someone, using hateful imagery that might be associated with the KKK or the American Nazi Party. Those are all things that we act on immediately. We're in a situation right now where that term is used fairly loosely, and we just cannot take any one mention of that word accusing someone else as a factual indication that they should be removed from the platform. So a lot of our models are based around, number one: Is this account associated with a violent extremist group? And if so, we can take action. And we have done so on the KKK and the American Nazi Party and others. And number two: Are they using imagery or conduct that would associate them as such as well?
ΚΑ: Πόσα άτομα έχετε να δουλεύουν στον έλεγχο περιεχομένου για να τα κοιτούν αυτά;
CA: How many people do you have working on content moderation to look at this?
ΤΝ: Ανάλογα. Θέλουμε να είμαστε ευέλικτοι, επειδή θέλουμε να σιγουρευτούμε ότι, νούμερο ένα, φτιάχνουμε αλγόριθμους αντί να προσλαμβάνουμε ένα σωρό κόσμο, επειδή πρέπει να σιγουρευτούμε ότι είναι επεκτάσιμο, και δεν υπάρχουν άτομα που να μπορούν να το επεκτείνουν. Γι' αυτό έχουμε κάνει τόση πολλή δουλειά στην προληπτική ανίχνευση της κατάχρησης που μπορούν μετά να ελέγξουν άνθρωποι. Θέλουμε να έχουμε μια κατάσταση όπου οι αλγόριθμοι ελέγχουν συνεχώς κάθε τιτίβισμα και ανεβάζοντας τα πιο ενδιαφέροντα πρώτα έτσι ώστε οι άνθρωποι να κρίνουν αν θα πρέπει να δράσουμε ή όχι, σύμφωνα με τους όρους χρήσης μας.
JD: It varies. We want to be flexible on this, because we want to make sure that we're, number one, building algorithms instead of just hiring massive amounts of people, because we need to make sure that this is scalable, and there are no amount of people that can actually scale this. So this is why we've done so much work around proactive detection of abuse that humans can then review. We want to have a situation where algorithms are constantly scouring every single tweet and bringing the most interesting ones to the top so that humans can bring their judgment to whether we should take action or not, based on our terms of service.
ΓΠΡ: Αλλά δεν υπάρχει αριθμός ατόμων που είναι επεκτάσιμος, αλλά πόσοι άνθρωποι αυτήν τη στιγμή παρακολουθούν αυτούς τους λογαριασμούς, και πώς καταλαβαίνεις τι είναι αρκετό;
WPR: But there's not an amount of people that are scalable, but how many people do you currently have monitoring these accounts, and how do you figure out what's enough?
ΤΝ: Είναι τελείως ευέλικτοι. Μερικές φορές συνδέουμε άτομα με spam. Μερικές φορές συνδέουμε άτομα με κακοποίηση και παρενόχληση. Θα σιγουρευτούμε ότι έχουμε ευελιξία στους ανθρώπους μας ώστε να τους κατευθύνουμε εκεί που χρειάζονται περισσότερο. Μερικές φορές, στις εκλογές. Είχαμε μια σειρά από εκλογές στο Μεξικό, μία σε λίγο στην Ινδία, προφανώς, οι εκλογές πέρσι, οι ενδιάμεσες εκλογές, έτσι θέλουμε να είμαστε ευέλικτοι με τους πόρους μας. Έτσι όταν -- σαν παράδειγμα, αν πας στους τρέχοντες όρους χρήσης και ανοίξεις τη σελίδα, και αναρωτιέσαι για την κακοποίηση και την παρενόχληση που μόλις έλαβες και αν ήταν ενάντια στους όρους χρήσης μας, για να το αναφέρεις, το πρώτο πράγμα που θα δεις όταν ανοίξεις αυτήν τη σελίδα έχει να κάνει με την προστασία πνευματικής ιδιοκτησίας. Σκρολάρετε προς τα κάτω και φτάνετε στην κακοποίηση, την παρενόχληση και όλα όσα μπορεί να βιώνετε.
JD: They're completely flexible. Sometimes we associate folks with spam. Sometimes we associate folks with abuse and harassment. We're going to make sure that we have flexibility in our people so that we can direct them at what is most needed. Sometimes, the elections. We've had a string of elections in Mexico, one coming up in India, obviously, the election last year, the midterm election, so we just want to be flexible with our resources. So when people -- just as an example, if you go to our current terms of service and you bring the page up, and you're wondering about abuse and harassment that you just received and whether it was against our terms of service to report it, the first thing you see when you open that page is around intellectual property protection. You scroll down and you get to abuse, harassment and everything else that you might be experiencing.
Έτσι δεν ξέρω πώς συνέβη αυτό στην ιστορία της εταιρίας, αλλά το βάζουμε πάνω από αυτό που θέλει ο κόσμος τις περισσότερες πληροφορίες και να δράσουν σε αυτό. Και η σειρά δείχνει στον κόσμο τι θεωρούσαμε σημαντικό. Έτσι τα αλλάζουμε όλα αυτά. Τα βάζουμε στη σωστή σειρά, αλλά απλοποιούμε και τους κανόνες ώστε να μπορούν να διαβαστούν από ανθρώπους έτσι ώστε να καταλαβαίνουν μόνοι τους όταν κάτι είναι ενάντια στους όρους μας και όταν κάτι δεν είναι. Και μετά κάνουμε -- πάλι, εστιάζουμε στο να πάρουμε το βάρος της δουλειάς από τα θύματα. Αυτό σημαίνει να σπρώξουμε περισσότερα προς την τεχνολογία, αντί να κάνουν τη δουλειά άνθρωποι -- αυτό σημαίνει ότι αυτοί που κακοποιούνται και αυτοί που ελέγχουν. Έτσι θέλουμε να σιγουρευτούμε ότι δεν ενθαρρύνουμε απλώς περισσότερη δουλειά προς κάτι που είναι πολύ αρνητικό, και θέλουμε να έχουμε μια καλή ισορροπία ανάμεσα στην τεχνολογία και πού οι άνθρωποι μπορούν να είναι δημιουργικοί, που είναι η κρίση των όρων, και όχι απλώς όλα τα μηχανικά πράγματα του να βρεις και να αναφέρεις. Έτσι το σκεφτόμαστε.
So I don't know how that happened over the company's history, but we put that above the thing that people want the most information on and to actually act on. And just our ordering shows the world what we believed was important. So we're changing all that. We're ordering it the right way, but we're also simplifying the rules so that they're human-readable so that people can actually understand themselves when something is against our terms and when something is not. And then we're making -- again, our big focus is on removing the burden of work from the victims. So that means push more towards technology, rather than humans doing the work -- that means the humans receiving the abuse and also the humans having to review that work. So we want to make sure that we're not just encouraging more work around something that's super, super negative, and we want to have a good balance between the technology and where humans can actually be creative, which is the judgment of the rules, and not just all the mechanical stuff of finding and reporting them. So that's how we think about it.
ΚΑ: Θα ήθελα να δούμε περισσότερο αυτό που είπες. Θέλω να πω, μου αρέσει ότι είπες ότι ψάχνετε για τρόπους για να επανεξετάσετε τον βασικό σχεδιασμό του συστήματος για να αποθαρρύνετε κάποια από την αντιδραστική συμπεριφορά, και ίσως -- να χρησιμοποιήσω γλώσσα τύπου Τρίσταν Χάρις -- να εμπλέξετε πιο στοχαστική σκέψη. Πόσο έχει προχωρήσει αυτό; Ποιες θα ήταν οι εναλλακτικές για το κουμπί «like»;
CA: I'm curious to dig in more about what you said. I mean, I love that you said you are looking for ways to re-tweak the fundamental design of the system to discourage some of the reactive behavior, and perhaps -- to use Tristan Harris-type language -- engage people's more reflective thinking. How far advanced is that? What would alternatives to that "like" button be?
ΤΝ: Πρώτα απ' όλα, ο προσωπικός μου στόχος με την υπηρεσία είναι ότι πιστεύω θεμελιωδώς ότι η δημόσια συζήτηση είναι κρίσιμη. Ο κόσμος αντιμετωπίζει υπαρξιακά προβλήματα, ολόκληρος ο κόσμος, όχι μόνο σε ένα συγκεκριμένο έθνος, και θα βοηθήσει η παγκόσμια δημόσια συζήτηση. Αυτή είναι μία από τις μοναδικές δυναμικές του Twitter, που είναι τελείως ανοιχτό, τελείως δημόσιο, τελείως ρευστό, και οποιοσδήποτε μπορεί να δει όλες τις συζητήσεις και να συμμετάσχει. Υπάρχουν συζητήσεις όπως η κλιματική αλλαγή. Υπάρχουν συζητήσεις όπως η μετατόπιση στην εργασία μέσω της τεχνητής νοημοσύνης. Υπάρχουν συζητήσεις όπως η οικονομική ανισότητα. Δεν έχει σημασία τι κάνει μία χώρα, δεν θα καταφέρουν να λύσουν το πρόβλημα μόνοι τους. Χρειάζεται συντονισμό σε όλον τον κόσμο, και εκεί νομίζω ότι μπορεί να παίξει κάποιον ρόλο το Twitter.
JD: Well, first and foremost, my personal goal with the service is that I believe fundamentally that public conversation is critical. There are existential problems facing the world that are facing the entire world, not any one particular nation-state, that global public conversation benefits. And that is one of the unique dynamics of Twitter, that it is completely open, it is completely public, it is completely fluid, and anyone can see any other conversation and participate in it. So there are conversations like climate change. There are conversations like the displacement in the work through artificial intelligence. There are conversations like economic disparity. No matter what any one nation-state does, they will not be able to solve the problem alone. It takes coordination around the world, and that's where I think Twitter can play a part.
Το δεύτερο είναι ότι το Twitter, αυτήν τη στιγμή, όταν πάτε σε αυτό, δεν φεύγετε απαραίτητα με το αίσθημα ότι μάθατε κάτι. Μερικοί το κάνουν. Μερικοί έχουν ένα πολύ πλούσιο δίκτυο, μια πολύ πλούσια κοινότητα από την οποία μαθαίνουν κάθε μέρα. Αλλά χρειάζεται πολλή δουλειά και χρόνος για να το φτάσει σε αυτό το σημείο. Θέλουμε να πάμε τον κόσμο σε αυτά τα θέματα και ενδιαφέροντα πολύ γρηγορότερα και να σιγουρευτούμε ότι βρίσκουν κάτι που, ασχέτως πόση ώρα ξοδεύουν στο Twitter -- και δεν θέλω να μεγιστοποιήσω τον χρόνο στο Twitter, θέλω να μεγιστοποιήσω τι παίρνουν από αυτό και τι μαθαίνουν από αυτό, και --
The second thing is that Twitter, right now, when you go to it, you don't necessarily walk away feeling like you learned something. Some people do. Some people have a very, very rich network, a very rich community that they learn from every single day. But it takes a lot of work and a lot of time to build up to that. So we want to get people to those topics and those interests much, much faster and make sure that they're finding something that, no matter how much time they spend on Twitter -- and I don't want to maximize the time on Twitter, I want to maximize what they actually take away from it and what they learn from it, and --
ΚΑ: Το κάνεις όμως; Επειδή αυτή είναι η κύρια ερώτηση που θέλει να μάθει πολύς κόσμος. Τζακ, σίγουρα περιορίζεσαι, σε μεγάλο βαθμό, από το γεγονός, ότι είσαι στο χρηματιστήριο, και έχεις τους επενδυτές να σε πιέζουν, ο νούμερο ένα τρόπος να βγάλεις χρήματα είναι από τις διαφημίσεις -- αυτό εξαρτάται από την εμπλοκή των χρηστών. Είσαι διατεθειμένος να θυσιάσεις χρόνο χρηστών, αν χρειαστεί, για να πας σε μια πιο στοχαστική συνομιλία;
CA: Well, do you, though? Because that's the core question that a lot of people want to know. Surely, Jack, you're constrained, to a huge extent, by the fact that you're a public company, you've got investors pressing on you, the number one way you make your money is from advertising -- that depends on user engagement. Are you willing to sacrifice user time, if need be, to go for a more reflective conversation?
ΤΝ: Ναι, μεγαλύτερη σχετικότητα σημαίνει λιγότερος χρόνος στην υπηρεσία, και είναι μια χαρά, επειδή θέλουμε να σιγουρευτούμε ότι όταν έρχεσαι στο Twitter, και δεις κάτι αμέσως από το οποίο μαθαίνεις και σπρώχνεις. Ακόμη μπορούμε να βάλουμε διαφήμιση σε αυτό. Δεν χρειάζεται να περάσεις πιο πολύ χρόνο για να δεις πιο πολλά. Το δεύτερο πράγμα που κοιτάμε --
JD: Yeah; more relevance means less time on the service, and that's perfectly fine, because we want to make sure that, like, you're coming to Twitter, and you see something immediately that you learn from and that you push. We can still serve an ad against that. That doesn't mean you need to spend any more time to see more. The second thing we're looking at --
ΚΑ: Αλλά μόνο -- σε αυτόν τον στόχο, καθημερινή ενεργή χρήση, αν μετράς αυτό, δεν σημαίνει απαραίτητα πράγματα που εκτιμά ο κόσμος καθημερινά. Θα μπορούσε να σημαίνει πράγματα τα οποία έλκουν τους ανθρώπους σαν μαγνήτης, κάθε μέρα. Είμαστε εθισμένοι, επειδή βλέπουμε κάτι που μας τσαντίζει, έτσι πηγαίνουμε και ρίχνουμε λάδι στη φωτιά, και η καθημερινή ενεργή χρήση ανεβαίνει, και υπάρχει μεγαλύτερος τζίρος από διαφημίσεις, αλλά όλοι μας θυμώνουμε περισσότερο μεταξύ μας. Πώς ορίζεις... «Η καθημερινή ενεργή χρήση» ακούγεται σαν κάτι επικίνδυνο για να βελτιστοποιηθεί.
CA: But just -- on that goal, daily active usage, if you're measuring that, that doesn't necessarily mean things that people value every day. It may well mean things that people are drawn to like a moth to the flame, every day. We are addicted, because we see something that pisses us off, so we go in and add fuel to the fire, and the daily active usage goes up, and there's more ad revenue there, but we all get angrier with each other. How do you define ... "Daily active usage" seems like a really dangerous term to be optimizing.
(Χειροκρότημα)
(Applause)
ΤΝ: Από μόνο του, είναι, αλλά δεν με άφησες να τελειώσω την άλλη μέτρηση, που είναι ότι κοιτάμε για συζητήσεις και αλυσίδες συζητήσεων. Έτσι θέλουμε να δώσουμε κίνητρα για την υγιή συμβολή στο δίκτυο, και πιστεύουμε ότι η συμμετοχή στη συζήτηση είναι υγιής, όπως προσδιορίζεται από αυτούς τους τέσσερις δείκτες που ανέφερα πριν.
JD: Taken alone, it is, but you didn't let me finish the other metric, which is, we're watching for conversations and conversation chains. So we want to incentivize healthy contribution back to the network, and what we believe that is is actually participating in conversation that is healthy, as defined by those four indicators I articulated earlier.
Δεν μπορείς να βελτιστοποιήσεις γύρω από μία μέτρηση. Πρέπει να ισορροπείς και να κοιτάς συνεχώς τι είναι αυτό που θα δημιουργήσει μια υγιή συμμετοχή στο δίκτυο και μια υγιή εμπειρία για τους ανθρώπους. Στην τελική, θέλω να φτάσω σε μια μέτρηση όπου θα μπορούν να μου πουν, «Έι, έμαθα κάτι από το Twitter, και φεύγω με κάτι πολύτιμο». Αυτός είναι ο σκοπός μας τελικά, αλλά θα χρειαστεί χρόνος.
So you can't just optimize around one metric. You have to balance and look constantly at what is actually going to create a healthy contribution to the network and a healthy experience for people. Ultimately, we want to get to a metric where people can tell us, "Hey, I learned something from Twitter, and I'm walking away with something valuable." That is our goal ultimately over time, but that's going to take some time.
ΚΑ: Σε πολλούς είσαι, νομίζω σε μένα, σαν αίνιγμα. Είναι μάλλον άδικο, αλλά τις προάλλες ξύπνησα τη νύχτα έχοντας αυτή την εικόνα του πώς σκέφτομαι εσένα και την κατάσταση, ότι είμαστε σε ένα μεγάλο ταξίδι μαζί σου στο καράβι που λέγεται «Twittanic» --
CA: You come over to many, I think to me, as this enigma. This is possibly unfair, but I woke up the other night with this picture of how I found I was thinking about you and the situation, that we're on this great voyage with you on this ship called the "Twittanic" --
(Γέλια)
(Laughter)
και υπάρχουν άτομα στο πλοίο στο πηδάλιο που εκφράζουν τη δυσφορία τους, κι εσύ, σε αντίθεση με πολλούς άλλους καπετάνιους, λες, «Πείτε μου, μιλήστε μου, ακούστε με, θέλω να ακούσω». Και σου μιλούν, και λένε, «Ανησυχούμε για το παγόβουνο μπροστά». Λες, «Ξέρεις, έχεις ένα ισχυρό σημείο, και το πλοίο μας, για να πω την αλήθεια, δεν έχει χτιστεί σωστά για πλοήγηση όπως θα μπορούσε». Και λέμε, «Σε παρακαλώ, κάνε κάτι». Και πας στη γέφυρα, και περιμένουμε, και βλέπουμε, και φαίνεσαι εξαιρετικά ήρεμος, αλλά όλοι μας στεκόμαστε απ' έξω και λέμε, «Τζακ, γύρνα το γαμημένο τιμόνι!»
and there are people on board in steerage who are expressing discomfort, and you, unlike many other captains, are saying, "Well, tell me, talk to me, listen to me, I want to hear." And they talk to you, and they say, "We're worried about the iceberg ahead." And you go, "You know, that is a powerful point, and our ship, frankly, hasn't been built properly for steering as well as it might." And we say, "Please do something." And you go to the bridge, and we're waiting, and we look, and then you're showing this extraordinary calm, but we're all standing outside, saying, "Jack, turn the fucking wheel!"
Καταλαβαίνεις;
You know?
(Γέλια)
(Laughter)
(Χειροκρότημα)
(Applause)
Θέλω να πω --
I mean --
(Χειροκρότημα)
(Applause)
Διακυβεύεται η δημοκρατία. Διακυβεύεται ο πολιτισμός μας. Διακυβεύεται ο κόσμος μας. Και το Twitter είναι εξαιρετικό και διαμορφώνει τόσα πράγματα. Δεν είναι τόσο μεγάλο όσο μερικές άλλες πλατφόρμες, αλλά το χρησιμοποιούν άτομα με επιρροή για να ορίσουν την ατζέντα, και είναι δύσκολο να φανταστείς έναν πιο σημαντικό ρόλο στον κόσμο από το να... Θέλω να πω, κάνεις φανταστική δουλειά στο να ακούς, Τζακ, και ακούς τον κόσμο, αλλά το να το θέσεις σε προτεραιότητα και να κάνεις κάτι -- θα το κάνεις αυτό;
It's democracy at stake. It's our culture at stake. It's our world at stake. And Twitter is amazing and shapes so much. It's not as big as some of the other platforms, but the people of influence use it to set the agenda, and it's just hard to imagine a more important role in the world than to ... I mean, you're doing a brilliant job of listening, Jack, and hearing people, but to actually dial up the urgency and move on this stuff -- will you do that?
ΤΝ: Ναι, και έχουμε κάνει σημαντικές κινήσεις. Υπήρχαν κάποιες δυναμικές στην ιστορία του Twitter. Ένα, όταν επέστρεψα στην εταιρία, ήμασταν σε κακή κατάσταση όσον αφορά το μέλλον μας, και όχι μόνο από το πώς χρησιμοποιείται η πλατφόρμα, αλλά και από εταιρική αφήγηση. Έτσι έπρεπε να φτιάξουμε αρκετή από τη βάση, να γυρίσουμε την εταιρία, να κάνουμε δύο τρελές απολύσεις, επειδή μεγαλώσαμε πολύ γι' αυτό που κάναμε, και εστιάσαμε όλη την ενέργειά μας σε αυτή την έννοια της υπηρεσίας της δημόσιας συζήτησης. Και χρειάστηκε αρκετή δουλειά. Και καθώς το ξεκινήσαμε αυτό, συνειδητοποιήσαμε μερικά θέματα με τις θεμελιώδεις αρχές. Θα μπορούσαμε να κάνουμε διάφορα επιφανειακά πράγματα για να αντιμετωπίσουμε αυτά που λες, αλλά πρέπει να κρατήσουν οι αλλαγές, και αυτό σημαίνει ότι πρέπει να πάμε πραγματικά βαθιά και να προσέξουμε αυτό που ξεκινήσαμε πριν από 13 χρόνια και να αναρωτηθούμε πραγματικά πώς λειτουργεί το σύστημα και η δομή και τι χρειάζεται για τον κόσμο σήμερα, δεδομένου πόσο γρήγορα κινούνται όλα και πώς το χρησιμοποιεί ο κόσμος. Δουλεύουμε όσο πιο γρήγορα μπορούμε, αλλά η γρηγοράδα δεν θα τελειώσει τη δουλειά. Είναι η εστίαση, οι προτεραιότητες, η κατανόηση των θεμελιωδών αρχών του δικτύου και το χτίσιμο μιας δομής που επεκτείνεται και είναι ανθεκτική στην αλλαγή, και το να είμαστε ανοιχτοί και διαφανείς για το πού βρισκόμαστε έτσι ώστε να συνεχίσουμε να κερδίζουμε την εμπιστοσύνη.
JD: Yes, and we have been moving substantially. I mean, there's been a few dynamics in Twitter's history. One, when I came back to the company, we were in a pretty dire state in terms of our future, and not just from how people were using the platform, but from a corporate narrative as well. So we had to fix a bunch of the foundation, turn the company around, go through two crazy layoffs, because we just got too big for what we were doing, and we focused all of our energy on this concept of serving the public conversation. And that took some work. And as we dived into that, we realized some of the issues with the fundamentals. We could do a bunch of superficial things to address what you're talking about, but we need the changes to last, and that means going really, really deep and paying attention to what we started 13 years ago and really questioning how the system works and how the framework works and what is needed for the world today, given how quickly everything is moving and how people are using it. So we are working as quickly as we can, but quickness will not get the job done. It's focus, it's prioritization, it's understanding the fundamentals of the network and building a framework that scales and that is resilient to change, and being open about where we are and being transparent about where are so that we can continue to earn trust.
Είμαι περήφανος για όλες τις δομές που έχουμε εφαρμόσει. Είμαι περήφανος για την κατεύθυνσή μας. Προφανώς μπορούμε να πάμε γρηγορότερα, αλλά αυτό απαιτούσε να σταματήσουμε διάφορα χαζά που κάναμε στο παρελθόν.
So I'm proud of all the frameworks that we've put in place. I'm proud of our direction. We obviously can move faster, but that required just stopping a bunch of stupid stuff we were doing in the past.
ΚΑ: Εντάξει. Υποψιάζομαι ότι πολλά άτομα εδώ αν είχαν την ευκαιρία, θα ήθελαν πολύ να σε βοηθήσουν σε αυτή την ατζέντα αλλαγών, και δεν ξέρω αν η Γουίτνι -- Τζακ, σε ευχαριστώ που ήρθες εδώ και μίλησες τόσο ανοιχτά. Χρειάστηκε κουράγιο. Εκτιμώ πραγματικά αυτό που είπες, και καλή τύχη με την αποστολή σου.
CA: All right. Well, I suspect there are many people here who, if given the chance, would love to help you on this change-making agenda you're on, and I don't know if Whitney -- Jack, thank you for coming here and speaking so openly. It took courage. I really appreciate what you said, and good luck with your mission.
ΤΝ: Σας ευχαριστώ πολύ. Σας ευχαριστώ που με δεχτήκατε.
JD: Thank you so much. Thanks for having me.
(Χειροκρότημα)
(Applause)
Σας ευχαριστώ.
Thank you.