Chris Anderson: What worries you right now? You've been very open about lots of issues on Twitter. What would be your top worry about where things are right now?
Chris Anderson: Bugün seni kaygılandıran ne? Twitter'la ilgili çok sorun hakkında hep çok dürüst oldun. Şu anki gidişatla ilgili en büyük endişen nedir?
Jack Dorsey: Right now, the health of the conversation. So, our purpose is to serve the public conversation, and we have seen a number of attacks on it. We've seen abuse, we've seen harassment, we've seen manipulation, automation, human coordination, misinformation. So these are all dynamics that we were not expecting 13 years ago when we were starting the company. But we do now see them at scale, and what worries me most is just our ability to address it in a systemic way that is scalable, that has a rigorous understanding of how we're taking action, a transparent understanding of how we're taking action and a rigorous appeals process for when we're wrong, because we will be wrong.
Jack Dorsey: Şu anki endişem, sohbetiin sağlığı. Amacımız herkese açık sohbete hizmet etmek ve buna yönelik bir dizi saldırı oldu. Suistimal oldu, taciz oldu, manipülasyon oldu, otomasyon, insan koordinasyonu, yanlış bilgi aktarımı oldu. Bundan 13 yıl önce şirketi ilk kurduğumuzda tüm bunlar beklemediğimiz dinamiklerdi. Ama şimdi gözle görülebilir boyuttalar, beni en çok endişelendiren de buna yanıt verme yeteneğimiz; ölçeklendirilebilecek sistematik bir şekilde, özenli bir şekilde harekete geçtiğimizi gösterecek, şeffaf bir şekilde harekete geçtiğimizi gösterecek, yanıldığımızda da özenli bir itiraz süreci olacak bir şekilde çünkü yanılacağız da.
Whitney Pennington Rodgers: I'm really glad to hear that that's something that concerns you, because I think there's been a lot written about people who feel they've been abused and harassed on Twitter, and I think no one more so than women and women of color and black women. And there's been data that's come out -- Amnesty International put out a report a few months ago where they showed that a subset of active black female Twitter users were receiving, on average, one in 10 of their tweets were some form of harassment. And so when you think about health for the community on Twitter, I'm interested to hear, "health for everyone," but specifically: How are you looking to make Twitter a safe space for that subset, for women, for women of color and black women?
Whitney Rodgers: Bunun seni endişelendirdiğini söylemene gerçekten memnun oldum çünkü Twitter'da rahatsız ve taciz edildiğini söyleyen insanlar hakkında çok şey yazıldı, bence bunlar, özellikle de kadınlar ve farklı etnisiteden kadınlar ve siyahi kadınlar. Yeni çıkan bazı veriler var -- Amnesty International birkaç ay önce bir rapor çıkardı, buna göre, bir aktif, siyahi kadın Twitter kullanı grubunun ortalama olarak her 10 tweetinden biri bir tür taciz oluyormuş. Twitter'daki topluluğun sağlığı hakkında konuşmuşken ''herkesin sağlığı'' benim için önemli ama şunu bilmek istiyorum, Twitter'ı bu grup için, kadınlar için, farklı etnisiteden ve siyahi kadınlar için nasıl güvenli kılmayı düşünüyorsun?
JD: Yeah. So it's a pretty terrible situation when you're coming to a service that, ideally, you want to learn something about the world, and you spend the majority of your time reporting abuse, receiving abuse, receiving harassment. So what we're looking most deeply at is just the incentives that the platform naturally provides and the service provides. Right now, the dynamic of the system makes it super-easy to harass and to abuse others through the service, and unfortunately, the majority of our system in the past worked entirely based on people reporting harassment and abuse. So about midway last year, we decided that we were going to apply a lot more machine learning, a lot more deep learning to the problem, and try to be a lot more proactive around where abuse is happening, so that we can take the burden off the victim completely. And we've made some progress recently. About 38 percent of abusive tweets are now proactively identified by machine learning algorithms so that people don't actually have to report them. But those that are identified are still reviewed by humans, so we do not take down content or accounts without a human actually reviewing it. But that was from zero percent just a year ago. So that meant, at that zero percent, every single person who received abuse had to actually report it, which was a lot of work for them, a lot of work for us and just ultimately unfair.
JD: Evet. Bu oldukça kötü bir durum, bir ortama giriyorsunuz, tercihen dünya hakkında bir şey öğrenmek istiyorsunuz ve zamanınızın çoğunu taciz ve saldırıya uğrayarak, bunları bildirerek geçiriyorsunuz. Bizim de en derin baktığımız şey bu platform ve hizmetin doğal olarak sağladığı özendirici ögeler. Şu anda sistemin dinamiği bu hizmet aracılığıyla başkalarını saldırmayı ve onları taciz etmeyi çok kolay kılıyor ve ne yazık ki geçmişte sistemimizin çoğunluğu tamamen saldırı ve tacizi bildiren insanlar için çalıştı. Geçen yılın ortasında bu soruna yönelik olarak çok daha fazla makine öğrenimi ve derin öğrenme uygulamaya karar verdik, ve saldırının olduğu yerde daha proaktif olacağız, böylece yükü mağdurun üstünden tamamen alabileceğiz. Son zamanlarda biraz ilerleme kaydettik. Saldırı nitelikle tweetlerin yüzde 38'i artık proaktif şekilde belirleniyor, makine öğrenimli algoritmalar tarafından, böylece insanlar bildirmek zorunda kalmıyor. Ama belirlenen tweetler hâlâ insanlar tarafından denetleniyor, yani bir insan denetim yapmadan hiçbir içerik veya hesabı kaldırmıyoruz. Ama bu aşamaya geçen yıldan bu yana yüzde sıfırdan geldik. Yüzde sıfır dediğim durumda, saldırı alan her kişinin bunu bildirmesi gerekiyordu, ki bu da hem onlar için hem de bizim için çok iş demek ve sonuç olarak da adil değildi.
The other thing that we're doing is making sure that we, as a company, have representation of all the communities that we're trying to serve. We can't build a business that is successful unless we have a diversity of perspective inside of our walls that actually feel these issues every single day. And that's not just with the team that's doing the work, it's also within our leadership as well. So we need to continue to build empathy for what people are experiencing and give them better tools to act on it and also give our customers a much better and easier approach to handle some of the things that they're seeing. So a lot of what we're doing is around technology, but we're also looking at the incentives on the service: What does Twitter incentivize you to do when you first open it up? And in the past, it's incented a lot of outrage, it's incented a lot of mob behavior, it's incented a lot of group harassment. And we have to look a lot deeper at some of the fundamentals of what the service is doing to make the bigger shifts. We can make a bunch of small shifts around technology, as I just described, but ultimately, we have to look deeply at the dynamics in the network itself, and that's what we're doing.
Yaptığımız diğer şey de şirket olarak şundan emin olmak; hizmet etmeye çalıştığımız tüm toplulukların temsil edilmesi. Kendi aramızda bu sorunları her gün hisseden bir bakış açısı çeşitliliğimiz olmazsa başarılı bir işletme kuramayız. Bu yalnızca asıl işi yapan ekip için değil yönetimimiz için de geçerli. Bu yüzden insanların yaşadıkları için empati kurmaya devam etmeli ve onlara daha iyi araçlar sunmalı ve ayrıca kullanıcılarımıza daha iyi ve daha kolay bir yaklaşım vermeliyiz ki gördüklerinin bir kısmını daha iyi kullanabilsinler. Yaptığımız şeyin çoğu teknoloji ekseninde dönüyor ama ayrıca bu hizmetin özendirici ögeleri de söz konusu: İlk açtığınızda Twitter sizi ne yapmaya teşvik ediyor? Geçmişte, çok fazla öfke, çok fazla çete davranışı, çok fazla grup tacizi teşvik ediyordu. Hizmetin daha büyük değişiklikler geçirebilmesi için bunun temeline daha derin inmemiz lazım. Teknoloji ekseninde pek çok küçük değişiklik yapabiliriz ama sonuç olarak bu sosyal ağın dinamiklerine derinden bakmamız lazım ve yaptığımız da bu.
CA: But what's your sense -- what is the kind of thing that you might be able to change that would actually fundamentally shift behavior?
CA: Peki ya senin bakış açın -- Temelden davranışı değiştirecek senin değiştirebileceğin şey ne olurdu?
JD: Well, one of the things -- we started the service with this concept of following an account, as an example, and I don't believe that's why people actually come to Twitter. I believe Twitter is best as an interest-based network. People come with a particular interest. They have to do a ton of work to find and follow the related accounts around those interests. What we could do instead is allow you to follow an interest, follow a hashtag, follow a trend, follow a community, which gives us the opportunity to show all of the accounts, all the topics, all the moments, all the hashtags that are associated with that particular topic and interest, which really opens up the perspective that you see. But that is a huge fundamental shift to bias the entire network away from just an account bias towards a topics and interest bias.
JD: Bunlardan biri... biz bu hizmeti bir hesap takip etme konseptiyle başlattık, örnek olarak, insanların Twitter'a gelme sebebinin bu olduğunu düşünmüyorum. Bence Twitter'in en iyi kullanım amacı ilgi temelli ağ olarak görülmesi. İnsanlar belli bir ilgi alanıyla geliyorlar. Bu ilgi alanları hakkında hesaplar bulmak ve takip etmek için bir sürü şey yapmak zorundalar. Bunun yerine bir ilgi alanını takip etmelerini sağlayabiliriz; bir etiketi, bir trendi, bir topluluğu, bu da bize o konu ve ilgi alanıyla alakalı tüm hesapları, tüm anları, tüm etiketleri gösterme imkânu sunar ve bu da sizin gördüğünüz bakış açısına kapı açar. Ama bu dev bir temel değişiklik, tüm sosyal ağı, hesap temelinden uzaklaştırıp bir konu ve ilgi alanı temeline döndürmek.
CA: Because isn't it the case that one reason why you have so much content on there is a result of putting millions of people around the world in this kind of gladiatorial contest with each other for followers, for attention? Like, from the point of view of people who just read Twitter, that's not an issue, but for the people who actually create it, everyone's out there saying, "You know, I wish I had a few more 'likes,' followers, retweets." And so they're constantly experimenting, trying to find the path to do that. And what we've all discovered is that the number one path to do that is to be some form of provocative, obnoxious, eloquently obnoxious, like, eloquent insults are a dream on Twitter, where you rapidly pile up -- and it becomes this self-fueling process of driving outrage. How do you defuse that?
CA: Çünkü durum aslında şu sanırım, platformda bu kadar içerik olmasının başlıca sebebi, dünyanın her yanından milyonlarca insanı birbirleriyle bu tür bir gladyatör yarışına sokmanın sonucu, takipçi için, ilgi çekmek için? Twitter'ı yalnızca okuma amaçlı kullanan insanların bakış açısından bu bir sorun değil, peki ya onu yaratanlar için... Çünkü herkes şöyle düşünüyor, ''Kesşke daha çok beğeni alsaydım, daha çok takipçi, daha çok retweet.'' Bu yüzden de sürekli deneme hâlindeler, o yola ulaşmaya çalışıyorlar. Şunu da hepimiz artık biliyoruz ki bunu yapabilmenin bir numaralı yolu bir şekilde provokatif olmak, etkileyici bir tonda aşağılaycı olmak, etkileyici hakaretler Twitter'da bir hayal, hızla yığılıyorlar ve kendi kendine yeten bir kızgınlık sürecine dönüşüyor. Bunu nasıl ortadan kaldırabilirsin?
JD: Yeah, I mean, I think you're spot on, but that goes back to the incentives. Like, one of the choices we made in the early days was we had this number that showed how many people follow you. We decided that number should be big and bold, and anything that's on the page that's big and bold has importance, and those are the things that you want to drive. Was that the right decision at the time? Probably not. If I had to start the service again, I would not emphasize the follower count as much. I would not emphasize the "like" count as much. I don't think I would even create "like" in the first place, because it doesn't actually push what we believe now to be the most important thing, which is healthy contribution back to the network and conversation to the network, participation within conversation, learning something from the conversation. Those are not things that we thought of 13 years ago, and we believe are extremely important right now.
JD: Bence tam üstüne bastınız ama konu yine özendiricilere gidiyor. İlk günlerde verdiğimiz kararlardan biri, sizi kaç kişinin takip ettiğini size göstermekti. Bunun büyük ve kalın yazı tipiyle olmasına karar vermiştik ve sayfada büyük ve kalın yazı tipli her şey önemli olacaktı ve üzerinde uğraşmak istediğiniz şeyler bunlar. Bu doğru bir karar mıydı? Muhtemelen hayır. Bu hizmeti yeniden başlatacak olsam Takipçi sayısı üzerinde bu kadar durmam. "Beğeni" sayısı üzerinde bu kadar durmam. Hatta sanırım "beğen"i hiç yaratmam bile çünkü bizim için artık önemli olanı gerçekten yansıtmıyor, bu da sosyal ağa sağlıklı katkılar ve sosyal ağda sohbet, sohbet içine katılım, sohbetten bir şey öğrenme. 13 yıl önce düşündüğümüz şeyler bunlar değildi ve şu an bunların çok önemli olduğuna inanıyoruz.
So we have to look at how we display the follower count, how we display retweet count, how we display "likes," and just ask the deep question: Is this really the number that we want people to drive up? Is this the thing that, when you open Twitter, you see, "That's the thing I need to increase?" And I don't believe that's the case right now.
Takipçi sayısını nasıl görüntülediğimize yeniden bakmamız lazım, retweet sayısını, ''beğeni'' görüntüleyişimizi ve şu soruyu sormamız lazım: İnsanları teşvik etmek istediğimiz sayı bu mu? Twitter'ı açtığınız zaman ''Arttırmam gereken işte bu'' demelerini mi istiyoruz? Bunun doğru olduğunu sanmıyorum.
(Applause)
(Alkışlar)
WPR: I think we should look at some of the tweets that are coming in from the audience as well.
WPR: Bence izleyicilerden gelmekte olan tweetlere de bakmalıyız.
CA: Let's see what you guys are asking. I mean, this is -- generally, one of the amazing things about Twitter is how you can use it for crowd wisdom, you know, that more knowledge, more questions, more points of view than you can imagine, and sometimes, many of them are really healthy.
CA: Neler sorulduğuna bir bakalım. Twitter'ın harika yanlarından biri bu, topluluğun fikri için kullanabiliyoruz, daha fazla bilgi, daha fazla soru, daha fazla bakış açısı, düşündüğümüzden de fazla ve bazen çoğu gerçekten sağlıklı yorumlar.
WPR: I think one I saw that passed already quickly down here, "What's Twitter's plan to combat foreign meddling in the 2020 US election?" I think that's something that's an issue we're seeing on the internet in general, that we have a lot of malicious automated activity happening. And on Twitter, for example, in fact, we have some work that's come from our friends at Zignal Labs, and maybe we can even see that to give us an example of what exactly I'm talking about, where you have these bots, if you will, or coordinated automated malicious account activity, that is being used to influence things like elections. And in this example we have from Zignal which they've shared with us using the data that they have from Twitter, you actually see that in this case, white represents the humans -- human accounts, each dot is an account. The pinker it is, the more automated the activity is. And you can see how you have a few humans interacting with bots. In this case, it's related to the election in Israel and spreading misinformation about Benny Gantz, and as we know, in the end, that was an election that Netanyahu won by a slim margin, and that may have been in some case influenced by this. And when you think about that happening on Twitter, what are the things that you're doing, specifically, to ensure you don't have misinformation like this spreading in this way, influencing people in ways that could affect democracy?
WPR: Sanırım gözümün önünden geçen bir tanesi şöyleydi, "Twitter'ın 2020 ABD seçiminde yabancı müdahalesiyle savaşmak için planı ne?" Sanırım bu internette genel olarak gördüğümüz sorunlardan bir tanesi, çok fazla otomatik kötü amaçlı aktivitenin yaşandığı bir sorun. Twitter'da da örneğin Zignal Labs'tan arkadaşlarımızın çalışmaları var, belki de bunu tam olarak ne anlatmaya çalıştığıma bir örnek olarak kullanabiliriz, bazı botlar var veya koordineli otomatik kötü amaçlı aktivite, seçim gibi şeyleri etkilemek için kullanılıyor. Zignal'in bizimle paylaştığı bu örnekte Twitter'dan veriler kullandılar, gerçekten görüyorsunuz ki beyaz, insanları temsil ediyor -- insan hesapları, her nokta bir hesap. Pembeleştikçe aktivite daha otomatik hâle geliyor. Botlarla etkileşime geçen birkaç insan olduğunu da görebilirsiniz. Böyle bir durumda, İsrail'deki seçimlerle de alakalı ve Benny Gantz hakkında yanlış bilgi yayılmasıyla ve bildiğimiz üzere, sonuç olarak bir seçim yaşandı ve Netanyahu küçük bir farkla kazandı. Durum, bir açıdan bundan etkilenmiş olabilir. Bunun Twitter'da olduğunu düşündüğümüzde buna dair yaptığın şeyler neler, bu şekilde yanlış bilginin yayılmasına engel olmak ve demokrasiyi etkileyecek şekilde insanları etkilemenin önüne geçmek için?
JD: Just to back up a bit, we asked ourselves a question: Can we actually measure the health of a conversation, and what does that mean? And in the same way that you have indicators and we have indicators as humans in terms of are we healthy or not, such as temperature, the flushness of your face, we believe that we could find the indicators of conversational health. And we worked with a lab called Cortico at MIT to propose four starter indicators that we believe we could ultimately measure on the system. And the first one is what we're calling shared attention. It's a measure of how much of the conversation is attentive on the same topic versus disparate. The second one is called shared reality, and this is what percentage of the conversation shares the same facts -- not whether those facts are truthful or not, but are we sharing the same facts as we converse? The third is receptivity: How much of the conversation is receptive or civil or the inverse, toxic? And then the fourth is variety of perspective. So, are we seeing filter bubbles or echo chambers, or are we actually getting a variety of opinions within the conversation? And implicit in all four of these is the understanding that, as they increase, the conversation gets healthier and healthier.
JD: Biraz geriye gidersek kendimize bir soru sormuştuk: Bir sohbetin sağlığını gerçekten ölçebilir miyiz ve bu ne anlama geliyor? Sizin göstergeleriniz olduğu gibi biz insanların da sağlıklı olup olmadığımızı gösteren göstergeler var, vücut ısısı, yüzünüzdeki kızarma gibi, sohbet sağlığı için de göstergeler bulabileceğimizi düşünüyoruz. MIT'de Cortico adında bir laboratuvarla çalışarak sistemde ölçüm yapabilecek dört başlangıç göstergesi teklifinde bulunduk. Birincisi paylaşımlı dikkat dediğimiz bir şey. Farklı görüşlere kıyasla sohbetin aynı konu üzerinde ne kadar dikkat aldığına dair bir ölçüm. İkincisi paylaşımlı gerçeklik; bu bize sohbetin yüzde kaçının aynı bilgileri paylaştığını gösteriyor, bu bilgilerin doğru olup olmadığını değil, ama sohbet ederken hepimiz aynı bilgileri mi paylaşıyoruz? Üçüncüsü kabul görürlük: Sohbetin ne kadarı kabul görür veya medeni ya da tam tersi, çirkin? Son olarak dördüncüsü bakış açısı çeşitliliği. Kendimizi internette farklı görüşlerden soyutlamış mıyız yoksa sahiden sohbete ilişkin farklı fikirler ediniyor muyuz? Ve dolaylı olarak tüm bu dört unsurda da var olan şey şu, bunlar arttıkça sohbet giderek daha sağlıklı olacaktır.
So our first step is to see if we can measure these online, which we believe we can. We have the most momentum around receptivity. We have a toxicity score, a toxicity model, on our system that can actually measure whether you are likely to walk away from a conversation that you're having on Twitter because you feel it's toxic, with some pretty high degree. We're working to measure the rest, and the next step is, as we build up solutions, to watch how these measurements trend over time and continue to experiment. And our goal is to make sure that these are balanced, because if you increase one, you might decrease another. If you increase variety of perspective, you might actually decrease shared reality.
O yüzden ilk adım bunları internette ölçebilir miyiz bunu anlamak, ki bence yapabiliriz. Rn büyük yatkınlığımız kabul görürlük üzerinde. Sistemimizde bir çirkinleşme skoru, bir çirkinleşme modeli var, Twitter'da bir sohbetten çirkinleştiği için çekip gitme eğiliminde olup olmadığımızı öleçebilen bir sistem ve doğruluk oranı bayağı yüksek. Kalanları da ölçmeye çalışıyoruz ve sonraki adım da çözümler ortaya çıkarırken bu ölçümlerin zamanla ne kadar trend olduğuna bakmak ve denemeye devam etmek. Hedefimiz bunların dengeli olmasını sağlamak çünkü birini arttırırken diğerini azaltabilirsiniz. Bakış açısı çeşitliliğini arttırırsanız istemeden paylaşımlı gerçekliği azaltabilirsiniz.
CA: Just picking up on some of the questions flooding in here.
CA: Buraya hızla gelen sorulardan bazılarını seçmek istiyorum.
JD: Constant questioning.
JD: Sürekli sorgulama.
CA: A lot of people are puzzled why, like, how hard is it to get rid of Nazis from Twitter?
CA: Pek çok insan neden sorusuna takılmış, mesela Twitter'dan Nazileri kaldırmak ne kadar zor olabilir ki?
JD: (Laughs)
JD: (Gülüyor)
So we have policies around violent extremist groups, and the majority of our work and our terms of service works on conduct, not content. So we're actually looking for conduct. Conduct being using the service to repeatedly or episodically harass someone, using hateful imagery that might be associated with the KKK or the American Nazi Party. Those are all things that we act on immediately. We're in a situation right now where that term is used fairly loosely, and we just cannot take any one mention of that word accusing someone else as a factual indication that they should be removed from the platform. So a lot of our models are based around, number one: Is this account associated with a violent extremist group? And if so, we can take action. And we have done so on the KKK and the American Nazi Party and others. And number two: Are they using imagery or conduct that would associate them as such as well?
Şiddetli ekstremist gruplara yönelik ilkelerimiz var ve işimizin, hizmet koşullarımızın büyük bölümü davranış üzerine, içerik değil. Bu yüzden de davranış bakıyoruz. Burada davranıştan kasıt bu hizmeti sürekli veya aralıklarla birini taciz etmek, KKK ile ilgili veya Amerikan Nazi Partisi ile ilgili nefret içerikli görsel kullanmak olabilir. Tüm bunlara anında müdahele ediyoruz. Şu an bu koşulun biraz fazla rahatlıkla uygulandığı bir dönemden geçiyoruz ve sırf birisi o kelimeyi kullandığı için, birini suçladığı için bunu bir gösterge kabul edip kişiyi platformdan çıkaramayız. Modellerimizin çoğu şunlar üzerine kurulu, bir: Bu hesap, şiddet eğilimli extremist bir grupla ilişkili mi? Eğer öyleyse müdahele ediyoruz. KKK veya Amerikan Nazi Partisi ve başkaları için bunu yaptık da. İki: Kendilerini bu saydıklarımızla ilişkilendirecek davranış veya görsel kullanıyorlar mı?
CA: How many people do you have working on content moderation to look at this?
CA: Bunlara bakmak için içerik moderasyon departmanında kaç kişi çalışıyor?
JD: It varies. We want to be flexible on this, because we want to make sure that we're, number one, building algorithms instead of just hiring massive amounts of people, because we need to make sure that this is scalable, and there are no amount of people that can actually scale this. So this is why we've done so much work around proactive detection of abuse that humans can then review. We want to have a situation where algorithms are constantly scouring every single tweet and bringing the most interesting ones to the top so that humans can bring their judgment to whether we should take action or not, based on our terms of service.
JD: Değişiyor. Bu konuda esnek olmak istiyoruz çünkü her şeyden önce algoritma geliştirmek istiyoruz, düzinelerce insan işe almak değil, çünkü bunun ölçeklendirilebilir olmasını istiyoruz ve bunu ölçeklendirebilecek bir insan sayısı olamaz. Bu yüzden de sonradan insanların gözden geçirdiği önlenebilir taciz tesbiti için çok çalıştık. İstediğimiz ortam, algoritmaların sürekli olarak her bir tviti incelemesi ve en ilginç olanları en öne çıkarması, böylece insanlar müdahele edip etmemiz konusunda yorum yapabilirler, tabii hizmet koşullarına dayanarak.
WPR: But there's not an amount of people that are scalable, but how many people do you currently have monitoring these accounts, and how do you figure out what's enough?
WPR: Ama ölçeklendirilecek bir insan sayısı yoksa şu anda bu hesapları gözlemleyen kaç kişi çalışıyor ve yeterli sayıyı nasıl belirliyorsun?
JD: They're completely flexible. Sometimes we associate folks with spam. Sometimes we associate folks with abuse and harassment. We're going to make sure that we have flexibility in our people so that we can direct them at what is most needed. Sometimes, the elections. We've had a string of elections in Mexico, one coming up in India, obviously, the election last year, the midterm election, so we just want to be flexible with our resources. So when people -- just as an example, if you go to our current terms of service and you bring the page up, and you're wondering about abuse and harassment that you just received and whether it was against our terms of service to report it, the first thing you see when you open that page is around intellectual property protection. You scroll down and you get to abuse, harassment and everything else that you might be experiencing.
JD: Tamamen esnekler. Bazen insanları spam olarak işaretliyoruz. Bazen taciz ve saldırı olarak. Çalışanlarımızda da esneklik olmasını istiyoruz ki onları en gerekli şeye yönlendirebilelim. Bazen, seçimler. Meksika'da seçin oldu, Hindistan'da yakında olacak, geçen yılki seçim, dönem ortası seçimleri, kaynaklarımızla esnek olmak istiyoruz. Yani insanlar -- örnek olarak şu anki hizmet koşullarımızı açıyorsunuz ve sayfayı görüntülüyorsunuz ve az önce biri sizi taciz ettiği için bildirmebilmek için hizmet koşullarına aykırı mı ona bakıyorsunuz, ancak o sayfayı açtığınızda ilk gördüğünüz şey fikri mülkiyetin korunması. Aşağı kaydırıyorsunuz ve taciz ve saldırı kısmına geliyorsunuz ve başınızdan geçiyor olabilecek diğer her şey.
So I don't know how that happened over the company's history, but we put that above the thing that people want the most information on and to actually act on. And just our ordering shows the world what we believed was important. So we're changing all that. We're ordering it the right way, but we're also simplifying the rules so that they're human-readable so that people can actually understand themselves when something is against our terms and when something is not. And then we're making -- again, our big focus is on removing the burden of work from the victims. So that means push more towards technology, rather than humans doing the work -- that means the humans receiving the abuse and also the humans having to review that work. So we want to make sure that we're not just encouraging more work around something that's super, super negative, and we want to have a good balance between the technology and where humans can actually be creative, which is the judgment of the rules, and not just all the mechanical stuff of finding and reporting them. So that's how we think about it.
Şirketin tarihinde neler oldu bilmiyorum ama insanların en çok bilgi sahibi olmak istedikleri ve bir şeyler yapmak istedikleri şey olarak onu en üste koyduk. Sadece sıralamamız bile dünyaya neyin bizim için önemli olduğunu gösteriyor. Bütün bunları değiştiriyoruz. Sıralamayı doğru yapıyoruz ama ayrıca kuralları basitleştiriyoruz ki insan için okunaklı olsun, bir şeyler koşullarımıza aykırı olduğunda veya olmadığında insanlar bunu kendi başlarına anlayabilsin. Şunu da yapıyoruz -- yeniden söyleyeyim, asıl odağımız mağdurların üzerinden yükü kaldırmak. Bu da işi insanlara yaptırmaktan ziyade teknolojiye daha çok yönelmek demek -- çünkü aksi hâlde tacize maruz kalan kişi aynı zamanda bunu gözden geçirecek kişi oluyor. Bizim de istediğimiz şey, aşırı derecede negatif bir şey konusunda daha fazla teşvik sağlamamak. İnsanların yaratıcılığı ve teknoloji arasında iyi bir denge sağlamak istiyoruz, bu da kuralların yorumlanması, sadece bir dizi mekanik şeyi bulup onları bildirmek değil. Düşünce şeklimiz bu yönde.
CA: I'm curious to dig in more about what you said. I mean, I love that you said you are looking for ways to re-tweak the fundamental design of the system to discourage some of the reactive behavior, and perhaps -- to use Tristan Harris-type language -- engage people's more reflective thinking. How far advanced is that? What would alternatives to that "like" button be?
CA: Söylediğin şeyin daha derinine inmek istiyorum. Şunu söylemen öok hoşuma gitti, sistemin temel tasarımına yeni yön verecek yollar arıyorsun, insanların reaktif davranışlarını caydırmak ve belki de -- Tristan Harris gibi konuşursak -- insanların reflektif düşüncesini daha çok dâhil etmek. Bu ne kadar ileri bir görüş? ''Beğen'' butonunun alternatifi ne olurdu?
JD: Well, first and foremost, my personal goal with the service is that I believe fundamentally that public conversation is critical. There are existential problems facing the world that are facing the entire world, not any one particular nation-state, that global public conversation benefits. And that is one of the unique dynamics of Twitter, that it is completely open, it is completely public, it is completely fluid, and anyone can see any other conversation and participate in it. So there are conversations like climate change. There are conversations like the displacement in the work through artificial intelligence. There are conversations like economic disparity. No matter what any one nation-state does, they will not be able to solve the problem alone. It takes coordination around the world, and that's where I think Twitter can play a part.
JD: Her şeyden önce, benim bu hizmetteki kişisel amacım olan inandığım temel şey; toplu konuşma çok önemlidir. Dünyayı tehdit eden var oluşsal sorunlar var, tek bir ulus devleti değil tüm dünyayı tehdit eden sorunlar ve küresel toplu sohbet buna fayda sağlıyor. Twitter'ın eşsiz dinamiklerinden biri bu, tamamen aleni, tamamen hakla açık, tamamen değişken ve herkes başka sohbetler görüp bunlara katılabilir. İklim değişikliği gibi sohbetler var. İş yerinde yapay zekâ aracılığıyla yanlış yerleştirme sohbetleri var. Ekonomik eşitsizlik sohbetleri var. Herhangi bir ulus devletin ne yaptığı önemli değil, bu sorunu tek başlarına çözemeyecekler. Bunun için dünya çapında işbirliği lazım ve bu noktada Twitter bir rol oynayabilir.
The second thing is that Twitter, right now, when you go to it, you don't necessarily walk away feeling like you learned something. Some people do. Some people have a very, very rich network, a very rich community that they learn from every single day. But it takes a lot of work and a lot of time to build up to that. So we want to get people to those topics and those interests much, much faster and make sure that they're finding something that, no matter how much time they spend on Twitter -- and I don't want to maximize the time on Twitter, I want to maximize what they actually take away from it and what they learn from it, and --
İkinci husus da Twitter şu an öyle bir ortam ki bir sohbetten çıkarken her zaman bir şey öğrenmiş gibi hissetmiyorsunuz. Kimi insanlar öğreniyor. Bazı insanların çok zengin bir ağı var, o kadar geniş bir ağ ki her geçen gün bir şeyler öğreniyorlar. Ama buna ulaşmak çok emek ve çok zaman gerektiriyor. Biz, insanların bu konu ve ilgi alanlarına çok daha hızlı ulaşmalarını ve ulaştıklarında da Twitter'da ne kadar zaman geçirirlerse geçirsinler -- Twitter zamanını maksimize etmek istemiyorum, maksimize etmek istediğim şey bu platformdan edindikleri ve neler öğrendikleri ve de --
CA: Well, do you, though? Because that's the core question that a lot of people want to know. Surely, Jack, you're constrained, to a huge extent, by the fact that you're a public company, you've got investors pressing on you, the number one way you make your money is from advertising -- that depends on user engagement. Are you willing to sacrifice user time, if need be, to go for a more reflective conversation?
CA: Peki yapabiliyor musun? Çünkü çok insanın merak ettiği temel bir soru var. Elbette, Jack, büyük ölçüde elin kolun bağlı, nitekim halka açık bir şirket bu, baskı yapan yatırımcılar var, para kazanmanın bir numaralı yolu da reklamlar -- bu da kullanıcı katılımına bağlı. Gerektiği takdirde, kullanıcı zamanını feda eder misin, daha reflektif bir sohbet adına?
JD: Yeah; more relevance means less time on the service, and that's perfectly fine, because we want to make sure that, like, you're coming to Twitter, and you see something immediately that you learn from and that you push. We can still serve an ad against that. That doesn't mean you need to spend any more time to see more. The second thing we're looking at --
JD: Evet; daha çok alaka demek hizmette daha az zaman demek ve bunun hiçbir sakıncası yok çünkü istiyoruz ki Twitter'a gelin, bir şey görün ve ondan bir şey öğrenin ve o şey sizi tekrar getirsin. Buna karşı hâlâ bir reklam sunabiliriz. Bu daha fazlasını görmek için daha çok zaman demek değil. Üzerinde durduğumuz ikinci şey de --
CA: But just -- on that goal, daily active usage, if you're measuring that, that doesn't necessarily mean things that people value every day. It may well mean things that people are drawn to like a moth to the flame, every day. We are addicted, because we see something that pisses us off, so we go in and add fuel to the fire, and the daily active usage goes up, and there's more ad revenue there, but we all get angrier with each other. How do you define ... "Daily active usage" seems like a really dangerous term to be optimizing.
CA: Ama şu hedefe gelirsek, günlük aktif kullanım, eğer bunu ölçeceksen bu, insanların her gün değer verdiği şeyler demek değil. Şu anlama da gelebilir, ışığın böceği çekmesi gibi, bu şeyler insanları her gün de çekebilir. Bağımlı oluyoruz çünkü bizi çok sinirlendiren bir şey görüyoruz, yangına körükle gidiyoruz ve günlük aktif kullanım yukarı çıkıyor, orada daha fazla reklam geliri var ama birbirimize sinirlenip duruyoruz. Bunu nasıl tanımlarsın? ''Günlük aktif kullanım'' optimize etmek için çok tehlikeli bir terim gibi.
(Applause)
(Alkışlar)
JD: Taken alone, it is, but you didn't let me finish the other metric, which is, we're watching for conversations and conversation chains. So we want to incentivize healthy contribution back to the network, and what we believe that is is actually participating in conversation that is healthy, as defined by those four indicators I articulated earlier.
JD: Tek başına, evet öyle ama diğer ölçümü bitirmeme izin vermediniz, o da şu ki sohbetleri izliyoruz ve sohbet zincirlerini de. Sosyal ağa sağlıklı katkıyı teşvik etmek istiyoruz ve inandığımız ölçülerde gerçekten sağlıklı bir şekilde sohbete katılım da biraz önce belirttiğim dört göstergeyle tanımlanıyor.
So you can't just optimize around one metric. You have to balance and look constantly at what is actually going to create a healthy contribution to the network and a healthy experience for people. Ultimately, we want to get to a metric where people can tell us, "Hey, I learned something from Twitter, and I'm walking away with something valuable." That is our goal ultimately over time, but that's going to take some time.
Yani tek bir ölçümü optimize edemezsiniz. Denge kurmanız lazım ve sosyal ağa sağlıklı katılım ve insanlar için sağlıklı deneyimi neyin yaratacağına sürekli bakmanız lazım. Nihai olarak biz de insanların bize ''Twtter'dan bir şey öğrendim ve değerli bir bilgiyle çıkıyorum'' diyebileceği bir ölçüme varmak istiyoruz. Bu bizim zaman içindeki nihai hedefimiz ama bunun için biraz zaman gerek.
CA: You come over to many, I think to me, as this enigma. This is possibly unfair, but I woke up the other night with this picture of how I found I was thinking about you and the situation, that we're on this great voyage with you on this ship called the "Twittanic" --
CA: Pek çok insana ve sanırım bana bir enigma olarak geliyorsun. Muhtemelen adil değil bu, ama geçen gün kalktığımda seni ve bu durumu düşündüğüm bir resim vardı, seninle birlikte büyük bir yolculuktayız ve geminin adı ''Twittanic'' --
(Laughter)
(Kahkahalar)
and there are people on board in steerage who are expressing discomfort, and you, unlike many other captains, are saying, "Well, tell me, talk to me, listen to me, I want to hear." And they talk to you, and they say, "We're worried about the iceberg ahead." And you go, "You know, that is a powerful point, and our ship, frankly, hasn't been built properly for steering as well as it might." And we say, "Please do something." And you go to the bridge, and we're waiting, and we look, and then you're showing this extraordinary calm, but we're all standing outside, saying, "Jack, turn the fucking wheel!"
Güvertede dümende insanlar var, rahatsızlıklarını dile getiriyorlar ve sen diğer kaptanlardan farklı olarak ''Benimle konuşun, beni dinleyin, duymak istiyorum.'' diyorsun. Seninle konuşuyorlar ve diyorlar ki ''Önümüzdeki buz dağı için endişeliyiz.'' Sen de diyorsun ki "Güçlü bir noktaya değindiniz ve gemimiz, doğrusu, yön değiştirmek için pek sağlam inşa edilmedi.'' Biz "Lütfen bir şey yap" diyoruz. Sen de dümene gidiyorsun ve biz bekliyoruz, bakıyoruz ve sen inanılmaz derecede sakin görünüyorsun ama hepimiz dışarıda duruyoruz, ''Jack, şu lanet dümeni çevir!'' diyoruz.
You know?
Anlatabildim mi?
(Laughter)
(Kahkahalar)
(Applause)
(Alkışlar)
I mean --
Yani --
(Applause)
(Alkışlar)
It's democracy at stake. It's our culture at stake. It's our world at stake. And Twitter is amazing and shapes so much. It's not as big as some of the other platforms, but the people of influence use it to set the agenda, and it's just hard to imagine a more important role in the world than to ... I mean, you're doing a brilliant job of listening, Jack, and hearing people, but to actually dial up the urgency and move on this stuff -- will you do that?
Demokrasi tehdit altında. Kültürümüz tehdit altında. Dünyamız tehdit altında. Twitter muhteşem ve çok şeye şekil veriyor. Diğer bazı platformlar kadar büyük değil ama bundan etkilenen insanlar bunu amaçları için kullanıyor ve dünyada bundan daha önemli bir rol hayal etmek zor... Demek istediğim, Jack, insanları dinleme konusunda harikasın ama peki ya durumun aciliyeti ve tüm bunları harekete geçirmek -- bunları yapar mısın?
JD: Yes, and we have been moving substantially. I mean, there's been a few dynamics in Twitter's history. One, when I came back to the company, we were in a pretty dire state in terms of our future, and not just from how people were using the platform, but from a corporate narrative as well. So we had to fix a bunch of the foundation, turn the company around, go through two crazy layoffs, because we just got too big for what we were doing, and we focused all of our energy on this concept of serving the public conversation. And that took some work. And as we dived into that, we realized some of the issues with the fundamentals. We could do a bunch of superficial things to address what you're talking about, but we need the changes to last, and that means going really, really deep and paying attention to what we started 13 years ago and really questioning how the system works and how the framework works and what is needed for the world today, given how quickly everything is moving and how people are using it. So we are working as quickly as we can, but quickness will not get the job done. It's focus, it's prioritization, it's understanding the fundamentals of the network and building a framework that scales and that is resilient to change, and being open about where we are and being transparent about where are so that we can continue to earn trust.
JD: Evet ve çok büyük çapta ilerliyoruz. Twitter'ın tarihinde birkaç dinamik oldu. Birincisi, şirkete geri geldiğimde geleceğimiz konusunda oldukça vahim bir durumdaydık ve konu sadece platformu kullanan insanlar değildi, kurumsal olarak da işler kötüydü. Bu temelin bir kısmını düzeltmemiz gerekti, şirketi ayağa kaldırmamız, iki büyük işe son verme döneminden geçmemiz, çünkü yaptığımız şey için aşırı büyüdük ve tüm enerjimizi bu konsept için odakladık, halka açık sohbete hizmet etmek. Bu da biraz iş gerektirdi. Biz de buna yöneldik, temel unsurlarla ilgili bazı sorunlar fark ettik. Konuştuğunuz şeye yönelmek için bir sürü üstünkörü şey yapabilirdik ama kalıcı değişikliklere ihtiyacımız var ve bu da gerçekten derine inmek ve 13 yıl önce başlattığımız şeye dikkat vermek ve gerçekten şunu sorgulamak demek, sistem nasıl çalışıyor ve bu altyapı nasıl çalışıyor ve dünya için bugün ne gerekli, her şeyin ne kadar hızlı ilerlediği ve insanların bunu kullanımı düşünülünce. Biz de olabildiğince hızlı çalışıyoruz ama hızlılık işi halletmeyecek. Önemli olan odak, öncelik, sosyal ağın temellerini anlamak ve değişikliğe dayanıklı ölçeklenebilir bir altyapı yapmak ve olduğumuz yer hakkında açık ve şeffaf olmak, böylece güven kazanmaya devam edebiliriz.
So I'm proud of all the frameworks that we've put in place. I'm proud of our direction. We obviously can move faster, but that required just stopping a bunch of stupid stuff we were doing in the past.
Sunduğumuz tüm altyapılardan gurur duyuyorum. Gidişatımızdan gurur duyuyorum. Elbette daha hızlı ilerleyebiliriz ama geçmişte yaptığımız bir dizi saçna şeyi durdurmayı gerektiriyordu.
CA: All right. Well, I suspect there are many people here who, if given the chance, would love to help you on this change-making agenda you're on, and I don't know if Whitney -- Jack, thank you for coming here and speaking so openly. It took courage. I really appreciate what you said, and good luck with your mission.
CA: Pekâlâ. Öyle sanıyorum ki burada, kendilerine şans verilse bu değişim temalı gidişatında sana yardım edecek çok insan var, öyle değil mi Whitney -- Jack, buraya geldiğin ve açıkça konuştuğun çin teşekkürler. Cesurcaydı. Söylediklerini gerçekten takdir ettim ve amacında iyi şanslar diliyorum.
JD: Thank you so much. Thanks for having me.
JD: Çok teşekkür ederim. Beni ağırladığınız için de.
(Applause)
(Alkışlar)
Thank you.
Teşekkürler.