Chris Anderson: What worries you right now? You've been very open about lots of issues on Twitter. What would be your top worry about where things are right now?
کریس اندرسون: در حال حاضر چه چیزی نگرانت میکند؟ تو در مورد مسائل زیادی با صراحت در توییتر صحبت کردهای. در حال حاضر بزرگترین دغدغهات در مورد این مسائل چیست؟
Jack Dorsey: Right now, the health of the conversation. So, our purpose is to serve the public conversation, and we have seen a number of attacks on it. We've seen abuse, we've seen harassment, we've seen manipulation, automation, human coordination, misinformation. So these are all dynamics that we were not expecting 13 years ago when we were starting the company. But we do now see them at scale, and what worries me most is just our ability to address it in a systemic way that is scalable, that has a rigorous understanding of how we're taking action, a transparent understanding of how we're taking action and a rigorous appeals process for when we're wrong, because we will be wrong.
جک دورسی: درحال حاضر، سلامت مکالمه است. هدف ما، خدمت به مکالمه عمومی است، ما شاهد مخالفتهایی با این موضوع بودیم. ما سوء استفاده، آزارواذیت، دغل کاری، کنترل خودکار، دخالت انسانی و اطلاعت نادرست را تجربه کردهایم. اینها تحرکاتی هستند که انتظارشان را ۱۳ سال پیش وقتی شرکت را تأسیس کردیم، نداشتیم. اما حالا آنها را در مقیاس بزرگ میبینیم، و آنچه بیشتر از همه نگرانم میکند، توانایی ما برای رسیدگی به آنها به صورت نظاممند و در مقیاسهای مختلف است، با درک دقیق از اینکه چگونه اقدام میکنیم، درکی شفاف ازنحوهی اقداماتمان و فرایند تجدید نظری سختگیرانه برای زمانی که اشتباه میکنیم، زیرا بیشک اشتباه خواهیم کرد.
Whitney Pennington Rodgers: I'm really glad to hear that that's something that concerns you, because I think there's been a lot written about people who feel they've been abused and harassed on Twitter, and I think no one more so than women and women of color and black women. And there's been data that's come out -- Amnesty International put out a report a few months ago where they showed that a subset of active black female Twitter users were receiving, on average, one in 10 of their tweets were some form of harassment. And so when you think about health for the community on Twitter, I'm interested to hear, "health for everyone," but specifically: How are you looking to make Twitter a safe space for that subset, for women, for women of color and black women?
ویتنی پنینگتون راجرز: واقعاً خوشحالم که می شنوم این چیزی است که نگرانت میکند، چون فکر میکنم خیلی درباره افرادی نوشته شده که فکرمیکنند در توییتر مورد سواستفاده قرارگرفتهاند فکر میکنم بیشترین آزار برای زنان و زنان رنگین پوست و زنان سیاه پوست است. و دادههایی ازآن منتشر شده -- عفو بین الملل چند ماه پیش گزارشی منتشر کرد که نشان میداد بخشی از کاربران زن سیاهپوست فعال در توییتر به طور میانگین یک دهمِ توییتهایی که دریافت میکردند، نوعی آزار و اذیت بوده است. وقتی به سلامت جامعهی توییتر فکر میکنید، من مایل به شنیدن، «سلامت همه» هستم، اما به طور خاص: چگونه میخواهید توییتر را به فضایی امن برای گروههایی مانند زنان، زنان رنگین پوست و سیاه پوست تبدیل کنید؟
JD: Yeah. So it's a pretty terrible situation when you're coming to a service that, ideally, you want to learn something about the world, and you spend the majority of your time reporting abuse, receiving abuse, receiving harassment. So what we're looking most deeply at is just the incentives that the platform naturally provides and the service provides. Right now, the dynamic of the system makes it super-easy to harass and to abuse others through the service, and unfortunately, the majority of our system in the past worked entirely based on people reporting harassment and abuse. So about midway last year, we decided that we were going to apply a lot more machine learning, a lot more deep learning to the problem, and try to be a lot more proactive around where abuse is happening, so that we can take the burden off the victim completely. And we've made some progress recently. About 38 percent of abusive tweets are now proactively identified by machine learning algorithms so that people don't actually have to report them. But those that are identified are still reviewed by humans, so we do not take down content or accounts without a human actually reviewing it. But that was from zero percent just a year ago. So that meant, at that zero percent, every single person who received abuse had to actually report it, which was a lot of work for them, a lot of work for us and just ultimately unfair.
جک دورسی: بله. وضعیت هولناکی است وقتی از سیستمی استفاده میکنید که در حالت ایدهآل، از آن چیزی درباره جهان فرا بگیرید، و بخش عمدهای از وقتتان را به گزارش دهی آزار، دریافت آزار و اذیت میگذرانید. چیزی که ما عمیقتر بررسی میکنیم، تنها انگیزههایی است که این سرویس و این برنامه به طور طبیعی ایجاد میکند. در حال حاضر، نحوه کار این سیستم، آزار و اذیت دیگران را از طریق این شبکه بسیار ساده کرده است، و متأسفانه، بخش عمدهای از سیستم ما در گذشته کاملاً بر اساس دریافت گزارش آزار و اذیت از مردم کار میکرد. اواسط سال گذشته، ما تصمیم گرفتیم استفاده بسیار بیشتری از یادگیری ماشینی و یادگیری عمیق برای این مشکل داشته باشیم، و سعی کنیم بسیار بیشتر در زمینه سواستفاده فعال باشیم، تا این بار را کاملاً از دوش قربانی برداریم. و اخیراً پیشرفتهایی داشتهایم. حدود ۳۸ درصد از توییتهای توهینآمیز اکنون به صورت فعالانه شناسایی میشوند با الگوریتمهای یادگیری ماشینی تا دیگر نیازی به گزارشدهی آنها توسط مردم نباشد. اما موارد شناسایی شده، همچنان توسط انسانها مرور میشوند، پس ما محتوا یا اکانتها را بدون مرور آنها توسط انسان، حذف نمیکنیم. اما در سال گذشته صفر درصد بود. و این به این معناست که در آن صفر درصد، هر فردی که مورد سواستفاده قرارمیگرفت باید آن را گزارش میداد، که کار زیادی برای آنها و برای ما بود. و در نهایت غیرمنصفانه بود.
The other thing that we're doing is making sure that we, as a company, have representation of all the communities that we're trying to serve. We can't build a business that is successful unless we have a diversity of perspective inside of our walls that actually feel these issues every single day. And that's not just with the team that's doing the work, it's also within our leadership as well. So we need to continue to build empathy for what people are experiencing and give them better tools to act on it and also give our customers a much better and easier approach to handle some of the things that they're seeing. So a lot of what we're doing is around technology, but we're also looking at the incentives on the service: What does Twitter incentivize you to do when you first open it up? And in the past, it's incented a lot of outrage, it's incented a lot of mob behavior, it's incented a lot of group harassment. And we have to look a lot deeper at some of the fundamentals of what the service is doing to make the bigger shifts. We can make a bunch of small shifts around technology, as I just described, but ultimately, we have to look deeply at the dynamics in the network itself, and that's what we're doing.
کار دیگری که انجام میدهیم، این است که به عنوان یک شرکت مطمئن شویم که، نمایی از تمام جوامعی که سعی داریم به آنها خدمات دهیم داشته باشیم. ما نمیتوانیم کسب و کار موفقی را بسازیم مگر اینکه دیدگاههای متفاوتی داخل مجموعه خودمان داشته باشیم که در واقع هر روز این مسائل را احساس کند. و این فقط برای گروهی که کار را انجام میدهد نیست، بلکه برای رهبری سازمان هم هست. پس ما باید برای ایجاد همدلی با چیزی که مردم تجربه میکنند ادامه دهیم و ابزارهای بهتری برای استفاده به آنها بدهیم و همچنین به مشتریانمان رویکرد بسیار بهتر و آسانتری برای حل مشکلاتی که با آن روبه رو هستند ارائه کنیم. بیشتراقدامات ما در حیطه تکنولوژی است، اما همچنان به کارهایی که مشوق ماست دقت میکنیم: وقتی برا اولین بار توییتر را باز میکنید انگیزه چه کاری را به شما میدهد؟ و در گذشته، محرک خشونت بسیار زیاد، و محرک رفتار زشت اراذل اوباش، باعث اذیت و آزار گروهی زیادی میشد. و ما باید نگاه عمیقتری به برخی از اصولی داشته باشیم که این خدمات در جهت تغییرات بزرگتر انجام میدهد. ما میتوانیم تغییرات زیادی را در حیطه تکنولوژی ایجاد کنیم، همانطور که گفتم، در نهایت ما باید در پویایی خود شبکه بی نقص باشیم، و داریم آن را انجام میدهیم.
CA: But what's your sense -- what is the kind of thing that you might be able to change that would actually fundamentally shift behavior?
کریس اندرسون: اما حس شما چیست-- چه نوع کاری هست که شما احتمالا قادر هستید تغییرش دهید که در واقع به طور اساسی رفتار را تغییر دهد؟
JD: Well, one of the things -- we started the service with this concept of following an account, as an example, and I don't believe that's why people actually come to Twitter. I believe Twitter is best as an interest-based network. People come with a particular interest. They have to do a ton of work to find and follow the related accounts around those interests. What we could do instead is allow you to follow an interest, follow a hashtag, follow a trend, follow a community, which gives us the opportunity to show all of the accounts, all the topics, all the moments, all the hashtags that are associated with that particular topic and interest, which really opens up the perspective that you see. But that is a huge fundamental shift to bias the entire network away from just an account bias towards a topics and interest bias.
جک دورسی: خب، یکی از کارها-- ما این شبکه را با هدف دنبال کردن یک حساب کاربری آغاز کردیم، به عنوان مثال، ما دقیقا نمیدانیم که مردم چرا وارد توییتر میشوند. من معتقدم که توییتر بهترین برنامه به عنوان یک شبکه مبتنی بر علاقه است. مردم با علایق به خصوصی وارد میشوند. آنها باید اعمال زیادی را برای پیدا کردن و دنبال کردن صفحه موردنظر مورد علاقهشان انجام دهند. کاری که در عوض میتوانیم انجام دهیم اجازهی دنبال کردن علاقه، دنبال کردن یک هشتگ، دنبال کردن یک ترند، دنبال کردن یک گروه است، که به ما فرصت نمایش همهی حسابها، موضوعها، لحظهها، هشتگها که مطابق با علاقه و موضوعی خاص است، که واقعا نگرش شما را باز میکند. اما این یک تغییر اساسی است که سوگیری کل شبکه را از سوگیری یک حساب به سوگیری به یک موضوع یا علاقه خاص ببریم.
CA: Because isn't it the case that one reason why you have so much content on there is a result of putting millions of people around the world in this kind of gladiatorial contest with each other for followers, for attention? Like, from the point of view of people who just read Twitter, that's not an issue, but for the people who actually create it, everyone's out there saying, "You know, I wish I had a few more 'likes,' followers, retweets." And so they're constantly experimenting, trying to find the path to do that. And what we've all discovered is that the number one path to do that is to be some form of provocative, obnoxious, eloquently obnoxious, like, eloquent insults are a dream on Twitter, where you rapidly pile up -- and it becomes this self-fueling process of driving outrage. How do you defuse that?
کریس اندرسون: آیا اینطور نیست یکی از دلایلی که شما اینقدر مطلب در آنجا زیاد دارید در نتیجه رقابت میلیونها نفر در سراسر دنیا درنوعی مسابقهی گلادیاتوری با یکدیگر برای جذب دنبال کننده و یا جلب توجه است؟ لایک، از نظر افرادی که فقط توییتر را میخوانند، مهم نیست، اما برای افرادی که آن را می آفرینند، میگویند: «ای کاش بیشتر لایک، دنبال کننده و باز توییت داشتم.» و آنها همیشه در حال تجربه راههایی برای دستیابی به آن هستند. و همهی ما دریافتهایم که کاری که مسیر شماره یک انجام میدهد این است که به نوعی تحریک کننده، نفرت انگیز و شدیدا ناخوشایند باشند، انگار، توهینهای آشکار در توییتر یک آرزو هستند، جایی که شما به سرعت آنها را جمع میکنید-- و همین موضوع عاملی خودجوش است برای عصبانیت شما. چگونه این موضوع را حل و فصل میکنید؟
JD: Yeah, I mean, I think you're spot on, but that goes back to the incentives. Like, one of the choices we made in the early days was we had this number that showed how many people follow you. We decided that number should be big and bold, and anything that's on the page that's big and bold has importance, and those are the things that you want to drive. Was that the right decision at the time? Probably not. If I had to start the service again, I would not emphasize the follower count as much. I would not emphasize the "like" count as much. I don't think I would even create "like" in the first place, because it doesn't actually push what we believe now to be the most important thing, which is healthy contribution back to the network and conversation to the network, participation within conversation, learning something from the conversation. Those are not things that we thought of 13 years ago, and we believe are extremely important right now.
جک دورسی: فکر میکنم که کاملا درست گفتی، و این موضوع به انگیزه برمیگردد. مثلا، یکی ازتصمیماتی که در روزهای اولیه گرفتیم این بود که باید تعداد افرادی که شما را دنبال میکنند را نشان دهیم. و تصمیم ما براین بود که این عدد باید بزرگ و برجسته باشد، و هرچه که در آن صفحه هست بزرگ، برجسته و مهم است، و مطالبی است که شما خواهان مدیریت آن هستید. آیا این تصمیم درستی در آن زمان بود؟ احتمالا نه. اگر قرار بود دوباره کار را شروع کنم، این اندازه تاکیدی بر تعداد دنبال کنندهها نمیکنم. تاکیدی روی تعداد لایکها نخواهم داشت. حتی فکر نمیکنم که لایک را در جایگاه اول قرار قرار دهم، زیرا این موضوع حتی ما را به سمت چیزی که باور داریم مهم است نمیبرد، که مشارکت سالم در شبکه و مکالمه در شبکه، شرکت در گفتگو، و آموزش از طریق گفتگو است. آنها مطالبی که ۱۳ سال پیش به انها فکر کنیم نیستند، و معتقدیم که در حال حاضر بسیار حائز اهمیتاند.
So we have to look at how we display the follower count, how we display retweet count, how we display "likes," and just ask the deep question: Is this really the number that we want people to drive up? Is this the thing that, when you open Twitter, you see, "That's the thing I need to increase?" And I don't believe that's the case right now.
پس در حال حاضر باید نحوه نشاندادن تعداد دنبال کنندگان، نشان دادن بازتوییتها، لایکها را بررسی کنیم. و از شما این سوال پیچیده را بپرسم: آیا این واقعا همان عددی است که ما از افراد میخواهیم بالا ببرند؟ آیا این همان چیزیست که، که وقتی توییتر را باز میکنید، میبینید، «آیا این چیزی است که میخواهم افزایش بدهم؟» و فکر نمیکنم که این الان هدفم باشد.
(Applause)
(تشویق حضار)
WPR: I think we should look at some of the tweets that are coming in from the audience as well.
ویتنی: فکرمیکنم باید به توییتها نگاهی بیندازیم که از طرف حاضرین هم در حال ارسال است.
CA: Let's see what you guys are asking. I mean, this is -- generally, one of the amazing things about Twitter is how you can use it for crowd wisdom, you know, that more knowledge, more questions, more points of view than you can imagine, and sometimes, many of them are really healthy.
کریس اندرسون: بیایید ببینیم شما چه پرسیدهاید؟ به طور کلی منظورم این هست که، یکی از موضوعات جالب راجب توییتر استفاده از آن به عنوان یک بینش همهگیر، شما دانش بیشتر، سوالات بیشتر، دیدگاههای بیشتری را یاد میگیرید که بتوانید فکرش را بکنید، که بعضی اوقات، بیشتر آنها واقعا مفید است.
WPR: I think one I saw that passed already quickly down here, "What's Twitter's plan to combat foreign meddling in the 2020 US election?" I think that's something that's an issue we're seeing on the internet in general, that we have a lot of malicious automated activity happening. And on Twitter, for example, in fact, we have some work that's come from our friends at Zignal Labs, and maybe we can even see that to give us an example of what exactly I'm talking about, where you have these bots, if you will, or coordinated automated malicious account activity, that is being used to influence things like elections. And in this example we have from Zignal which they've shared with us using the data that they have from Twitter, you actually see that in this case, white represents the humans -- human accounts, each dot is an account. The pinker it is, the more automated the activity is. And you can see how you have a few humans interacting with bots. In this case, it's related to the election in Israel and spreading misinformation about Benny Gantz, and as we know, in the end, that was an election that Netanyahu won by a slim margin, and that may have been in some case influenced by this. And when you think about that happening on Twitter, what are the things that you're doing, specifically, to ensure you don't have misinformation like this spreading in this way, influencing people in ways that could affect democracy?
ویتنی پنینگتون راجرز: فکر میکنم که این موضوع به سرعت نقل شده، «برنامه توییتربرای مبارزه با دخالت خارجی در انتخابات ۲۰۲۰ چیست؟» به نظر من این مسئله و مشکلی است که عموما در اینترنت شاهد آن هستیم، که فعالیتهای مخرب و خودکار زیادی اتفاق میافتد. و برای مثال، در توییتر یک سری کارهایی داریم که حاصل تحقیقات دوستانمان در آزمایشگاه زیگنال است، و ممکن است که این موضوع به عنوان مثالی، از چیزی که دارم از آن صحبت میکنم باشد، جایی که این رباتها را داشته باشید، اگر بخواهید، یا فعالیت مخرب خودکار حساب کاربری، میتواند بر موضوعاتی چون انتخابات تاثیر بگذارد. و در این مثال که زیگنال با ما به اشتراک گذاشته با استفاده از اطلاعاتی که از توییتر داریم، میتوانید متوجه شوید که در این مورد، رنگ سفید نشان دهنده افراد یا حساب است، هر نقطه یک حساب کاربری است. هر چه بیشتر صورتی باشد، فعالیت ماشینیتر است. و میتوانید چگونگی تعامل انسان و رباتها را ببینید. این موضوع در رابطه با انتخابات در اسرائیل است و انتشار اخبار غلط در رابطه با بنی گنتز، و همانطور که میدانیم، در نهایت، انتخاباتی بود، که نتانیاهو با اختلاف کمی برنده شد، و ممکن است به نحوی از این موضوع تاثیر گرفته باشد. و زمانی که به رخ دادن این موضوع در توییتر فکر میکنید، به طور خاص، چه کارهایی برای اطمینان از غلط نبودن اطلاعات و انتشار آنها به این شکل، و تاثیر آن بر انسانها و دموکراسی انجام میدهید؟
JD: Just to back up a bit, we asked ourselves a question: Can we actually measure the health of a conversation, and what does that mean? And in the same way that you have indicators and we have indicators as humans in terms of are we healthy or not, such as temperature, the flushness of your face, we believe that we could find the indicators of conversational health. And we worked with a lab called Cortico at MIT to propose four starter indicators that we believe we could ultimately measure on the system. And the first one is what we're calling shared attention. It's a measure of how much of the conversation is attentive on the same topic versus disparate. The second one is called shared reality, and this is what percentage of the conversation shares the same facts -- not whether those facts are truthful or not, but are we sharing the same facts as we converse? The third is receptivity: How much of the conversation is receptive or civil or the inverse, toxic? And then the fourth is variety of perspective. So, are we seeing filter bubbles or echo chambers, or are we actually getting a variety of opinions within the conversation? And implicit in all four of these is the understanding that, as they increase, the conversation gets healthier and healthier.
جک دورسی: کمی به عقب برگردیم، ما یک سوال از خودمان پرسیدیم: آیا ما میتوانیم عفت کلاممان را اندازهگیری کنیم، و این به چه معناست؟ همانطور که شما معیارهایی دارید، و ما به عنوان انسان از لحاظ سلامتی یا عدم سلامتی معیارهایی داریم، مانند دما، سرخی صورت، ما معتقدیم که میتوانیم معیارهایی برای عفت کلام پیدا کنیم. و ما با یک آزمایشگاه به نام کورتیکو در مؤسسهٔ فناوری ماساچوست برای پیشنهاد چهار معیار ابتدایی و ما معتقدیم که درنهایت میتوانیم به سنجش این سیستم بپردازیم. و اولین مسئله چیزیست که ما به آن توجه مشترک میگوییم. این یک سنجش از مقیاسی است که طی آن مشخص میشود گفتگو به چه میزان متمرکز و یا پراکنده است. دومین مسئله واقعیت مشترک نامیده میشود، و مشخص کننده این است که چه در صدی از مکالمه واقعیتهای یکسان را بیان میکند آیا این حقایق واقعی هستند یا خیر، آیا ما حقایق را همانطور که نقل میکنیم به اشتراک میگذاریم؟ سومین مورد پذیرش است: چه مقدار از مکالمات قابل پذیرش و مودبانه و یا برعکس آن نامناسب است؟ و سپس مورد چهارم دیدگاههای مختلف است. آیا ما فقط فضای فیلتر شده یا اتاقهای پژواک را میبینیم؟ یا اینکه مجموعهای از ایدههای متفاوت را در یک مکالمه دریافت میکنیم؟ و نکته ضمنی در هر چهار مورد درک این است که، هر چه آنها افزایش پیدا کنند مکالمه سالمتر و سالمتر میشود.
So our first step is to see if we can measure these online, which we believe we can. We have the most momentum around receptivity. We have a toxicity score, a toxicity model, on our system that can actually measure whether you are likely to walk away from a conversation that you're having on Twitter because you feel it's toxic, with some pretty high degree. We're working to measure the rest, and the next step is, as we build up solutions, to watch how these measurements trend over time and continue to experiment. And our goal is to make sure that these are balanced, because if you increase one, you might decrease another. If you increase variety of perspective, you might actually decrease shared reality.
بنابراین اولین قدم ما این است که بتوانیم اینها را به صورت آنلاین اندازهگیری کنیم، که معتقدیم میتوانیم. ما بیشترین اقدامات را در ارتباط با قدرت پذیرش داریم. ما یک درجه نامناسب بودن داریم، یک مدل روی سیستممان که در حقیقت میتواند اندازهگیری کند از گفتگویی که در توییتر میبینید صرفنظر کنید زیرا شما آن را، با درصد زیادی نامناسب میدانید. ما درحال اندازهگیری بقیهی آن هستیم، و قدم بعدی، همزمان با پیدا کردن راه حل، بررسی این است که چگونه این اقدامات در طول زمان رواج پیدا کرده و آزمایش شوند. و هدف ما اطمینان پیدا کردن از توازن آنها است، زیرا اگر شما یکی را بالا میبرید، شاید دیگری را پایین بیاورید. اگر شما تنوع دیدگاه را بالا ببرید، باید واقعیت مشترک را کاهش دهید.
CA: Just picking up on some of the questions flooding in here.
کریس اندرسون: برخی سوالاتی که این جا وجود دارد را انتخاب میکنیم.
JD: Constant questioning.
جک دورسی: سوالات مداوم.
CA: A lot of people are puzzled why, like, how hard is it to get rid of Nazis from Twitter?
کریس اندرسون: بسیاری از مردم میپرسند که چرا، بیرون کردن نازیها از توییتر اینقدر سخت است؟
JD: (Laughs)
جک دورسی: (خنده)
So we have policies around violent extremist groups, and the majority of our work and our terms of service works on conduct, not content. So we're actually looking for conduct. Conduct being using the service to repeatedly or episodically harass someone, using hateful imagery that might be associated with the KKK or the American Nazi Party. Those are all things that we act on immediately. We're in a situation right now where that term is used fairly loosely, and we just cannot take any one mention of that word accusing someone else as a factual indication that they should be removed from the platform. So a lot of our models are based around, number one: Is this account associated with a violent extremist group? And if so, we can take action. And we have done so on the KKK and the American Nazi Party and others. And number two: Are they using imagery or conduct that would associate them as such as well?
ما سیاستهایی در رابطه با گروههای افراطی داریم، و بیشتر کار و شرایط استفاده از خدمات ما کار کردن بر روی رفتار است نه محتوا. در واقع ما دنبال راهبرد هستیم. راهبردی برای استفاده از خدماتی که به صورت مداوم یا نامنسجم به آزار فردی، با استفاده از تصاویر تنفرآمیز میپردازند که ممکن است با انجمن کوکلاکس کلان یا نازیهای آمریکایی در ارتباط باشند. اینها مواردی هستند که ما به سرعت به آن واکنش نشان میدهیم. الان در شرایطی هستیم که این لغت نسبتا آزادانه استفاده میشود، و ما نمیتوانیم یک فرد که این لغت برای او اشاره شده درنظر بگیریم و دیگری را متهم کنیم به عنوان یک نشانه واقعی که آنها باید از برنامه حذف شوند. بسیاری از نمونههای ما پیرامون شماره یک است: آیا این حساب با یک گروه خشن افراطی در ارتباط است؟ اگر باشد، ما میتوانیم اقدام کنیم. و همین کار را در مقابل ک ک ک ونازیهای آمریکایی کردهایم. و شماره دو: آیا آنها از تصاویر یا رفتارهایی که آنها را به هم مرتبط میکند، استفاده میکنند؟
CA: How many people do you have working on content moderation to look at this?
کریس اندرسون: چند نفر در رابطه با تعدیل محتوا دارید تا این را بررسی کنند؟
JD: It varies. We want to be flexible on this, because we want to make sure that we're, number one, building algorithms instead of just hiring massive amounts of people, because we need to make sure that this is scalable, and there are no amount of people that can actually scale this. So this is why we've done so much work around proactive detection of abuse that humans can then review. We want to have a situation where algorithms are constantly scouring every single tweet and bringing the most interesting ones to the top so that humans can bring their judgment to whether we should take action or not, based on our terms of service.
جک دورسی: متفاوت است. میخواهیم دراین رابطه منعطف باشیم میخواهیم مطمئن شویم که اولین نفر هستیم، که به جای استخدام تعداد زیادی از افراد الگوریتم میسازیم، زیرا باید مطمئن شویم، که این موضوع مقیاسپذیر است، وهیچ تعدادی از مردم نیست که بتوانند این موضوع را اندازهگیری کنند. و به همین علت است که ما برای موضوع تشخیص پیشگیرانهی سوءاستفاده اهمیت زیادی قائلیم که انسانها بتوانندبازبینی کنند ما میخواهیم موقعیتی ایجاد کنیم که در آن الگوریتمها مرتبا هر توییت را بررسی میکنند. و جالبترین آنها را در ابتدای صفحه قرار دهند تا مردم تشخیص دهند که ما باید با توجه به شرایط استفاده از خدمات اقدامی بکنیم یا خیر.
WPR: But there's not an amount of people that are scalable, but how many people do you currently have monitoring these accounts, and how do you figure out what's enough?
ویتنی پنینگتون: اما افرادی که مقیاسپذیر باشند وجود ندارند، اما در حال حاضر چند نفر این حسابها را زیر نظر دارند؟ و چگونه متوجه میشوید چه چیزی کافیست؟
JD: They're completely flexible. Sometimes we associate folks with spam. Sometimes we associate folks with abuse and harassment. We're going to make sure that we have flexibility in our people so that we can direct them at what is most needed. Sometimes, the elections. We've had a string of elections in Mexico, one coming up in India, obviously, the election last year, the midterm election, so we just want to be flexible with our resources. So when people -- just as an example, if you go to our current terms of service and you bring the page up, and you're wondering about abuse and harassment that you just received and whether it was against our terms of service to report it, the first thing you see when you open that page is around intellectual property protection. You scroll down and you get to abuse, harassment and everything else that you might be experiencing.
جک دورسی: این موضوع کاملا متغییر است. گاهی اوقات ما افراد را به بخش هرزنامهها منتقل میکنیم. گاهی آنها را به سوءاستفاده و آزار و اذیت مرتبط میکنیم. ما میخواهیم مطمئن شویم در افراد خود انعطافپذیری داریم تا بتوانیم آنها را به چیزی که ضروریتر است ببریم گاهی، برای انتخابات. ما یک رشته انتخابات داشتیم در مکزیک، یکی در هند، مسلما، انتخابات سال گذشته، انتخابات میان دورهای، بنابراین میخواهیم در منابع خود منعطف باشیم. بنابراین وقتی انسانها-- برای مثال، به شرایط فعلی استفاده از خدمات ما سری بزنید و صفحه را بالا بیاورید، و در مورد سوء استفاده و آزار و اذیتی که دریافت کردید مطمئن نیستید و اگر برخلاف شرایط استفاده از سرویس ما بود که آن را گزارش دهید، وقتی صفحه را باز میکنید اولین چیزی که میبینید پیرامون حفاظت از مالکیت معنوی است. صفحه را پایین میکشید و موقعیت این را دارید که به سوءاستفاده و آزار و هر چیزی که تجربه کرده بودید برسید.
So I don't know how that happened over the company's history, but we put that above the thing that people want the most information on and to actually act on. And just our ordering shows the world what we believed was important. So we're changing all that. We're ordering it the right way, but we're also simplifying the rules so that they're human-readable so that people can actually understand themselves when something is against our terms and when something is not. And then we're making -- again, our big focus is on removing the burden of work from the victims. So that means push more towards technology, rather than humans doing the work -- that means the humans receiving the abuse and also the humans having to review that work. So we want to make sure that we're not just encouraging more work around something that's super, super negative, and we want to have a good balance between the technology and where humans can actually be creative, which is the judgment of the rules, and not just all the mechanical stuff of finding and reporting them. So that's how we think about it.
من نمیدانم آن اتفاق چطور در تاریخ شرکت افتاد، ما آن را بالاتر از چیزی که مردم میخواهند قرار دادیم بیشترین اطلاعات در مورد آن و اقدام کردن در خصوص آن. و برنامههای ما به جهان نشان داد چیزی که ما به آن معتقدیم حائز اهمیت است. پس داریم همهی آنها را تغییر میدهیم. آنها را به شکل درست مرتب میکنیم، ما همچنان قوانین را ساده میکنیم تا توسط انسانها قابل خواندن باشد تا در واقع با این روش افراد خودشان درک کنند چهموقع چیزی برخلاف شرایط استفاده از توییتر هست یا نه. سپس ما دوباره-- به تمرکز بر روی برداشتن کار از دوش قربانیان میپردازیم. و این به معنای حرکت بیشتر به سمت تکنولوژی، تا انسانهایی است که کار را انجام میدهند یعنی انسانهایی که مورد سواستفاده قرار میگیرند و همینطور انسانهایی که باید این کار را بازبینی کنند. ما میخواهیم مطمئن شویم که نه تنها کار بیشتری را برای یک کار بسیار، بسیار منفی و ناخوشایند صرف نمیکنیم، و میخواهیم تعادل مناسبی را بین تکنولوژی و خلاقیت انسانها به وجود آوریم، که قضاوت در رابطه با قوانین است، و نه فقط چیزهای مکانیکی برای پیدا کردن و گزارش آنها. و این رویکرد ما به موضوع است.
CA: I'm curious to dig in more about what you said. I mean, I love that you said you are looking for ways to re-tweak the fundamental design of the system to discourage some of the reactive behavior, and perhaps -- to use Tristan Harris-type language -- engage people's more reflective thinking. How far advanced is that? What would alternatives to that "like" button be?
ک. ا: من مایلم به چیزهایی که گفتید بیشتر بپردازیم منظورم این است که شما گفتید که دنبال راههایی برای تغییر اصول اساسی طراحی سیستم هستید برای تضعیف واکنشهای احتمالی و شاید-- با استفاده از زبان تریسان هریس-- مردم را بیشتر به تفکر وا دارید. این موضوع چقدر پیشرفت کرده؟ جایگیزینهای احتمالی آن دکمهی «لایک» چیست؟
JD: Well, first and foremost, my personal goal with the service is that I believe fundamentally that public conversation is critical. There are existential problems facing the world that are facing the entire world, not any one particular nation-state, that global public conversation benefits. And that is one of the unique dynamics of Twitter, that it is completely open, it is completely public, it is completely fluid, and anyone can see any other conversation and participate in it. So there are conversations like climate change. There are conversations like the displacement in the work through artificial intelligence. There are conversations like economic disparity. No matter what any one nation-state does, they will not be able to solve the problem alone. It takes coordination around the world, and that's where I think Twitter can play a part.
جک دورسی: خب، اولین و مهم ترین موضوع، هدف شخصی من در رابطه با این سرویس این است که معتقدم که اساسا گفتگوی عمومی مهم است. جهان با مشکلات زیادی روبه روست که تمام دنیا را درگیر کرده، نه فقط یک کشور خاص، که گفتگوی سراسری جهانی فوایدی دارد. و این یکی از پویاییهای منحصر به فرد توییتر است، که کاملا صریح، کاملا همگانی، کاملا سیال، و هرکس میتواند در آن گفتگو و فعالیت داشته باشد. گفتگوهایی مانند تغییرات آب و هوا. مکالمههایی چون جابه جایی محل کار به وسیله هوش مصنوعی. گفتگوهایی نظیر نابرابریهای اقتصادی. مهم نیست هر کشور چه کار میکند، آنها نمیتوانند مشکلشان را به تنهایی حل و فصل کنند. این موضوع هماهنگی در کل جهان را میطلبد، و فکر میکنم این همان جایی است که توییتر میتواند نقشی ایفا کند.
The second thing is that Twitter, right now, when you go to it, you don't necessarily walk away feeling like you learned something. Some people do. Some people have a very, very rich network, a very rich community that they learn from every single day. But it takes a lot of work and a lot of time to build up to that. So we want to get people to those topics and those interests much, much faster and make sure that they're finding something that, no matter how much time they spend on Twitter -- and I don't want to maximize the time on Twitter, I want to maximize what they actually take away from it and what they learn from it, and --
دومین مورد در رابطه با توییتر این است، که وقتی واردش میشوید، الزاما احساس نمیکنید که چیزی یاد گرفتهاید و بیرون آمدهاید. بعضیها یاد میگیرند. بعضی افراد شبکهی قدرتمندی دارند، گروهی قدرتمند که هر روز از آن یاد میگیرند. اما ساخت این موضوع بسیار کار میبرد و زمان زیادی میخواهد. ما میخواهیم که مردم را در این موضوعات و علایق وارد کنیم بسیار، بسیار سریعتر و مطمئن شویم که چیزی پیدا میکنند که، مهم نیست چقدر از زمانشان را در توییتر میگذرانند-- ونمیخواهم زمان حضور در توییتر را به حداکثر برسانم میخواهم مواردی را که از آن میگیرند به بالاترین سطح برسانم و چیزی که یاد میگیرند و --
CA: Well, do you, though? Because that's the core question that a lot of people want to know. Surely, Jack, you're constrained, to a huge extent, by the fact that you're a public company, you've got investors pressing on you, the number one way you make your money is from advertising -- that depends on user engagement. Are you willing to sacrifice user time, if need be, to go for a more reflective conversation?
ک. ا: خب، این کار را کردید؟ زیرا این سوالی است که خیلیها میخواهند بدانند. جک، بی شک تو تحت فشار بسیاری هستی، با این حقیقت که یک شرکت عمومی هستید، تحت فشار سرمایه گذاران زیادی هستید، تبلیغات اولین چیزیست که از آن پول درمیآورید که وابسته به سرگرمی کاربران است. آیا شما در صورت نیاز، زمان مخاطب را، قربانی یک مکالمه توام با تفکر میکنید؟
JD: Yeah; more relevance means less time on the service, and that's perfectly fine, because we want to make sure that, like, you're coming to Twitter, and you see something immediately that you learn from and that you push. We can still serve an ad against that. That doesn't mean you need to spend any more time to see more. The second thing we're looking at --
جک د: بله، مکالمه توام با تفکر به معنای زمان کمتر است، و بسیار عالی است، زیرا ما میخواهیم مطمئن شویم که، شما به توییتر آمدهاید، و در لحظه چیزی را برای یادگیری یافتید و سپس از آن رد میشوید. ما هنوز میتوانیم کنار آن تبلیغ کنیم. به این معنی نیست که باید زمان بیشتری صرف کنید تا بیشتر ببینید. دومین موردی که به آن دقت میکنیم--
CA: But just -- on that goal, daily active usage, if you're measuring that, that doesn't necessarily mean things that people value every day. It may well mean things that people are drawn to like a moth to the flame, every day. We are addicted, because we see something that pisses us off, so we go in and add fuel to the fire, and the daily active usage goes up, and there's more ad revenue there, but we all get angrier with each other. How do you define ... "Daily active usage" seems like a really dangerous term to be optimizing.
کریس اندرسون: اما با توجه به هدف مصرف روزانه، اگر آن را اندازهگیری کنید الزاما به معنای چیزی که مردم هر روز به آن اهمیت میدهند نیست. ممکن است به معنای چیزهایی باشد که مردم هرروزه مانند پروانهای به نور شمع جذب آن شوند. ما به آن معتادیم، زیرا چیزهایی را میبینیم که ما راعصبانی میکند بنابراین وارد میشویم و درواقع به آتش دامن میزنیم، و سرانه مصرف را بالا میرود، و سود تبلیغاتی بیشتری به وجود میآید اما نسبت به هم خشمگینتر میشویم. شما چگونه تعریف میکنید «استفاده فعال روزانه» اصطلاح خطرناکی برای بهینه سازی به نظر میرسد.
(Applause)
(تشویق)
JD: Taken alone, it is, but you didn't let me finish the other metric, which is, we're watching for conversations and conversation chains. So we want to incentivize healthy contribution back to the network, and what we believe that is is actually participating in conversation that is healthy, as defined by those four indicators I articulated earlier.
ج. د: به تنهایی، بله هست، اما نگذاشتید که معیار بعدی را به پایان برسانم، که جستجوی مکالمات، و زنجیرهی مکالمات توسط ماست. ما میخواهیم انگیزههایی برای بازگشت مشارکت سالم به شبکه ایجاد کنیم. و چیزی که به آن ایمان داریم، یعنی مشارکت در گفتگو که سالم است، توسط همان چهار شاخصی که عنوان کردم.
So you can't just optimize around one metric. You have to balance and look constantly at what is actually going to create a healthy contribution to the network and a healthy experience for people. Ultimately, we want to get to a metric where people can tell us, "Hey, I learned something from Twitter, and I'm walking away with something valuable." That is our goal ultimately over time, but that's going to take some time.
بنابراین تنها یک معیار برای بهینه سازی ندارید. باید تعادل داشته باشید و مدام مراقب باشید چه چیزی مشارکتی سالم و تجربهای سالم را در شبکههای اجتماعی برای مردم ایجاد میکند. در نهایت ما میخواهیم به معیاری برسیم که مردم به ما بگویند، «هی، من از توییتر چیزی را یاد گرفتم، و من با فرا گرفتن چیزی با ارزش از آن رد شدم.» این هدف نهایی ما در طول زمان است، اما این هدف کمی زمان بر است.
CA: You come over to many, I think to me, as this enigma. This is possibly unfair, but I woke up the other night with this picture of how I found I was thinking about you and the situation, that we're on this great voyage with you on this ship called the "Twittanic" --
کریس اندرسون: فکر کنم این حس معماگونه برای من و خیلیها وجود دارد. شاید ناعادلانه باشد، اما من چند شب پیش با این تصویر بیدار شدم از تصورم به شما و وضعیتی که در آن قرار دارید، که ما در این سفرعالی با شما هستیم در یک کشتی به نام «توییتانیک» --
(Laughter)
(خنده)
and there are people on board in steerage who are expressing discomfort, and you, unlike many other captains, are saying, "Well, tell me, talk to me, listen to me, I want to hear." And they talk to you, and they say, "We're worried about the iceberg ahead." And you go, "You know, that is a powerful point, and our ship, frankly, hasn't been built properly for steering as well as it might." And we say, "Please do something." And you go to the bridge, and we're waiting, and we look, and then you're showing this extraordinary calm, but we're all standing outside, saying, "Jack, turn the fucking wheel!"
و افرادی هستند که سکان هدایت کشتی را در دست دارند و ابراز ناراحتی میکنند، و شما، برخلاف خیلی دیگر از ناخدایان، میگویید، «خب، بگویید، با من سخن بگویید، به من گوش کنید، گوشم با شماست.» و آنها با شما سخن میگویند و ابراز میکنند «ما نگران کوه یخ پیش رو هستیم.» شما میگویید، «میدانید که این موضوعی مهم است، و صادقانه، فرمان کشتی ما به طرز صحیحی برای هدایت طراحی نشده.» و ما میگوییم «لطفا کاری بکنید» سپس شما به پل فرماندهی میروید و ما منتظریم، ما نگاه میکنیم و شما این آرامش فوق العاده را بروز میدهید، اما همه ی ما بیرون ایستادهایم و میگوییم، «جک، چرخ لعنتی را بچرخان.»
You know?
میدانید؟
(Laughter)
(خنده)
(Applause)
(تشویق حضار)
I mean --
منظورم این است--
(Applause)
(تشویق حضار)
It's democracy at stake. It's our culture at stake. It's our world at stake. And Twitter is amazing and shapes so much. It's not as big as some of the other platforms, but the people of influence use it to set the agenda, and it's just hard to imagine a more important role in the world than to ... I mean, you're doing a brilliant job of listening, Jack, and hearing people, but to actually dial up the urgency and move on this stuff -- will you do that?
دموکراسی در خطر است. فرهنگ و جهان ما در معرض خطر است. و توییتر شگفت انگیز است و خیلی چیزها را شکل میدهد. اندازه بعضی از سیستمهای دیگر بزرگ نیست، اما افراد با نفوذ برای اهداف خود از آن استفاده میکنند، و تصور نقشی مهمتر از این در جهان سخت است ... منظورم این است، که شما کار عالی را انجام میدهید جک و صدای مردم را میشنوید، اما برای جدیتر گرفتن ضرورت و عبور از این مسائل-- آیا آن را انجام خواهی داد؟
JD: Yes, and we have been moving substantially. I mean, there's been a few dynamics in Twitter's history. One, when I came back to the company, we were in a pretty dire state in terms of our future, and not just from how people were using the platform, but from a corporate narrative as well. So we had to fix a bunch of the foundation, turn the company around, go through two crazy layoffs, because we just got too big for what we were doing, and we focused all of our energy on this concept of serving the public conversation. And that took some work. And as we dived into that, we realized some of the issues with the fundamentals. We could do a bunch of superficial things to address what you're talking about, but we need the changes to last, and that means going really, really deep and paying attention to what we started 13 years ago and really questioning how the system works and how the framework works and what is needed for the world today, given how quickly everything is moving and how people are using it. So we are working as quickly as we can, but quickness will not get the job done. It's focus, it's prioritization, it's understanding the fundamentals of the network and building a framework that scales and that is resilient to change, and being open about where we are and being transparent about where are so that we can continue to earn trust.
جک دورسی: بله و ما به طور مداوم در حرکت بودهایم. منظورم این است، که تعدادی تغییرات در تاریخ توییتر وجود دارد. اول، وقتی که به شرکت بازگشتم، ما در وضعیت بسیار بدی از لحاظ آینده خودمان قرار داشتیم، نه فقط این موضوع که مردم چگونه از این سیستم استفاده میکردند، بلکه همینطور از لحاظ شرکتی. ما باید بسیاری از تاسیسات را سروسامان میدادیم، تا شرکت را دوباره به مسیر موفقیت ببریم، در دو مقطع کمکاری دیوانهکنندهای را تجربه کردیم، زیرا ما برای کاری که انجام میدادیم زیادی بزرگ شده بودیم، و تمام انژیمان را صرف خدمت به گفتگوی عمومی کرده بودیم. و این موضوع کمی کار لازم داشت. و همانطور که وارد آن شدیم، برخی مسائل را با اصول اساسی تشخیص دادیم. ما میتوانیم به کارهایی سطحی در ارتباط با چیزیکه در موردش صحبت میکنید، بپردازیم، اما ما تا آخر به تغییرات نیازمندیم، و این به معنای بسیار، بسیار عمیق شدن است و توجه به موضوعی که ۱۳ سال پیش شروع شده و بسیار سوال برانگیز است که سیستم و چارچوبها چگونه کار میکنند و جهان امروزه به چه چیزی نیاز دارد، با توجه به اینکه همه چیز به سرعت در حال حرکت است و مردم چگونه از آن استفاده کنند. ما تا جایی که بتوانیم با سرعت کار میکنیم، اما سرعت کار را تمام نمیکند. دقت، اولویت بندی آن درک اصول شبکه و ایجاد چارچوبی است که مقیاسپذیر باشد و مقیاسهایش در برابر تغییر مقاوم باشند، و در رابطه با اینکه کجا هستیم صریح باشیم و در رابطه با اینکه کجا هستیم شفاف باشیم تا بتوانیم باز هم به کسب اعتماد ادامه دهیم.
So I'm proud of all the frameworks that we've put in place. I'm proud of our direction. We obviously can move faster, but that required just stopping a bunch of stupid stuff we were doing in the past.
من به تمام چارچوبهایی که در آن قرار داریم افتخار میکنم. من به مسیرمان افتخار میکنم. بدیهی است که ما میتوانیم سریعتر به پیش برویم، اما این کار نیازمند توقف انجام دادن بعضی اشتباهاتی است که در گذشته انجام میدادیم.
CA: All right. Well, I suspect there are many people here who, if given the chance, would love to help you on this change-making agenda you're on, and I don't know if Whitney -- Jack, thank you for coming here and speaking so openly. It took courage. I really appreciate what you said, and good luck with your mission.
کریس اندرسون: بسیار خب. من گمان میکنم که خیلی از افرادی که اینجا حضور دارند اگر شانسش را داشته باشند، دوست دارند که در مسیر این تغییر به شما کمک کنند، و نمیدانم اگر ویتنی ... جک، ممنون از اینکه اینجا آمدی و بسیار صریح صحبت کردی. این موضوع شجاعت میطلبید. بسیار حرفتان را تحسین میکنم و آرزوی موفقیت برای ماموریتتان میکنم.
JD: Thank you so much. Thanks for having me.
جک دورسی: بسیار ممنونم. ممنون که دعوتم کردید.
(Applause)
(تشویق)
Thank you.
متشکرم.