Chris Anderson: What worries you right now? You've been very open about lots of issues on Twitter. What would be your top worry about where things are right now?
Крис Андерсон: Что вас сейчас беспокоит? Вы так открыто говорили о многих проблемах на Твиттере. Что волнует вас прежде всего в нынешнем положении вещей?
Jack Dorsey: Right now, the health of the conversation. So, our purpose is to serve the public conversation, and we have seen a number of attacks on it. We've seen abuse, we've seen harassment, we've seen manipulation, automation, human coordination, misinformation. So these are all dynamics that we were not expecting 13 years ago when we were starting the company. But we do now see them at scale, and what worries me most is just our ability to address it in a systemic way that is scalable, that has a rigorous understanding of how we're taking action, a transparent understanding of how we're taking action and a rigorous appeals process for when we're wrong, because we will be wrong.
Джек Дорси: В данный момент — это здоровье диалога. Наша задача — служить общественному диалогу, и мы видели, как он подвергается различным атакам. Мы видели оскорбления и запугивание, видели манипулирование, автоматизацию, групповые действия, дезинформацию. Всё это — процессы, которых мы не предвидели, когда создавали нашу компанию 13 лет назад. Сейчас мы видим их в огромных масштабах, и прежде всего меня беспокоит вопрос, сможем ли мы найти способ бороться с этим системно и масштабно, с чётким пониманием того, какие именно действия мы предпринимаем, с ясным представлением о том, как мы действуем, и с чётким апелляционным процессом на случай нашей неправоты, потому что мы будем неправы.
Whitney Pennington Rodgers: I'm really glad to hear that that's something that concerns you, because I think there's been a lot written about people who feel they've been abused and harassed on Twitter, and I think no one more so than women and women of color and black women. And there's been data that's come out -- Amnesty International put out a report a few months ago where they showed that a subset of active black female Twitter users were receiving, on average, one in 10 of their tweets were some form of harassment. And so when you think about health for the community on Twitter, I'm interested to hear, "health for everyone," but specifically: How are you looking to make Twitter a safe space for that subset, for women, for women of color and black women?
Уитни Пеннингтон Роджерс: Я рада слышать, что вы думаете об этом, потому что есть много случаев, когда люди чувствуют, что они подверглись нападкам и оскорблениям на Твиттере, и чаще всего это затрагивает женщин различных национальностей, включая темнокожих женщин. И мы получили больше новых данных: Amnesty International опубликовала доклад пару месяцев назад, который показал, что подборка темнокожих женщин, активно использующих Твиттер, в среднем получала оскорбления в реакциях к одному из десяти твиттов. Так что когда вы говорите о здоровье сообщества Твиттера, мне бы хотелось услышать: «здоровье для каждого», и в особенности, как вы представляете превращение Твиттера в безопасное место для женщин, женщин различных рас, для темнокожих женщин?
JD: Yeah. So it's a pretty terrible situation when you're coming to a service that, ideally, you want to learn something about the world, and you spend the majority of your time reporting abuse, receiving abuse, receiving harassment. So what we're looking most deeply at is just the incentives that the platform naturally provides and the service provides. Right now, the dynamic of the system makes it super-easy to harass and to abuse others through the service, and unfortunately, the majority of our system in the past worked entirely based on people reporting harassment and abuse. So about midway last year, we decided that we were going to apply a lot more machine learning, a lot more deep learning to the problem, and try to be a lot more proactive around where abuse is happening, so that we can take the burden off the victim completely. And we've made some progress recently. About 38 percent of abusive tweets are now proactively identified by machine learning algorithms so that people don't actually have to report them. But those that are identified are still reviewed by humans, so we do not take down content or accounts without a human actually reviewing it. But that was from zero percent just a year ago. So that meant, at that zero percent, every single person who received abuse had to actually report it, which was a lot of work for them, a lot of work for us and just ultimately unfair.
ДД: Так... Да, это возмутительно, когда вы приходите за тем, чтобы узнать что-то новое о мире, а в итоге проводите бóльшую часть времени, сообщая об оскорблениях, нападках и угрозах в ваш адрес. Так что сейчас мы особенно пристально наблюдаем за стимулами, которое эта платформа предоставляет естественным образом. В настоящий момент система позволяет с лёгкостью оскорблять и преследовать других пользователей, и, к сожалению, в прошлом наша система полностью полагалась на то, чтобы пользователи сообщали о нападках и оскорблении. Примерно в половине прошлого года мы решили начать применять намного больше машинного обучения и в разы больше глубокого обучения и стараться предупреждать события, когда дело доходит до оскорблений, для того, чтобы мы могли целиком снять груз с плеч жертвы. Недавно у нас появились первые успехи. Примерно 38% твитов оскорбительного характера уже проактивно распознано при помощи машинного обучения, так что о них не придётся сообщать. Но даже те, что уже распознаны, всё равно потом проверяют люди, так что мы не удаляем контент или аккаунты без прямого рассмотрения человеком. И это подъём с нуля процентов год назад. Ноль процентов означало то, что каждому, кто столкнулся с оскорблениями, приходилось сообщать о них, что означало много работы для них, много — для нас, и было совершенно несправедливо.
The other thing that we're doing is making sure that we, as a company, have representation of all the communities that we're trying to serve. We can't build a business that is successful unless we have a diversity of perspective inside of our walls that actually feel these issues every single day. And that's not just with the team that's doing the work, it's also within our leadership as well. So we need to continue to build empathy for what people are experiencing and give them better tools to act on it and also give our customers a much better and easier approach to handle some of the things that they're seeing. So a lot of what we're doing is around technology, but we're also looking at the incentives on the service: What does Twitter incentivize you to do when you first open it up? And in the past, it's incented a lot of outrage, it's incented a lot of mob behavior, it's incented a lot of group harassment. And we have to look a lot deeper at some of the fundamentals of what the service is doing to make the bigger shifts. We can make a bunch of small shifts around technology, as I just described, but ultimately, we have to look deeply at the dynamics in the network itself, and that's what we're doing.
Помимо этого, нам как компании нужно позаботиться о том, что мы представляем интересы всех сообществ, для которых мы работаем. Мы не сможем построить успешный бизнес до тех пор, пока он не будет основан на многообразии взглядов нашего сообщества, которое действительно сталкивается с этими проблемами. И я не говорю только о команде тех, кто делает эту работу, это касается и нашего руководства. Нам необходимо научиться сопереживанию этим людям и их печальному опыту и дать им более эффективные орудия для борьбы, а также снабдить наших пользователей более простыми способами разбираться с тем, что они видят. Многое из того, что мы делаем, касается технологий, но мы также наблюдаем за стимулами нашего сервиса: что Твиттер побуждает вас делать, как только вы туда заходите? В прошлом он мотивировал возмущение и стадное поведение, он стимулировал групповую травлю. Так что нам необходимо лучше изучить несколько основ работы этого сервиса, чтобы добиться бóльших изменений. Мы можем слегка поменять какие-то технологические детали, как я и сказал, но в конечном счёте нам нужно детально изучить динамику самой сети, чем мы и занимаемся.
CA: But what's your sense -- what is the kind of thing that you might be able to change that would actually fundamentally shift behavior?
КА: Но что именно, на ваш взгляд, вы могли бы изменить, чтобы произошёл кардинальный сдвиг в поведении?
JD: Well, one of the things -- we started the service with this concept of following an account, as an example, and I don't believe that's why people actually come to Twitter. I believe Twitter is best as an interest-based network. People come with a particular interest. They have to do a ton of work to find and follow the related accounts around those interests. What we could do instead is allow you to follow an interest, follow a hashtag, follow a trend, follow a community, which gives us the opportunity to show all of the accounts, all the topics, all the moments, all the hashtags that are associated with that particular topic and interest, which really opens up the perspective that you see. But that is a huge fundamental shift to bias the entire network away from just an account bias towards a topics and interest bias.
ДД: Для начала... когда мы создавали этот сервис, идея была следить за чьей-то страницей, например, но я не думаю, что люди пользуются Твиттером именно для этого. Я считаю, что Твиттер, прежде всего — это сеть, основанная на интересах. Люди приходят сюда с интересом к чему-то. И им нужно проделать кучу работы, чтобы найти и отслеживать интересующие их аккаунты. Вместо этого мы могли бы позволить вам следить за вашим увлеченем — за хэштегом, за трендом, за сообществом, что даёт нам возможность показывать все аккаунты, все темы, все моменты, все хэштеги, которые относятся к определённой теме или увлечению, что действительно открывает то многообразие, которое вы видите. Но это огромный, кардинальный сдвиг — сместить целую сеть с предвзятости только к аккаунту на предвзятость к теме или увлечению.
CA: Because isn't it the case that one reason why you have so much content on there is a result of putting millions of people around the world in this kind of gladiatorial contest with each other for followers, for attention? Like, from the point of view of people who just read Twitter, that's not an issue, but for the people who actually create it, everyone's out there saying, "You know, I wish I had a few more 'likes,' followers, retweets." And so they're constantly experimenting, trying to find the path to do that. And what we've all discovered is that the number one path to do that is to be some form of provocative, obnoxious, eloquently obnoxious, like, eloquent insults are a dream on Twitter, where you rapidly pile up -- and it becomes this self-fueling process of driving outrage. How do you defuse that?
КА: Разве дело не в том, что одна из причин, почему у вас столько контента, — это результат того, что миллионы людей по всему миру оказались на гладиаторской арене, чтобы сражаться друг с другом за подписчиков и внимание? С точки зрения тех, кто только читает Твиттер, это не проблема, но все те, кто его создают, те кто пишут, говорят: «Знаешь, вот бы мне ещё больше "лайков", подписчиков, "ретвитов"». Так что они постоянно экспериментируют, пытаясь найти новые пути добиться этого. И всем нам стало ясно, что самый верный способ — устроить какую-то провокацию и быть нахалом, и при этом отличаться красноречием, ведь красноречивые оскорбления — мечта Твиттера, где вы моментально с кем-то сцепляетесь и начинается такая перепалка, которая сам себя разжигает. Как разрядить такую обстановку?
JD: Yeah, I mean, I think you're spot on, but that goes back to the incentives. Like, one of the choices we made in the early days was we had this number that showed how many people follow you. We decided that number should be big and bold, and anything that's on the page that's big and bold has importance, and those are the things that you want to drive. Was that the right decision at the time? Probably not. If I had to start the service again, I would not emphasize the follower count as much. I would not emphasize the "like" count as much. I don't think I would even create "like" in the first place, because it doesn't actually push what we believe now to be the most important thing, which is healthy contribution back to the network and conversation to the network, participation within conversation, learning something from the conversation. Those are not things that we thought of 13 years ago, and we believe are extremely important right now.
ДД: Да, прямо в точку, но это о тех же стимулах. Одним из решений, которые мы приняли на начальном этапе, было показывать количество ваших подписчиков. Мы решили выделить эту цифру крупным жирным шрифтом, а всё написанное крупным жирным шрифтом и есть самое важное и как раз то, что вы хотите продвигать. Было ли это верным решением тогда? Скорее всего, нет. Если бы я запускал этот сервис снова, я бы не стал так сильно выделять число подписчиков. Я бы не стал так сильно выделять количество «лайков». Мне кажется, прежде всего, я бы даже не создал сами «лайки», потому что на самом деле они не продвигают то, что мы считаем самым важным сейчас, то есть здоровый вклад в жизнь сети и диалог в сети, участие в диалоге, возможность научиться чему-то через этот диалог. Это не то, о чём мы думали 13 лет назад, но как раз то, что чрезвычайно важно сегодня.
So we have to look at how we display the follower count, how we display retweet count, how we display "likes," and just ask the deep question: Is this really the number that we want people to drive up? Is this the thing that, when you open Twitter, you see, "That's the thing I need to increase?" And I don't believe that's the case right now.
Так что нам нужно пересмотреть, как отображать число подписчиков, как показывать число «ретвитов», как показывать «лайки», и задать один серьёзный вопрос: действительно ли это то число, которое мы хотим продвигать? Действительно ли это то, о чём вы думаете: «вот чего мне нужно больше», когда открываете Твиттер? И я не думаю, что это так.
(Applause)
(Аплодисменты)
WPR: I think we should look at some of the tweets that are coming in from the audience as well.
УПР: Мне кажется, пора посмотреть на твиты, которые приходят от зрителей.
CA: Let's see what you guys are asking. I mean, this is -- generally, one of the amazing things about Twitter is how you can use it for crowd wisdom, you know, that more knowledge, more questions, more points of view than you can imagine, and sometimes, many of them are really healthy.
КА: Давайте-ка взглянем, о чём вы спрашиваете. Твиттер тем и замечателен, что он помогает нам использовать мудрость толпы, то есть больше знаний, больше вопросов, больше точек зрения, чем вы можете представить, и порой многие из них очень здравы.
WPR: I think one I saw that passed already quickly down here, "What's Twitter's plan to combat foreign meddling in the 2020 US election?" I think that's something that's an issue we're seeing on the internet in general, that we have a lot of malicious automated activity happening. And on Twitter, for example, in fact, we have some work that's come from our friends at Zignal Labs, and maybe we can even see that to give us an example of what exactly I'm talking about, where you have these bots, if you will, or coordinated automated malicious account activity, that is being used to influence things like elections. And in this example we have from Zignal which they've shared with us using the data that they have from Twitter, you actually see that in this case, white represents the humans -- human accounts, each dot is an account. The pinker it is, the more automated the activity is. And you can see how you have a few humans interacting with bots. In this case, it's related to the election in Israel and spreading misinformation about Benny Gantz, and as we know, in the end, that was an election that Netanyahu won by a slim margin, and that may have been in some case influenced by this. And when you think about that happening on Twitter, what are the things that you're doing, specifically, to ensure you don't have misinformation like this spreading in this way, influencing people in ways that could affect democracy?
УПР: Я сейчас увидела один твит — он уже убежал вниз: «Твиттер планирует бороться с иностранным вмешательством в выборы в США в 2020?» Мне кажется, это часть проблемы, которая существует в интернете вцелом: происходит много вредоносной автоматизированной деятельности. У нас есть подборка данных с Твиттера, от наших друзей в Zignal Labs, и возможно, мы даже увидим, чтобы у нас был пример, о чём конкретно я говорю, о так называемых ботах, или координированной автоматизированной вредоносной деятельности аккаунтов, которую используют для влияния на такие события, как выборы. И в этом примере от Zignal, которым они поделились с нами, используются данные Твиттера, и вы можете увидеть, что в этом случае белый — это аккаунты людей, где каждая точка — один аккаунт. Чем розовее точка, тем более автоматизированы действия. И здесь также видно взаимодействие людей и ботов. В этом случае речь о выборах в Израиле и распространении дезинформации о Бени Ганц, и, как мы знаем, в конце концов, это были выборы, которые Нетаньяху выиграл с очень малым перевесом, и в некотором роде как раз этот процесс и мог повлиять. И думая о том, что такие вещи происходят на Твиттере, какие именно действия вы предпринимаете для того, чтобы предотвратить распространение ложной информации этим путём и не позволить ей поставить под угрозу демократию?
JD: Just to back up a bit, we asked ourselves a question: Can we actually measure the health of a conversation, and what does that mean? And in the same way that you have indicators and we have indicators as humans in terms of are we healthy or not, such as temperature, the flushness of your face, we believe that we could find the indicators of conversational health. And we worked with a lab called Cortico at MIT to propose four starter indicators that we believe we could ultimately measure on the system. And the first one is what we're calling shared attention. It's a measure of how much of the conversation is attentive on the same topic versus disparate. The second one is called shared reality, and this is what percentage of the conversation shares the same facts -- not whether those facts are truthful or not, but are we sharing the same facts as we converse? The third is receptivity: How much of the conversation is receptive or civil or the inverse, toxic? And then the fourth is variety of perspective. So, are we seeing filter bubbles or echo chambers, or are we actually getting a variety of opinions within the conversation? And implicit in all four of these is the understanding that, as they increase, the conversation gets healthier and healthier.
ДД: Я немного вернусь назад. Мы спрашивали себя: можем ли мы в действительности измерить здоровье диалога, и что это значит? Точно так же, как существуют показатели здоровья нашего организма, такие, как температура и цвет лица, мы считаем, что можно найти показатели состояния здоровья диалога. Мы сотрудничали с лабораторией Cortico в МТИ, чтобы предложить четыре начальных индикатора, которые, по нашему мнению, мы могли бы применить к этой системе. Первый из них мы называем совместным вниманием. Это измерение того, какая часть диалога проявляет внимание к какой-то теме в соотношении с разрозненностью. Второй называется совместной реальностью, он показывает, какой процент диалога имеет одни и те же факты — и дело не в том, достоверны они или нет, а в том, разделяем ли мы те же факты, как участники диалога? Третий — благожелательность: какая часть диалога благожелательна или конструктивна, и наоборот — пагубна? Четвёртый показатель — это разнообразие точек зрения. Что мы видим на самом деле — пузыри фильтров и эхо-камеры, или же настоящее многообразие мнений внутри диалога? Эти четыре показателя подразумевают, что с их увеличением диалог становится более и более здоровым.
So our first step is to see if we can measure these online, which we believe we can. We have the most momentum around receptivity. We have a toxicity score, a toxicity model, on our system that can actually measure whether you are likely to walk away from a conversation that you're having on Twitter because you feel it's toxic, with some pretty high degree. We're working to measure the rest, and the next step is, as we build up solutions, to watch how these measurements trend over time and continue to experiment. And our goal is to make sure that these are balanced, because if you increase one, you might decrease another. If you increase variety of perspective, you might actually decrease shared reality.
Так что наш первый шаг — понять, возможно ли измерить их онлайн, и мы считаем, что возможно. Наш основной интерес — это доброжелательность. У нас есть оценка токсичности, модель токсичности в нашей системе, которая способна измерить, насколько вероятно, что вы уйдёте от переписки на Твиттере, потому что вам кажется, что она в высокой степени токсична. Мы работаем над возможностью других измерений, и наш следующий шаг, по мере того, как мы находим решения, — это наблюдать за тем, как эти измерения развиваются с течением времени, и продолжать экспериментировать. Наша цель — убедиться, что они находятся в равновесии, потому что если увеличить одно, уменьшится и другое. Если увеличить количество различных взглядов, можно в действительности уменьшить общую для группы реальность.
CA: Just picking up on some of the questions flooding in here.
КА: Я просто выбираю пару вопросов из всего этого потока.
JD: Constant questioning.
ДД: Бесконечные вопросы.
CA: A lot of people are puzzled why, like, how hard is it to get rid of Nazis from Twitter?
КА: Многих интересует, насколько сложно избавиться от нацистов на Твиттере?
JD: (Laughs)
ДД: (Cмех)
So we have policies around violent extremist groups, and the majority of our work and our terms of service works on conduct, not content. So we're actually looking for conduct. Conduct being using the service to repeatedly or episodically harass someone, using hateful imagery that might be associated with the KKK or the American Nazi Party. Those are all things that we act on immediately. We're in a situation right now where that term is used fairly loosely, and we just cannot take any one mention of that word accusing someone else as a factual indication that they should be removed from the platform. So a lot of our models are based around, number one: Is this account associated with a violent extremist group? And if so, we can take action. And we have done so on the KKK and the American Nazi Party and others. And number two: Are they using imagery or conduct that would associate them as such as well?
У нас есть политика касательно воинствующих экстремистских группировок, и бóльшая часть нашей работы и наших условий использования основана на поведении, а не на контенте. Так что в действительности мы смотрим на поведение. Под поведением здесь имеется в виду использование сервиса для повторных или эпизодических нападок на кого-либо, с использованием выражений, разжигающих ненависть, связанных, например, с Ку-клукс-кланом или Американской нацистской партией. Всё это мы пресекаем немедленно. Сейчас дела обстоят так, что этот термин используется довольно свободно, и мы не можем взять каждое упоминание этого слова для обвинения кого-либо, как фактический показатель того, что их нужно удалить с платформы. Множество наших моделей интересуются прежде всего тем, связан ли аккаунт с воинствующими экстремистскими группировками? Если да, то мы можем принять меры. Так мы и поступили с ККК, Американской нацистской партией и c другими. Второй пункт: используется ли образная речь или поведение, которое бы указывало ни их связь?
CA: How many people do you have working on content moderation to look at this?
КА: Сколько человек работает над модерацией контента, чтобы за этим следить?
JD: It varies. We want to be flexible on this, because we want to make sure that we're, number one, building algorithms instead of just hiring massive amounts of people, because we need to make sure that this is scalable, and there are no amount of people that can actually scale this. So this is why we've done so much work around proactive detection of abuse that humans can then review. We want to have a situation where algorithms are constantly scouring every single tweet and bringing the most interesting ones to the top so that humans can bring their judgment to whether we should take action or not, based on our terms of service.
ДД: По-разному. Мы хотим иметь гибкий подход, потому что для нас важно, что мы, в первую очередь, создаём алгоритмы вместо того, чтобы нанимать огромное количество человек, потому что нам нужно знать, что это масштабируемый процесс, и человеческих сил не хватит для работы в таких масштабах. Именно поэтому мы уделили столько внимания проактивному распознаванию оскорблений, которые потом проверяет человек. Мы хотим добиться того, чтобы алгоритмы непрестанно просматривали каждый твит и выносили самые интересные на поверхность, чтобы люди могли решить, нужно ли принимать меры по нашим правилам пользования.
WPR: But there's not an amount of people that are scalable, but how many people do you currently have monitoring these accounts, and how do you figure out what's enough?
УПР: Нет такого масштабного количества человек, но сколько у вас есть на данный момент для наблюдения за этими аккаунтами? и как вы понимаете, сколько достаточно?
JD: They're completely flexible. Sometimes we associate folks with spam. Sometimes we associate folks with abuse and harassment. We're going to make sure that we have flexibility in our people so that we can direct them at what is most needed. Sometimes, the elections. We've had a string of elections in Mexico, one coming up in India, obviously, the election last year, the midterm election, so we just want to be flexible with our resources. So when people -- just as an example, if you go to our current terms of service and you bring the page up, and you're wondering about abuse and harassment that you just received and whether it was against our terms of service to report it, the first thing you see when you open that page is around intellectual property protection. You scroll down and you get to abuse, harassment and everything else that you might be experiencing.
ДД: Это гибкое число. Иной раз нам нужны люди для работы над спамом. Иногда — для домогательств, угроз и оскорблений. Мы постараемся достичь гибкости в работе нашего персонала, чтобы задействовать их для самых важных задач. Иногда — для выборов. У нас был ряд выборов в Мексике, будут выборы в Индии, само собой, выборы в прошлом году, промежуточные выборы — мы хотим чтобы наш персонал мог подстраиваться. Так что когда люди — к примеру, если вы сейчас зайдёте на наши действующие условия использования и прокрутите страницу вверх, и вы смотрите, нарушают ли правила использования оскорбления и травля, которым вы подверглись, для того чтобы сообщить об этом, — первое, что вы увидите, открыв эту страницу, будет информация о защите интеллектуальной собственности. Вы прокручиваете вниз и увидите жестокое обращение, домогательства и всё остальное, с чем вы могли бы столкнуться.
So I don't know how that happened over the company's history, but we put that above the thing that people want the most information on and to actually act on. And just our ordering shows the world what we believed was important. So we're changing all that. We're ordering it the right way, but we're also simplifying the rules so that they're human-readable so that people can actually understand themselves when something is against our terms and when something is not. And then we're making -- again, our big focus is on removing the burden of work from the victims. So that means push more towards technology, rather than humans doing the work -- that means the humans receiving the abuse and also the humans having to review that work. So we want to make sure that we're not just encouraging more work around something that's super, super negative, and we want to have a good balance between the technology and where humans can actually be creative, which is the judgment of the rules, and not just all the mechanical stuff of finding and reporting them. So that's how we think about it.
И я не знаю, как так произошло за историю компании, но мы поместили именно это перед тем, о чём людям действительно нужно больше информации и где нужно действие. И такой порядок говорит о том, что мы считали тогда самым важным. Так что сейчас мы это меняем. Мы наводим порядок и упрощаем правила, чтобы людям было удобнее их читать, чтобы люди могли сами понять, когда что-то нарушает наши правила, а когда — нет. Также мы делаем... опять же, наша задача — это избавить от работы тех, кто стал жертвой. А это значит переложить работу с людей на технологии, то есть с тех, кто подвергся жестокости, и тех, кому приходится это проверять. Так что мы хотим убедиться, что мы не просто призываем к большему труду над чем-то очень, очень неприятным, а хотим добиться равновесия между технологиями и тем, где человек может проявлять творческий подход, то есть в оценке правил, а не в механической работе по поиску и сообщениям о нарушениях. Вот наши мысли на этот счёт.
CA: I'm curious to dig in more about what you said. I mean, I love that you said you are looking for ways to re-tweak the fundamental design of the system to discourage some of the reactive behavior, and perhaps -- to use Tristan Harris-type language -- engage people's more reflective thinking. How far advanced is that? What would alternatives to that "like" button be?
КА: Давайте углубимся в то, о чём вы сейчас сказали. Здорово, что вы ищете способы поправить основные принципы работы этой системы, чтобы менее способствовать негативным реакциям, и, возможно, используя терминологию Тристана Харриса, сильнее задействовать рефлексивное мышление людей. Насколько это возможно? Какими бы могли быть альтернативы кнопки «лайк»?
JD: Well, first and foremost, my personal goal with the service is that I believe fundamentally that public conversation is critical. There are existential problems facing the world that are facing the entire world, not any one particular nation-state, that global public conversation benefits. And that is one of the unique dynamics of Twitter, that it is completely open, it is completely public, it is completely fluid, and anyone can see any other conversation and participate in it. So there are conversations like climate change. There are conversations like the displacement in the work through artificial intelligence. There are conversations like economic disparity. No matter what any one nation-state does, they will not be able to solve the problem alone. It takes coordination around the world, and that's where I think Twitter can play a part.
ДД: Прежде всего, лично я глубоко убеждён, что для нашего сервиса критически важен общественный диалог. Мир столкнулся с жизненно важными проблемами, которые касаются всех, а не одного отдельного национального государства, которому приносит пользу общественный диалог. Твиттер уникален тем, что он полностью открытый, полностью общественный, полностью податливый, и каждый может читать и принять участие в любой дискуссии. Там обсуждают изменение климата, там обсуждают темы, такие, как потеря рабочих мест и замещение искусственным интеллектом. Там обсуждают экономическое неравенство и так далее. Неважно, что предпринимает какое-либо государство, они не справятся с этими проблемами самостоятельно. Необходимо объединить усилия всего мира, и как раз здесь Твиттер может сыграть свою роль.
The second thing is that Twitter, right now, when you go to it, you don't necessarily walk away feeling like you learned something. Some people do. Some people have a very, very rich network, a very rich community that they learn from every single day. But it takes a lot of work and a lot of time to build up to that. So we want to get people to those topics and those interests much, much faster and make sure that they're finding something that, no matter how much time they spend on Twitter -- and I don't want to maximize the time on Twitter, I want to maximize what they actually take away from it and what they learn from it, and --
Второе — если вы сейчас зайдёте на Твиттер, вы не обязательно уйдёте с ощущением, что вы узнали что-то новое и полезное. Хотя кому-то удаётся. У некоторых людей очень и очень богатая сеть, большое сообщество, откуда они могут ежедневно черпать знания. Однако, нужно проделать много работы и отдать много времени на его создание. Мы хотим сделать так, чтобы люди смогли попасть в такие беседы намного быстрее и чтобы они могли найти что-то, что... независимо от времени, проводённом на Твиттере, — и я не хочу увеличивать время на Твиттере, я хочу увеличить его отдачу. И сколько нового узнают люди, и...
CA: Well, do you, though? Because that's the core question that a lot of people want to know. Surely, Jack, you're constrained, to a huge extent, by the fact that you're a public company, you've got investors pressing on you, the number one way you make your money is from advertising -- that depends on user engagement. Are you willing to sacrifice user time, if need be, to go for a more reflective conversation?
КА: Но так ли это? Ведь это и есть главный вопрос, который интересует очень многих. Само собой, Джек, вас во многом сдерживает то, что вы публичная компания, и на вас давят инвесторы, и ваша прибыль, прежде всего, поступает от рекламы — и это зависит от участия пользователей. Готовы ли вы пожертвовать временем пользователей, если будет нужно, ради более осмысленного диалога?
JD: Yeah; more relevance means less time on the service, and that's perfectly fine, because we want to make sure that, like, you're coming to Twitter, and you see something immediately that you learn from and that you push. We can still serve an ad against that. That doesn't mean you need to spend any more time to see more. The second thing we're looking at --
ДД: Да, чем релевантнее контент, тем меньше времени на платформе, и это совершенно нормально, потому что мы хотим сделать так, чтобы вы заходили на Твиттер и сразу видели что-то новое и важное для вас. Мы всё ещё можем показать рекламу. Но видеть больше не значит тратить больше времени. Второе, на что мы смотрим...
CA: But just -- on that goal, daily active usage, if you're measuring that, that doesn't necessarily mean things that people value every day. It may well mean things that people are drawn to like a moth to the flame, every day. We are addicted, because we see something that pisses us off, so we go in and add fuel to the fire, and the daily active usage goes up, and there's more ad revenue there, but we all get angrier with each other. How do you define ... "Daily active usage" seems like a really dangerous term to be optimizing.
КА: Минутку... насчёт цели активно проведённого времени, если вы его измеряете, это ещё не значит, что это то, которые люди высоко ценят. Это может быть и тем, на что люди ежедневно слетаются, как мотыльки на огонь. Мы зависимы, так как каждый день мы видим что-то, что нас бесит, и продолжаем подливать масла в огонь, число активных пользователей в день растёт и реклама приносит больше дохода, но мы всё больше злимся друг на друга. Как вы определяете... «Ежедневные активные пользователи» звучит как очень опасный критерий оптимизации.
(Applause)
(Аплодисменты)
JD: Taken alone, it is, but you didn't let me finish the other metric, which is, we're watching for conversations and conversation chains. So we want to incentivize healthy contribution back to the network, and what we believe that is is actually participating in conversation that is healthy, as defined by those four indicators I articulated earlier.
ДД: Да, отдельно взятое, но вы не дали мне закончить с другим показателем, мы следим за диалогами и цепочками диалогов. Мы хотим стимулировать здоровый вклад в сеть, а это, по нашему мнению, — участие в диалоге, который нетоксичен согласно четырем индикаторам, о которых я вам рассказал.
So you can't just optimize around one metric. You have to balance and look constantly at what is actually going to create a healthy contribution to the network and a healthy experience for people. Ultimately, we want to get to a metric where people can tell us, "Hey, I learned something from Twitter, and I'm walking away with something valuable." That is our goal ultimately over time, but that's going to take some time.
Нельзя оптимизировать по одному параметру. Нужно постоянно совмещать и смотреть на то, что на самом деле принесёт здоровый вклад в сеть и здоровое общение людям. Наша цель — получить такой показатель, чтобы люди смогли бы сказать нам: «Твиттер научил меня чему-то, и я унесу нечто ценное с собой». Это наша долгосрочная цель, и чтобы прийти к ней, нужно время.
CA: You come over to many, I think to me, as this enigma. This is possibly unfair, but I woke up the other night with this picture of how I found I was thinking about you and the situation, that we're on this great voyage with you on this ship called the "Twittanic" --
КА: Мне кажется, что для многих, и для меня, вы — человек-загадка. Возможно, это несправедливо, но как-то ночью я проснулся, поймав себя на том, что я думал о вас и об этой ситуации, как будто мы отправились в большое путешествие на корабле под названием «Твиттаник»,
(Laughter)
(Смех)
and there are people on board in steerage who are expressing discomfort, and you, unlike many other captains, are saying, "Well, tell me, talk to me, listen to me, I want to hear." And they talk to you, and they say, "We're worried about the iceberg ahead." And you go, "You know, that is a powerful point, and our ship, frankly, hasn't been built properly for steering as well as it might." And we say, "Please do something." And you go to the bridge, and we're waiting, and we look, and then you're showing this extraordinary calm, but we're all standing outside, saying, "Jack, turn the fucking wheel!"
и пассажиры в третьем классе беспокоятся, и вы, в отличие от других капитанов, говорите: «Давайте, говорите со мной, послушайте меня, я хочу услышать». И они говорят вам: «Нас тревожит айсберг перед нами». А вы отвечаете: «Знаете, это неоспоримый факт, и наш корабль, по правде, построен не очень качественно чтобы вырулить так, как хотелось бы». Мы просим: «Сделайте что-нибудь». И вы идёте на мостик, пока мы ждём и смотрим, а вы держитесь необычайно спокойно, но мы все стоим снаружи, говоря: «Джек, поверни же чёртов штурвал!»
You know?
Представляете?
(Laughter)
(Смех)
(Applause)
(Аплодисменты)
I mean --
Я к тому, что...
(Applause)
(Аплодисменты)
It's democracy at stake. It's our culture at stake. It's our world at stake. And Twitter is amazing and shapes so much. It's not as big as some of the other platforms, but the people of influence use it to set the agenda, and it's just hard to imagine a more important role in the world than to ... I mean, you're doing a brilliant job of listening, Jack, and hearing people, but to actually dial up the urgency and move on this stuff -- will you do that?
На карту поставлена демократия. На карту поставлена наша культура. На карту поставлен наш мир. Твиттер потрясающий, он влияет на многое. Он не такой большой, как некоторые другие платформы, но влиятельные люди пользуются им, чтобы задать приоритеты, и трудно себе представить более важную роль в мире, чем... Я хочу сказать, что вам здорово удаётся слушать и слышать людей, но по-настоящему оценить срочность и сдвинуть всё с места... вы сделаете это?
JD: Yes, and we have been moving substantially. I mean, there's been a few dynamics in Twitter's history. One, when I came back to the company, we were in a pretty dire state in terms of our future, and not just from how people were using the platform, but from a corporate narrative as well. So we had to fix a bunch of the foundation, turn the company around, go through two crazy layoffs, because we just got too big for what we were doing, and we focused all of our energy on this concept of serving the public conversation. And that took some work. And as we dived into that, we realized some of the issues with the fundamentals. We could do a bunch of superficial things to address what you're talking about, but we need the changes to last, and that means going really, really deep and paying attention to what we started 13 years ago and really questioning how the system works and how the framework works and what is needed for the world today, given how quickly everything is moving and how people are using it. So we are working as quickly as we can, but quickness will not get the job done. It's focus, it's prioritization, it's understanding the fundamentals of the network and building a framework that scales and that is resilient to change, and being open about where we are and being transparent about where are so that we can continue to earn trust.
ДД: Да, и мы серьёзно продвигаемся. Было несколько изменений в истории Твиттера. Первое — когда я вернулся в компанию, мы находились в довольно тяжёлом положении в отношении нашего будущего не просто от того, как люди пользовались платформой, но и из-за нашей корпоративной риторики. Так что нам пришлось поправить несколько основных деталей, развернуть компанию, пережить два безумных периода увольнений, потому что мы слишком разрослись для того, чем мы занимались, и мы направили все свои силы на службу общественному диалогу. Нам пришлось потрудиться. Как только мы погрузились в дело, мы осознали некоторые проблемы с основными принципами. Мы могли бы принять много поверхностных действий, чтобы повлиять на происходящее, но важно, чтобы изменения удержались, а это значит, что нам нужно копнуть очень глубоко и быть внимательными к тому, что мы начали 13 лет назад, и действительно спрашивать себя, как работает система, как работает основная концепция, и что нужно миру сегодня, учитывая то, как быстро всё меняется и как люди этим пользуются. Мы работаем так быстро, как можем, но скорость не решит все вопросы. Нужен фокус, расстановка приоритетов, понимание основ сети и создание масштабируемой схемы, устойчивой к переменам; открытость о наших действиях и принцип прозрачности, чтобы мы могли заслуживать доверия и дальше.
So I'm proud of all the frameworks that we've put in place. I'm proud of our direction. We obviously can move faster, but that required just stopping a bunch of stupid stuff we were doing in the past.
Так что я горжусь тем, что мы создали. Я горжусь нашим направлением. Само собой, мы можем двигаться быстрее, но для этого нужно остановить те глупости, которые мы сделали в прошлом.
CA: All right. Well, I suspect there are many people here who, if given the chance, would love to help you on this change-making agenda you're on, and I don't know if Whitney -- Jack, thank you for coming here and speaking so openly. It took courage. I really appreciate what you said, and good luck with your mission.
КА: Хорошо. Наверняка здесь много тех, кто бы очень хотел, будь у них возможность, помочь вам с этой темой перемен, и я не знаю насчёт Уитни... Джек, спасибо, что пришли и что вы так открыто говорили. Это смело. Я очень признателен за этот разговор и желаю удачи в вашей миссии.
JD: Thank you so much. Thanks for having me.
ДД: Большое спасибо. Спасибо за приглашение.
(Applause)
(Aплодисменты)
Thank you.
Спасибо.