Chris Anderson: What worries you right now? You've been very open about lots of issues on Twitter. What would be your top worry about where things are right now?
크리스 앤더슨: 지금 걱정하는 건 무엇인가요? 트위터에 관한 다양한 이슈를 알고 계실 겁니다 현재 상황에서 가장 걱정하는 것은 무엇인가요?
Jack Dorsey: Right now, the health of the conversation. So, our purpose is to serve the public conversation, and we have seen a number of attacks on it. We've seen abuse, we've seen harassment, we've seen manipulation, automation, human coordination, misinformation. So these are all dynamics that we were not expecting 13 years ago when we were starting the company. But we do now see them at scale, and what worries me most is just our ability to address it in a systemic way that is scalable, that has a rigorous understanding of how we're taking action, a transparent understanding of how we're taking action and a rigorous appeals process for when we're wrong, because we will be wrong.
잭 도시: 지금 당장은, 대화의 건전성이요. 저희의 목적은 대중의 대화에 기여하는 것이지만 대화 중 일어나는 많은 공격을 봤습니다. 우리는 욕설도 봤고, 괴롭힘도 봤으며, 조작도 봤었고, 자동화나, 인간의 조직화, 또는 허위정보도 있었습니다. 모두 저희가 예상치 못했던 상황입니다. 13년 전에 회사를 세웠을 때는 예상치 못했던 것들이죠. 하지만 이런 문제의 규모가 점점 커졌습니다. 가장 걱정하는 건 이 문제를 다루는 저희의 능력입니다. 확장 가능하고 체계적인 방법이어야 하고 저희가 조치를 취하는 방법을 철저히 이해해야 해요. 즉, 행동을 취하는 방법에 대한 확실한 이해가 필요해요. 그리고 저희가 잘못했을 때 확실한 항소 절차가 필요하죠. 저희는 잘못을 저지를 수밖에 없으니까요.
Whitney Pennington Rodgers: I'm really glad to hear that that's something that concerns you, because I think there's been a lot written about people who feel they've been abused and harassed on Twitter, and I think no one more so than women and women of color and black women. And there's been data that's come out -- Amnesty International put out a report a few months ago where they showed that a subset of active black female Twitter users were receiving, on average, one in 10 of their tweets were some form of harassment. And so when you think about health for the community on Twitter, I'm interested to hear, "health for everyone," but specifically: How are you looking to make Twitter a safe space for that subset, for women, for women of color and black women?
휘트니 페닝턴 로저스: 그런 걱정을 들으니 정말 기쁘네요. 왜냐하면 트위터에서 욕설을 듣거나 괴롭힘을 당하는 사람들에 대한 글이 많았거든요. 특히나 여성, 유색인 여성, 흑인 여성에게요. 국제 앰네스티에서 몇 달 전 발표한 보고서에 따르면 흑인 여성 트위터 사용자의 일부가 트윗할 때마다 평균적으로 10번 중에 1번은 괴롭힘을 당하고 있다고 합니다. 건강한 트위터 커뮤니티에 대한 생각을 말씀하실 때 "모두를 위한 건강"이라는 말을 흥미롭게 들었습니다. 하지만 구체적으로 어떻게 여성, 유색인종인 여성과 흑인 여성에게도 안전한 장소로 만들 계획이신가요?
JD: Yeah. So it's a pretty terrible situation when you're coming to a service that, ideally, you want to learn something about the world, and you spend the majority of your time reporting abuse, receiving abuse, receiving harassment. So what we're looking most deeply at is just the incentives that the platform naturally provides and the service provides. Right now, the dynamic of the system makes it super-easy to harass and to abuse others through the service, and unfortunately, the majority of our system in the past worked entirely based on people reporting harassment and abuse. So about midway last year, we decided that we were going to apply a lot more machine learning, a lot more deep learning to the problem, and try to be a lot more proactive around where abuse is happening, so that we can take the burden off the victim completely. And we've made some progress recently. About 38 percent of abusive tweets are now proactively identified by machine learning algorithms so that people don't actually have to report them. But those that are identified are still reviewed by humans, so we do not take down content or accounts without a human actually reviewing it. But that was from zero percent just a year ago. So that meant, at that zero percent, every single person who received abuse had to actually report it, which was a lot of work for them, a lot of work for us and just ultimately unfair.
잭: 맞아요. 그건 정말 끔찍한 상황이죠. 사람들은 트위터를 이용하면서 세계에 대해 더 배우는 걸 꿈꿨지만, 그 시간의 대부분을 욕을 듣거나, 비방 받거나, 괴롭힘을 당하고 신고를 하며 보내죠. 그래서 가장 자세히 보려는 것은 플랫폼과 서비스가 자연스럽게 제공하는 장려책입니다. 지금 당장은, 괴롬힘이 일어나기 너무 쉬운 시스템이죠. 다른 사람을 비방하는 것도요. 불행히도, 과거에 저희 시스템의 대부분은 온전히 사람들이 비방과 남용을 신고하는 것에만 의지했었죠. 그래서 작년 중반에 저희는 그 문제에 더 많은 기계학습과 딥 러닝을 적용해 보기로 결정했습니다. 또 어디서 비방이 일어나고 있는지에 대해 사전 대책을 찾으려 했습니다. 피해자의 부담을 완전히 덜어버리기 위해서요. 그리고 최근에 어느 정도 진전이 있었습니다. 기계학습 알고리즘을 통해서 비방 트윗 중 38%를 사전에 파악할 수 있습니다. 그래서 더 이상 신고할 필요가 없어졌습니다. 하지만 그렇게 파악한 트윗들은 여전히 사람이 검토합니다 사람이 직접 확인하지 않으면 컨텐츠나 계정을 삭제하지 않습니다. 하지만 불과 일 년 전만 해도 0%였죠. 다시 말해, 비율이 0%였을 때는 비방을 받은 사람이 직접 신고해야만 했고, 그건 그들에게도 저희에게도 너무 복잡한 일이었습니다. 그리고 정말 부당한 일이었죠.
The other thing that we're doing is making sure that we, as a company, have representation of all the communities that we're trying to serve. We can't build a business that is successful unless we have a diversity of perspective inside of our walls that actually feel these issues every single day. And that's not just with the team that's doing the work, it's also within our leadership as well. So we need to continue to build empathy for what people are experiencing and give them better tools to act on it and also give our customers a much better and easier approach to handle some of the things that they're seeing. So a lot of what we're doing is around technology, but we're also looking at the incentives on the service: What does Twitter incentivize you to do when you first open it up? And in the past, it's incented a lot of outrage, it's incented a lot of mob behavior, it's incented a lot of group harassment. And we have to look a lot deeper at some of the fundamentals of what the service is doing to make the bigger shifts. We can make a bunch of small shifts around technology, as I just described, but ultimately, we have to look deeply at the dynamics in the network itself, and that's what we're doing.
또 회사에서 진행 중인 다른 작업으로는 반드시 모든 공동체가 표현할 수 있게 만드는 겁니다. 실제로 저희 장벽 안에서 이런 문제를 매일 느끼는 다양한 시각이 없다면 저희는 성공적인 비즈니스를 구축할 수 없습니다. 단순히 그 작업을 하는 팀뿐만 아니라 저희 리더십 안에서도 이뤄져야 하는 거죠. 그래서 사람들이 경험한 것에 공감대를 형성하고 사람들이 이용할 수 있는 더 나은 도구를 주려는 겁니다. 또 고객이 보고 있는 걸 처리할 수 있는 더 쉽고 좋은 접근 방식도 제공해야 합니다. 대부분의 작업은 기술과 관련된 것이지만 장려 제도 역시 검토하고 있습니다. 트위터를 처음 켰을 때 무엇을 하도록 유도하나요? 예전에는, 큰 분노를 일으키고 많은 군중 행위를 일으켰으며 집단 폭력을 많이 일으켰죠. 큰 변화를 일으키기 위해서는 서비스가 하는 일의 기본 원칙을 자세히 살펴봐야 합니다. 제가 말씀드렸듯이, 기술을 이용해 수많은 작은 변화를 만들 수 있습니다. 하지만 궁극적으로는 네트워크 그 자체의 역학관계를 자세히 살펴봐야 합니다. 그게 저희가 하는 거죠.
CA: But what's your sense -- what is the kind of thing that you might be able to change that would actually fundamentally shift behavior?
크리스: 그렇다면 어떤... 어떤 게 실제로 행동의 근본적인 변화를 만들어낼 수 있을까요?
JD: Well, one of the things -- we started the service with this concept of following an account, as an example, and I don't believe that's why people actually come to Twitter. I believe Twitter is best as an interest-based network. People come with a particular interest. They have to do a ton of work to find and follow the related accounts around those interests. What we could do instead is allow you to follow an interest, follow a hashtag, follow a trend, follow a community, which gives us the opportunity to show all of the accounts, all the topics, all the moments, all the hashtags that are associated with that particular topic and interest, which really opens up the perspective that you see. But that is a huge fundamental shift to bias the entire network away from just an account bias towards a topics and interest bias.
잭: 글쎄요, 저희 서비스는 계정을 팔로우하는 발상과 함께 시작했죠. 예를 들면 말이죠. 하지만 사람들이 트위터를 이용하는 건 그것 때문이 아니라고 생각해요. 흥미 기반의 네트워크로써는 트위터가 최고라고 생각합니다. 사람들은 특정한 흥미를 가지고 와요. 그들의 흥미와 관련된 계정을 찾고 팔로우하기까지 할 일이 너무 많죠. 대신 트위터에선 흥미를 팔로우하고, 해쉬태그, 트렌드를 팔로우하고 공동체를 팔로우해요. 그러면 특정한 주제와 흥미에 관련된 모든 계정, 토픽, 모멘트, 해쉬태그를 보여줄 기회가 생겨요. 보는 시각을 넓혀주는 것이죠. 하지만 전체적인 네트워크에 집중한 단순히 계정에 편향된 게 아니라 주제와 흥미에 기댄 거대한 기본 원리의 변화에요.
CA: Because isn't it the case that one reason why you have so much content on there is a result of putting millions of people around the world in this kind of gladiatorial contest with each other for followers, for attention? Like, from the point of view of people who just read Twitter, that's not an issue, but for the people who actually create it, everyone's out there saying, "You know, I wish I had a few more 'likes,' followers, retweets." And so they're constantly experimenting, trying to find the path to do that. And what we've all discovered is that the number one path to do that is to be some form of provocative, obnoxious, eloquently obnoxious, like, eloquent insults are a dream on Twitter, where you rapidly pile up -- and it becomes this self-fueling process of driving outrage. How do you defuse that?
크리스: 하지만 트위터에 그렇게 많은 컨텐츠가 있는 건 결국 전 세계의 이용자 수백만 명이 서로 싸움을 벌이고 있기 때문이지 않나요? 팔로워와 관심을 얻기 위해서요. 트위터를 방금 본 사람의 시각에서 봤을 때는요. 별로 문제가 아니에요. 하지만 싸움을 일으키는 사람들은 실제로 이렇게 말해요. "난 더 많은 '좋아요'와 팔로워, 리트윗을 얻고 싶어" 라고요. 그래서 더 많이 얻을 방법을 계속 시험해보고 찾아내려 하죠. 그리고 관심을 얻을 수 있는 최고의 방법은 일부러 도발하고, 능란한 말솜씨로 불쾌하게 만드는 거였어요. 트위터에서 설득력 있게 모욕하는 걸 꿈꾸는 사람들이죠. 그렇게 쌓아올리다 보면 이 분개에 기름을 붓는 꼴이 되는 거죠. 이 문제는 어떻게 완화시키나요?
JD: Yeah, I mean, I think you're spot on, but that goes back to the incentives. Like, one of the choices we made in the early days was we had this number that showed how many people follow you. We decided that number should be big and bold, and anything that's on the page that's big and bold has importance, and those are the things that you want to drive. Was that the right decision at the time? Probably not. If I had to start the service again, I would not emphasize the follower count as much. I would not emphasize the "like" count as much. I don't think I would even create "like" in the first place, because it doesn't actually push what we believe now to be the most important thing, which is healthy contribution back to the network and conversation to the network, participation within conversation, learning something from the conversation. Those are not things that we thought of 13 years ago, and we believe are extremely important right now.
잭: 네, 정확히 말씀해주셨어요. 장려책 이야기로 다시 돌아 가는데요. 예전에 저희가 했던 선택 중 하나는 팔로워 숫자를 보여주는 거였어요. 그 숫자는 크고 굵은 볼드체여야 했고 크고 굵다는 건 중요하다는 뜻이죠. 그럼 그것들을 가지고 싶어지고요. 그게 옳은 결정이었냐고요? 아마 아니겠죠. 만약 이 서비스를 다시 시작한다면 지금처럼 팔로워 숫자를 강조하진 않을 거예요. "좋아요" 수도 이렇게 강조하지 않을 거고요. 애초에 "좋아요"를 만들지도 않을 것 같네요. 왜냐하면 지금은 그게 가장 중요한 게 아니라고 생각하기 때문이에요. 반대로 네트워크에 건전하게 기여하는 것, 대화에서 네트워크로, 대화에 참여하는 것, 대화를 통해 무언가를 배우는 것이 가장 중요하죠. 13년 전에는 생각하지 못했던 것들이지만 지금은 굉장히 중요하게 여기는 것이에요.
So we have to look at how we display the follower count, how we display retweet count, how we display "likes," and just ask the deep question: Is this really the number that we want people to drive up? Is this the thing that, when you open Twitter, you see, "That's the thing I need to increase?" And I don't believe that's the case right now.
그래서 우리가 생각봐야 할 건 어떻게 팔로워 수를 표시하고 어떻게 리트윗 수와 "좋아요" 수를 표시할지 입니다. 그래서 심층적인 질문을 하죠. 우리는 정말 사람들이 이 숫자들을 높이길 원하는 걸까요? 트위터를 켰을 때 그 숫자를 보고 이러실 수 있죠. "저게 내가 높여야 하는 거야?" 지금은 전혀 그렇지 않다고 생각해요.
(Applause)
(박수)
WPR: I think we should look at some of the tweets that are coming in from the audience as well.
휘트니: 현장에 계신 관객 분들이 올려주신 트윗들도 봐야할 것 같네요.
CA: Let's see what you guys are asking. I mean, this is -- generally, one of the amazing things about Twitter is how you can use it for crowd wisdom, you know, that more knowledge, more questions, more points of view than you can imagine, and sometimes, many of them are really healthy.
크리스: 어떤 질문을 하셨는지 보죠. 이런 점이 트위터의 놀라운 점 같아요. 집단 지성을 활용하는 방식이요. 생각보다 훨씬 더 많은 지식, 더 많은 질문, 더 넓은 시각을 볼 수 있죠. 그리고 대부분이 건강한 내용일 때도 있고요.
WPR: I think one I saw that passed already quickly down here, "What's Twitter's plan to combat foreign meddling in the 2020 US election?" I think that's something that's an issue we're seeing on the internet in general, that we have a lot of malicious automated activity happening. And on Twitter, for example, in fact, we have some work that's come from our friends at Zignal Labs, and maybe we can even see that to give us an example of what exactly I'm talking about, where you have these bots, if you will, or coordinated automated malicious account activity, that is being used to influence things like elections. And in this example we have from Zignal which they've shared with us using the data that they have from Twitter, you actually see that in this case, white represents the humans -- human accounts, each dot is an account. The pinker it is, the more automated the activity is. And you can see how you have a few humans interacting with bots. In this case, it's related to the election in Israel and spreading misinformation about Benny Gantz, and as we know, in the end, that was an election that Netanyahu won by a slim margin, and that may have been in some case influenced by this. And when you think about that happening on Twitter, what are the things that you're doing, specifically, to ensure you don't have misinformation like this spreading in this way, influencing people in ways that could affect democracy?
휘트니: 지금 막 지나간 트윗들 중에 이런 질문이 있네요. "트위터는 2020년 미국 대선에 대한 외부 간섭을 어떻게 방지할 계획이죠?" 인터넷에서 일반적으로 볼 수 있는 논쟁거리인 것 같아요. 악의를 가진 자동화된 활동도 많이 보게 되죠. 트위터로 예를 들어보자면요. 지그널 연구소에 있는 친구에게 자료를 받았는데 제가 말씀드리는 내용의 예시를 볼 수 있을 것 같네요. 트위터 봇이나 악의를 가진 자동 계정의 활동이 선거 등에 영향을 미치기 위해 사용되고 있습니다. 지그널에서 공유한 이 예시는 트위터의 데이터를 이용한 건데요. 이 사례에서도 실제로 나타납니다. 각각의 흰색 점은 실제 사람의 계정을 뜻해요 더 진한 분홍색 점일수록 자동화된 계정의 활동이죠. 사람들이 봇들과 얼마나 교류하는지 보이실 겁니다. 이 예시는 이스라엘의 선거 데이터인데요. 베니 간츠에 대한 허위정보를 퍼뜨리고 있습니다. 아시다시피, 결국 그 선거는 간발의 차로 네타냐후가 승리했죠. 이것의 영향도 받았을 수도 있습니다. 트위터에서 일어나는 일에 대해 생각해보셨을 때 특히 이런 식으로 잘못된 정보가 퍼져서 사람들과 민주주의에 영향을 미치지 않도록 어떤 일을 하고 있나요?
JD: Just to back up a bit, we asked ourselves a question: Can we actually measure the health of a conversation, and what does that mean? And in the same way that you have indicators and we have indicators as humans in terms of are we healthy or not, such as temperature, the flushness of your face, we believe that we could find the indicators of conversational health. And we worked with a lab called Cortico at MIT to propose four starter indicators that we believe we could ultimately measure on the system. And the first one is what we're calling shared attention. It's a measure of how much of the conversation is attentive on the same topic versus disparate. The second one is called shared reality, and this is what percentage of the conversation shares the same facts -- not whether those facts are truthful or not, but are we sharing the same facts as we converse? The third is receptivity: How much of the conversation is receptive or civil or the inverse, toxic? And then the fourth is variety of perspective. So, are we seeing filter bubbles or echo chambers, or are we actually getting a variety of opinions within the conversation? And implicit in all four of these is the understanding that, as they increase, the conversation gets healthier and healthier.
잭: 다시 말씀드리자면, 저희는 스스로에게 질문을 던졌습니다. 실제로 대화의 건전성을 측정할 수 있을까? 그건 무슨 의미가 있을까? 여러분이 지표를 가지고 계신 것처럼 인간 역시 건강한지 아닌지를 나타내는 척도를 가지고 있습니다. 체온과 얼굴의 홍조 같은 거죠. 저희는 대화의 건전성 역시 측정할 수 있다고 믿습니다. MIT의 코르티코 연구실과도 협업하고 있습니다. 궁극적으로 시스템에서 측정할 수 있다고 믿는 네 가지 기본 지표를 제시하기 위해서요. 첫 번째 지표는 공동의 관심사라고 부르는 것인데요. 같은 주제와 전혀 다른 주제에 대한 대화에 대해서 각각 얼마나 주의를 기울이는지 측정하는 지수입니다. 두 번째는 공유되는 현실이라는 지표인데요. 이것은 대화의 몇 퍼센트가 같은 사실을 공유하는지 나타내요. 그 사실이 얼마나 믿을만한지가 아니라 대화할 때 같은 사실을 공유하고 있는지 말이죠. 세 번째는 수용성입니다. 대화가 얼마나 수용적이고 호의적인지, 또는 정반대이고 유독한지 측정하죠. 그리고 네 번째는 관점의 다양성입니다. 필터버블이나 에코챔버 효과를 경험하고 있는 건지, 아니면 실제로 대화에서 다양한 의견을 보고 있는 건지 측정하죠. 그리고 이 네 가지 지표에서 암묵적으로 나타나는 건 지표들이 높아질수록 대화도 더 건강해진다는 거죠.
So our first step is to see if we can measure these online, which we believe we can. We have the most momentum around receptivity. We have a toxicity score, a toxicity model, on our system that can actually measure whether you are likely to walk away from a conversation that you're having on Twitter because you feel it's toxic, with some pretty high degree. We're working to measure the rest, and the next step is, as we build up solutions, to watch how these measurements trend over time and continue to experiment. And our goal is to make sure that these are balanced, because if you increase one, you might decrease another. If you increase variety of perspective, you might actually decrease shared reality.
그래서 그 첫 걸음은 온라인에서 측정 가능한지 확인하는 것이며, 실제로 가능하다고 생각합니다. 수용성 지표에는 가장 높은 가속도가 붙고 있어요. 유독성 점수와 유독성 모델도 시스템 상에 보유하고 있습니다. 트위터 상에서 대화화던 도중 꽤나 높은 수준의 유해함을 느꼈을 때 대화에서 떠나버릴지 측정하는 도구죠. 다른 것도 측정하기 위해 노력중이며, 해결 방안 구축의 다음 단계는, 이 측정치들이 시간이 지나면서 어떤 추세를 보이는지 확인하고 계속해서 실험해보는 겁니다. 저희의 목표는 이 지수들이 균형을 이루는 것입니다. 어느 한 지수가 증가하면, 다른 지수는 떨어지기 때문이죠. 관점의 다양성이 증가하면 공유 현실 지수는 낮아집니다.
CA: Just picking up on some of the questions flooding in here.
크리스: 올라오는 질문들 중에서 골라보죠.
JD: Constant questioning.
잭: 계속 질문이 올라오네요.
CA: A lot of people are puzzled why, like, how hard is it to get rid of Nazis from Twitter?
크리스: 많은 사람들이 트위터 상의 나치를 처리하는 게 얼마나 힘든 건지 궁금해하네요.
JD: (Laughs)
잭: (웃음)
So we have policies around violent extremist groups, and the majority of our work and our terms of service works on conduct, not content. So we're actually looking for conduct. Conduct being using the service to repeatedly or episodically harass someone, using hateful imagery that might be associated with the KKK or the American Nazi Party. Those are all things that we act on immediately. We're in a situation right now where that term is used fairly loosely, and we just cannot take any one mention of that word accusing someone else as a factual indication that they should be removed from the platform. So a lot of our models are based around, number one: Is this account associated with a violent extremist group? And if so, we can take action. And we have done so on the KKK and the American Nazi Party and others. And number two: Are they using imagery or conduct that would associate them as such as well?
저희도 폭력적인 극단주의자들에 관한 정책이 있습니다. 그리고 대부분의 업무와 이용약관은 내용이 아니라 행동에 따라 이루어집니다. 그래서 실제로 행동을 관찰하죠. 반복적으로 또는 단편적으로 다른 사람을 괴롭히기 위해서 KKK단 혹은 나치당원과 관련될 수 있는 혐오스러운 이미지를 사용하는 행동들이요. 이런 행동은 저희가 즉시 조치를 취합니다. 지금은 그 용어가 꽤 막연하게 사용되곤 하지만 저희는 그 누구도 그 단어를 다른 사람을 비난하기 위해 사용하는 걸 용납할 수 없어요. 그런 사람들이 모두 플랫폼에서 제거되야 한다는 사실에 입각해서요. 그래서 저희의 모델은 이런 수칙에 기반하고 있습니다. 첫 번째로, 이 계정이 폭력적인 극단주의자들과 연관되어 있는가? 그렇다면, 조치를 취할 수 있습니다. 실제로도 수많은 KKK단과 미국 나치당원 등을 처리했죠. 두 번째는, 마찬가지로 위의 단체와 연관될 수 있는 사진이나 행동을 사용하는지 확인합니다.
CA: How many people do you have working on content moderation to look at this?
크리스: 그럼 이를 확인하는 사람들은 얼마나 있나요?
JD: It varies. We want to be flexible on this, because we want to make sure that we're, number one, building algorithms instead of just hiring massive amounts of people, because we need to make sure that this is scalable, and there are no amount of people that can actually scale this. So this is why we've done so much work around proactive detection of abuse that humans can then review. We want to have a situation where algorithms are constantly scouring every single tweet and bringing the most interesting ones to the top so that humans can bring their judgment to whether we should take action or not, based on our terms of service.
잭: 때에 따라 다릅니다. 저희는 유연하게 대처하려 해요. 왜냐하면 첫째로, 단순히 수많은 사람들을 고용하기보다 알고리즘을 만들고 싶었기 때문입니다. 왜냐하면 이것들을 측정 가능성을 확신하고 싶었고 또 실제로 이걸 다 측정하려면 너무 많은 사람이 필요하기 때문입니다. 그래서 실제로 사람이 확인해야만 하는 비방을 사전적으로 탐지하기 위해 많은 노력을 쏟고 있죠. 저희는 알고리즘이 끊임없이 모든 트윗 하나하나를 샅샅이 뒤져서 가장 흥미로운 것을 제일 위쪽으로 올리면 이용약관에 따라 사람이 직접 조치를 취할지 말지 결정하는 시스템을 갖고 싶습니다.
WPR: But there's not an amount of people that are scalable, but how many people do you currently have monitoring these accounts, and how do you figure out what's enough?
휘트니: 실제로 측정할 수 있는 인원은 없다고 하셨지만, 현재 이런 계정들을 모티터링하는 요원들은 얼마나 있나요? 그리고 어느 정도가 충분한지 어떻게 알죠?
JD: They're completely flexible. Sometimes we associate folks with spam. Sometimes we associate folks with abuse and harassment. We're going to make sure that we have flexibility in our people so that we can direct them at what is most needed. Sometimes, the elections. We've had a string of elections in Mexico, one coming up in India, obviously, the election last year, the midterm election, so we just want to be flexible with our resources. So when people -- just as an example, if you go to our current terms of service and you bring the page up, and you're wondering about abuse and harassment that you just received and whether it was against our terms of service to report it, the first thing you see when you open that page is around intellectual property protection. You scroll down and you get to abuse, harassment and everything else that you might be experiencing.
잭: 그건 정말 유동적이에요. 어떨 땐 일반적인 사람들을 스팸으로 분류하고 어떨 땐 평범한 사람을 비방과 괴롭힘으로 분류할 때도 있어요. 저희는 직원이 가장 필요한 곳에서 곧바로 일할 수 있게 직원들이 융통성을 가질 수 있게 하고 싶어요. 그게 선거일 수도 있죠. 멕시코에서 연이은 선거가 있었고, 인도에서도 곧 선거가 있죠. 작년의 선거와 중간 선거도 그렇고요. 그래서 저희의 자원을 유연하게 사용하고 싶어요. 그래서 예를 들면, 지금 저희 이용약관 페이지를 확인해보시면, 방금 받은 비방과 괴롭힘이 이용약관을 어겨서 신고해야 하는 건지 궁금해져서 확인해보면 이용약관 첫 페이지가 지적재산권에 관련되었다는 걸 알 수 있습니다. 스크롤을 내리면 비방과 괴롭힘, 그 외에도 경험할 수 있는 것에 관한 이용약관이 나옵니다.
So I don't know how that happened over the company's history, but we put that above the thing that people want the most information on and to actually act on. And just our ordering shows the world what we believed was important. So we're changing all that. We're ordering it the right way, but we're also simplifying the rules so that they're human-readable so that people can actually understand themselves when something is against our terms and when something is not. And then we're making -- again, our big focus is on removing the burden of work from the victims. So that means push more towards technology, rather than humans doing the work -- that means the humans receiving the abuse and also the humans having to review that work. So we want to make sure that we're not just encouraging more work around something that's super, super negative, and we want to have a good balance between the technology and where humans can actually be creative, which is the judgment of the rules, and not just all the mechanical stuff of finding and reporting them. So that's how we think about it.
이 회사가 어떤 역사를 거쳐서 그렇게 되었는지 모르지만, 사람들이 가장 원하는 정보이자 조치를 취해줬으면 하는 것을 가장 위에 올려놓습니다. 그 순서는 세상 사람들이 가장 중요하게 생각하는 것들의 순서죠. 그래서 모두 바꾸려고 노력 중입니다. 올바른 순서대로요. 그와 동시에 언제 약관을 어기고 언제 어기지 않았는지 실제로 이용약관을 이해할 수 있도록 사람들이 알아보기 쉽게 규칙을 단순화하려고 합니다. 그리고 다시 말씀드리지만 저희는 피해자의 짐을 덜어주는 것에 집중하고 있습니다. 사람이 직접 일하기보다는 점점 더 기술에 집중한다는 뜻이죠. 사람이 직접 비방을 듣고, 사람이 또 검토하는 것에서 벗어나려는 거죠. 그래서 저희는 절대로 굉장히 부정적인 내용을 관한 일을 장려하기 보다는 기술과 사람의 창의성 사이에서 규칙을 판단하는 좋은 균형을 가져오려 합니다. 그저 문제 계정을 발견하고 신고하는 메커니즘에 그치지 않을 겁니다. 그게 저희의 생각입니다.
CA: I'm curious to dig in more about what you said. I mean, I love that you said you are looking for ways to re-tweak the fundamental design of the system to discourage some of the reactive behavior, and perhaps -- to use Tristan Harris-type language -- engage people's more reflective thinking. How far advanced is that? What would alternatives to that "like" button be?
크리스: 말씀하신 것에 대해 더 궁금한게 있어요. 반작용을 보이는 행동을 저지하는 시스템의 기초적인 디자인을 바꾸는 방법을 찾고 계신다니 기쁩니다. 사람들이 더 성찰할 수 있게 만드는 트리스탄 해리스씨의 화법처럼요. 지금까지 그건 얼마나 발전했죠? "좋아요" 버튼의 대안은 무엇일까요?
JD: Well, first and foremost, my personal goal with the service is that I believe fundamentally that public conversation is critical. There are existential problems facing the world that are facing the entire world, not any one particular nation-state, that global public conversation benefits. And that is one of the unique dynamics of Twitter, that it is completely open, it is completely public, it is completely fluid, and anyone can see any other conversation and participate in it. So there are conversations like climate change. There are conversations like the displacement in the work through artificial intelligence. There are conversations like economic disparity. No matter what any one nation-state does, they will not be able to solve the problem alone. It takes coordination around the world, and that's where I think Twitter can play a part.
잭: 글쎄요, 첫째로 가장 중요한 건 서비스의 개인적인 목표는 기본적으로 대중적인 논의가 중요해지는 거예요. 세계가 직면한 실존적 문제에 전세계의 대중적인 논의는 도움을 줄 수 있습니다. 특정 국가만이 아니라 전세계가 직면한 문제요. 그게 트위터가 가진 독특한 원동력이죠. 누구나 참여할 수 있고 충분히 대중적이며, 엄청난 유동성을 지녔죠. 누구나 어느 대화든 볼 수 있고 대화에 참여할 수 있어요. 기후 변화에 관한 대화도 있고요. 인공지능 때문에 발생하는 해고와 관련된 대화도 있죠. 경제 격차에 대한 대화도 있습니다. 어느 국가가 되었든지, 혼자서 문제를 해결할 수는 없습니다. 세계의 협력이 필요하고, 제 생각엔 거기에 트위터가 일조할 수 있다는 겁니다.
The second thing is that Twitter, right now, when you go to it, you don't necessarily walk away feeling like you learned something. Some people do. Some people have a very, very rich network, a very rich community that they learn from every single day. But it takes a lot of work and a lot of time to build up to that. So we want to get people to those topics and those interests much, much faster and make sure that they're finding something that, no matter how much time they spend on Twitter -- and I don't want to maximize the time on Twitter, I want to maximize what they actually take away from it and what they learn from it, and --
두 번째로는, 지금 트위터에 들어갔을 때 꼭 뭔가를 배웠다는 생각을 가지고 떠나진 않죠. 누군가는 그러겠지만요. 어떤 사람은 엄청난 네트워크를 가지고, 다양한 공동체에 속해서 뭔가를 매일 배우기도 하겠죠. 하지만 그런 네트워크를 만들기 위해선 많은 노력과 시간이 필요합니다. 그래서 저희는 사람들이 그런 주제와 흥미를 훨씬 더 빠르게 얻어갔으면 좋겠어요. 그리고 사람들이 트위터에서 몇 시간을 있든 그런 주제와 흥미를 찾았으면 좋겠어요. 사람들이 트위터에 머무르는 시간을 최대화하기보다 대신 사람들이 뭔가를 얻어가고 배워가는 걸 최대화했으면 좋겠어요.
CA: Well, do you, though? Because that's the core question that a lot of people want to know. Surely, Jack, you're constrained, to a huge extent, by the fact that you're a public company, you've got investors pressing on you, the number one way you make your money is from advertising -- that depends on user engagement. Are you willing to sacrifice user time, if need be, to go for a more reflective conversation?
크리스: 당신도 그런가요? 왜냐하면 많은 사람들이 알고 싶어하는 핵심 질문이거든요. 확실히, 상장기업이기 때문인지 잭씨는 강요받을 수밖에 없어요. 당신을 압박하는 투자자들이 있고 돈을 버는 가장 큰 방법은 사용자 참여에 의존하는 광고잖아요. 사색적인 대화를 장려하기 위해서 사용자 이용시간을 희생하겠단 말씀이신가요?
JD: Yeah; more relevance means less time on the service, and that's perfectly fine, because we want to make sure that, like, you're coming to Twitter, and you see something immediately that you learn from and that you push. We can still serve an ad against that. That doesn't mean you need to spend any more time to see more. The second thing we're looking at --
잭: 네, 사회적 타당성이 높아지면 서비스 이용시간이 줄겠죠. 정말 그래도 괜찮아요. 왜냐하면 트위터를 이용할 때 누르는 즉시 뭔가를 배워갔으면 좋겠어요. 저희는 그래도 광고를 할 수 있으니까요. 더 보기 위해 더 많은 시간을 써야 한다는 의미는 아녜요. 두 번째로 저희는,
CA: But just -- on that goal, daily active usage, if you're measuring that, that doesn't necessarily mean things that people value every day. It may well mean things that people are drawn to like a moth to the flame, every day. We are addicted, because we see something that pisses us off, so we go in and add fuel to the fire, and the daily active usage goes up, and there's more ad revenue there, but we all get angrier with each other. How do you define ... "Daily active usage" seems like a really dangerous term to be optimizing.
크리스: 하지만, 그 목표는, 일일 사용량이 많다고 사람들이 그걸 매일 소중하게 여긴다는 뜻은 아니잖아요. 사용량을 측정하신다면 말이죠. 그건 사람들이 나방이 불꽃에 이끌리는 것처럼 매일 끌려가는 거죠. 중독되었으니까요. 매일 저를 열받게 하는 일을 보면 거기에 참여해서 화력을 키우죠. 그럼 일일 사용량도 증가하고 더 많은 광고수익을 얻겠죠. 저희는 더 화나기만 하고요. "일일 사용량"이란 단어를 낙관적으로 보기엔 너무 위험한 단어 같네요.
(Applause)
(박수)
JD: Taken alone, it is, but you didn't let me finish the other metric, which is, we're watching for conversations and conversation chains. So we want to incentivize healthy contribution back to the network, and what we believe that is is actually participating in conversation that is healthy, as defined by those four indicators I articulated earlier.
잭: 그것만 봐도 그렇죠. 측정에 관한 이야기를 마저 하자면 저희는 대화 및 연결된 대화를 지켜보고 있습니다. 그래서 저희는 네트워크에 건강한 기여를 할 수 있게끔 장려하고 싶고, 저희는 그 방법이 건강한 대화에 참여하는 거라 생각해요. 아까 말씀드린 4가지 지표로 정의된 건강한 대화요.
So you can't just optimize around one metric. You have to balance and look constantly at what is actually going to create a healthy contribution to the network and a healthy experience for people. Ultimately, we want to get to a metric where people can tell us, "Hey, I learned something from Twitter, and I'm walking away with something valuable." That is our goal ultimately over time, but that's going to take some time.
그래서 한 가지 지표만을 활용할 순 없습니다. 균형을 맞추고 꾸준히 지켜봐야 하죠. 어떤 게 실제로 네트워크에 건강한 기여를 하고 사람들이 건강한 경험을 할지를 말이죠. 궁극적으로 저희는 사람들이 "나 트위터에서 뭔가를 배우고 가치있는 걸 가지고 떠나게 됐어" 라고 말하는 측정 기준을 얻고 싶어요. 이게 저희의 장기적이고 궁극적인 목표예요. 하지만 시간이 걸리겠죠.
CA: You come over to many, I think to me, as this enigma. This is possibly unfair, but I woke up the other night with this picture of how I found I was thinking about you and the situation, that we're on this great voyage with you on this ship called the "Twittanic" --
크리스: 저에겐 많은 수수께끼로 다가오네요. 불공평할 수도 있겠지만 어느 날 밤에 제가 일어나서 제가 당신과 당신의 상황에 대해서 어떻게 생각하는지 그림을 그려보자면 "트위타닉" 호에 당신과 함께 멋진 여행을 떠나는 그림이 떠올라요.
(Laughter)
(웃음)
and there are people on board in steerage who are expressing discomfort, and you, unlike many other captains, are saying, "Well, tell me, talk to me, listen to me, I want to hear." And they talk to you, and they say, "We're worried about the iceberg ahead." And you go, "You know, that is a powerful point, and our ship, frankly, hasn't been built properly for steering as well as it might." And we say, "Please do something." And you go to the bridge, and we're waiting, and we look, and then you're showing this extraordinary calm, but we're all standing outside, saying, "Jack, turn the fucking wheel!"
3등 선실에는 불평을 토로하는 사람들이 있고, 당신은 다른 선장과는 다르게 "말해봐요. 듣고 있어요. 듣고 싶어요."라고 말하죠. 그 사람들이 "앞에 있는 빙하 때문에 걱정돼요."라고 말하면 당신은 말하죠. "정말 중요한 이야기네요. 그런데 저희 배는 솔직히 말하면 조종하기 적절하지 않죠" 저희는 말하죠. "뭐라도 좀 해봐요." 당신은 함교에 올라가고 저흰 기다리죠. 저희가 올려다보면 당신은 놀랍도록 평온하게 보이고 저희는 밖에 서서 "젠장, 키를 돌려요!"라고 소리치죠.
You know?
안 그런가요?
(Laughter)
(웃음)
(Applause)
(박수)
I mean --
제 말은...
(Applause)
(박수)
It's democracy at stake. It's our culture at stake. It's our world at stake. And Twitter is amazing and shapes so much. It's not as big as some of the other platforms, but the people of influence use it to set the agenda, and it's just hard to imagine a more important role in the world than to ... I mean, you're doing a brilliant job of listening, Jack, and hearing people, but to actually dial up the urgency and move on this stuff -- will you do that?
민주주의가 위태로운 상태예요. 저희 문화가 위태롭고, 이 세상이 위태로워요. 트위터는 정말 놀랍고 많은 부분을 형성하고 있죠. 다른 플랫폼만큼 크진 않지만 영향력 있는 사람들이 안건을 제시하는 데 이용해요. 그보다 더 중요한 역할을 맡는 건 상상하기 힘들죠. 제 말은, 잭, 당신은 사람들의 말을 들어주는 훌륭한 일을 한다는 거예요. 하지만 긴급한 요구에 대해 말하자면, 그 문제로 넘어가려는데 이런 것도 해주실 건가요?
JD: Yes, and we have been moving substantially. I mean, there's been a few dynamics in Twitter's history. One, when I came back to the company, we were in a pretty dire state in terms of our future, and not just from how people were using the platform, but from a corporate narrative as well. So we had to fix a bunch of the foundation, turn the company around, go through two crazy layoffs, because we just got too big for what we were doing, and we focused all of our energy on this concept of serving the public conversation. And that took some work. And as we dived into that, we realized some of the issues with the fundamentals. We could do a bunch of superficial things to address what you're talking about, but we need the changes to last, and that means going really, really deep and paying attention to what we started 13 years ago and really questioning how the system works and how the framework works and what is needed for the world today, given how quickly everything is moving and how people are using it. So we are working as quickly as we can, but quickness will not get the job done. It's focus, it's prioritization, it's understanding the fundamentals of the network and building a framework that scales and that is resilient to change, and being open about where we are and being transparent about where are so that we can continue to earn trust.
잭: 네, 저희는 많이 움직이고 있죠. 트위터 역사 상 몇몇 큰 변화가 있었어요. 제가 회사로 돌아왔을 때는 미래를 생각해보면 꽤 심각한 상황이었죠. 사람들이 저희 플랫폼을 어떻게 쓰는지 뿐만 아니라 회사 측면에서도 마찬가지였어요. 회사 상황을 호전시키기 위해서 많은 토대를 고쳐야만 했습니다. 두 번의 말도 안 되는 해고도 거쳤죠. 왜냐하면 저희가 하는 일에 비해 회사가 너무 커졌고 모든 에너지를 대중적인 논의에 기여한다는 것에 집중했거든요. 그 과정에서 많은 노력을 했죠. 그 과정에 뛰어들면서 본질에 관한 몇 가지 쟁점을 깨달았습니다. 말씀하신 것들을 해결하기 위해선 여러 피상적인 것 할 수 있었지만 지속 가능한 변화가 필요했어요. 즉, 정말 깊이 살펴보고 13년 전에 시작한 것들에 관심을 가지고 진심으로 어떻게 시스템과 뼈대가 작동하는지, 또 오늘날 이 세상에 필요한 게 뭔지 질문을 던지는 걸 뜻하죠. 모든 게 엄청나게 빨리 변하고 사람들이 그걸 어떻게 쓰는지 고려하면서 말이죠. 그래서 가능한 한 빨리 하려고 하지만 빠르기만 해서는 해결할 수 없습니다. 집중과 우선순위죠. 네트워크의 본질을 이해하고 규모가 변화하는 뼈대를 짓고 그 뼈대는 변화에도 빠르게 적응하죠. 신뢰를 계속해서 얻기 위해 우리가 어디에 있는지 받아들이고 어디에 있는지 솔직해져야 하고요.
So I'm proud of all the frameworks that we've put in place. I'm proud of our direction. We obviously can move faster, but that required just stopping a bunch of stupid stuff we were doing in the past.
저는 제가 배치한 모든 체계가 자랑스러워요. 저희의 방향성도 자랑스럽고요. 저희는 분명히 더 빠르게 움직일 수 있지만 그러려면 과거부터 해온 여러 바보같은 일도 멈춰야 해요.
CA: All right. Well, I suspect there are many people here who, if given the chance, would love to help you on this change-making agenda you're on, and I don't know if Whitney -- Jack, thank you for coming here and speaking so openly. It took courage. I really appreciate what you said, and good luck with your mission.
크리스: 그렇군요. 여기에 기회가 주어진다면 당신이 다루고 있는 변화를 만들려는 안건을 기꺼이 도울 사람들이 많을 거예요. 휘트니도 그럴 것 같고요. 잭, 여기까지 와주셔서 솔직하게 말씀해주셔서 감사합니다. 대단한 용기였어요. 말씀해주신 바에 감동했고, 원하시는 목표를 이루시기 바랍니다.
JD: Thank you so much. Thanks for having me.
잭: 감사합니다. 초대해주셔서 감사합니다.
(Applause)
(박수)
Thank you.
감사합니다.