No matter who you are or where you live, I'm guessing that you have at least one relative that likes to forward those emails. You know the ones I'm talking about -- the ones with dubious claims or conspiracy videos. And you've probably already muted them on Facebook for sharing social posts like this one.
여러분이 누구든, 어디에서 살든 그런 이메일을 전달하기 좋아하는 친척이 적어도 한 명은 있을 거라 예상합니다. 제가 어떤 이메일 말하는지 아실 텐데요. 이상한 주장이나 음모론 영상을 담은 그런 이메일 말입니다. 그리고 여러분은 아마도 이런 게시글을 공유하는 그 친척을 페이스북에서 음소거 처리 하셨을 겁니다.
It's an image of a banana with a strange red cross running through the center. And the text around it is warning people not to eat fruits that look like this, suggesting they've been injected with blood contaminated with the HIV virus. And the social share message above it simply says, "Please forward to save lives." Now, fact-checkers have been debunking this one for years, but it's one of those rumors that just won't die. A zombie rumor. And, of course, it's entirely false.
이상한 빨간 십자가가 중간을 가로지르고 있는 바나나의 사진입니다. 주변에 있는 텍스트를 보시면, 이렇게 생긴 과일을 먹지 말라고 경고하고 있는데요, 여기에 HIV 바이러스로 감염된 혈액이 주입되었다면서 말이죠. 그리고 사진 위의 사회적 공유 메시지에는 이렇게 되어 있습니다. "널리 퍼뜨려 생명을 구해주세요." 팩트 체크하는 사람들이 이것을 몇 년째 바로잡고 있지만, 절대 사라지지 않고 있는 루머 중 하나입니다. 좀비 루머인 것이죠. 그리고, 당연하게도, 완전히 틀린 말이죠.
It might be tempting to laugh at an example like this, to say, "Well, who would believe this, anyway?" But the reason it's a zombie rumor is because it taps into people's deepest fears about their own safety and that of the people they love. And if you spend as enough time as I have looking at misinformation, you know that this is just one example of many that taps into people's deepest fears and vulnerabilities.
이런 예를 보고 비웃을 수도 있습니다. "누가 이런걸 실제로 믿을까?" 하면서요. 하지만 이런 사진들이 좀비 루머인 이유는 사람들로 하여금 그들 자신의 안전, 그리고 사랑하는 이들의 안전에 대해 깊이 걱정하도록 만들기 때문입니다. 그리고 잘못된 정보를 살피는데 저만큼 시간을 쓰신다면, 이것이 사람들의 공포심과 취약점을 건드리는 수많은 잘못된 정보 중 하나일 뿐이라는 것을 알게 되실 겁니다.
Every day, across the world, we see scores of new memes on Instagram encouraging parents not to vaccinate their children. We see new videos on YouTube explaining that climate change is a hoax. And across all platforms, we see endless posts designed to demonize others on the basis of their race, religion or sexuality.
매일 전 세계에서 수십 개의 인스타그램 밈(meme)이 올라오는데요, 자녀들 백신접종을 시키지 말라고 부모들을 부추기는 내용이죠. 기후변화가 거짓이라는 내용의 유튜브 영상도 매일 업로드됩니다. 또, 모든 소셜 미디어 플랫폼에서 타인을 인종, 종교, 성 정체성에 따라 악마취급하고자 작성된 글이 끝도 없이 올라옵니다.
Welcome to one of the central challenges of our time. How can we maintain an internet with freedom of expression at the core, while also ensuring that the content that's being disseminated doesn't cause irreparable harms to our democracies, our communities and to our physical and mental well-being? Because we live in the information age, yet the central currency upon which we all depend -- information -- is no longer deemed entirely trustworthy and, at times, can appear downright dangerous. This is thanks in part to the runaway growth of social sharing platforms that allow us to scroll through, where lies and facts sit side by side, but with none of the traditional signals of trustworthiness.
우리 시대에 가장 핵심적인 문제 중 하나가 이것입니다. 어떻게 하면 표현의 자유에 중점을 두면서도 온라인상에서 퍼져나가는 내용들이 우리의 민주주의와 커뮤니티, 우리의 신체적, 정신적 건강의 안녕에 돌이킬 수 없는 해를 끼치지 하는 인터넷 환경을 유지할 수 있을까요? 우리는 정보화 시대에 살고 있지만, 우리 모두가 의존하는 중앙통화, 즉 정보는, 더 이상 전적으로 신뢰할 만하다고 여겨지지 않습니다. 어쩔 때는 완전 위험해보이기까지 하죠. 이는 걷잡을 수 없이 성장한 사회공유플랫폼에 일부 원인이 있는데요. 스크롤을 통해 이것 저것 볼 수 있게 되었지만, 이 곳엔 거짓과 사실이 나란히 공존하는 반면, 전통적인 신뢰의 흔적은 찾기 힘들죠.
And goodness -- our language around this is horribly muddled. People are still obsessed with the phrase "fake news," despite the fact that it's extraordinarily unhelpful and used to describe a number of things that are actually very different: lies, rumors, hoaxes, conspiracies, propaganda. And I really wish we could stop using a phrase that's been co-opted by politicians right around the world, from the left and the right, used as a weapon to attack a free and independent press.
그리고 우리의 언어는 이 현상을 정확하게 설명해 주지 못합니다. 사람들은 아직도 "가짜 뉴스"라는 말에 집착하고 있습니다. 이 말이 상황 설명에 특별히 도움이 되지 않을 뿐더러, 실제론 서로 다른 것들을 설명하는데 쓰이고 있음에도 말이죠. 거짓말, 루머, 날조, 음모, 프로파간다와 같은 개념들이요. 저는 우리가 전 세계 좌파, 우파 정치인들이 자유 독립 언론을 공격하기 위해 사용하기 시작한 이 문구를 그만 사용했으면 좋겠습니다.
(Applause)
(박수)
Because we need our professional news media now more than ever. And besides, most of this content doesn't even masquerade as news. It's memes, videos, social posts. And most of it is not fake; it's misleading. We tend to fixate on what's true or false. But the biggest concern is actually the weaponization of context. Because the most effective disinformation has always been that which has a kernel of truth to it.
왜냐하면 지금 우리에겐 그 어느 때보다 전문 뉴스 미디어가 필요하기 때문입니다. 게다가, 이런 내용들은 뉴스로 둔갑하지도 않은 채 돌아다닙니다. 밈(meme), 비디오, 쇼셜미디어에 올라오는 게시물 같은 것들인데요. 대부분은 가짜가 아니라, 사람들을 호도하는 것들입니다. 우리는 주로 어떤 글의 진위여부를 가려내려고 합니다. 하지만 가장 큰 문제는 내용이 무기화된다는 것입니다. 왜냐하면 가장 효과적인 거짓 정보들은 항상 조금의 사실을 포함하고 있기 마련이죠.
Let's take this example from London, from March 2017, a tweet that circulated widely in the aftermath of a terrorist incident on Westminster Bridge. This is a genuine image, not fake. The woman who appears in the photograph was interviewed afterwards, and she explained that she was utterly traumatized. She was on the phone to a loved one, and she wasn't looking at the victim out of respect. But it still was circulated widely with this Islamophobic framing, with multiple hashtags, including: #BanIslam. Now, if you worked at Twitter, what would you do? Would you take that down, or would you leave it up? My gut reaction, my emotional reaction, is to take this down. I hate the framing of this image. But freedom of expression is a human right, and if we start taking down speech that makes us feel uncomfortable, we're in trouble.
이 예를 한번 들어 보죠. 2017년 3월, 런던에서 한 트윗이 널리 유포됐는데요, 웨스트민스터 다리에서 일어난 테러사건의 여파였죠. 이 사진은 진짜 사진입니다. 가짜가 아니라요. 이 사진에 등장한 여성은 이후에 인터뷰에 응했는데요, 완전히 정신적 충격을 받았다고 설명을 하더군요. 그녀는 애인과 통화하는 중이었고, 피해자를 제대로 보고 있지 않았습니다. 하지만 이 사진은 이슬람 혐오 프레임이 씌워진 채 유포되었습니다. #BanIslam(이슬람금지) 등 여러 해시태그가 달린 채 말이죠. 여러분이 트위터 직원이라면, 어떤 조치를 취하실 건가요? 이 사진을 내리실 건가요, 아니면 내버려두실 것인가요? 제 본능적 반응, 감정적 반응은 사진을 내린다는 것입니다. 저는 이 사진에 씌워진 프레임이 싫습니다. 하지만 표현의 자유는 인권이며, 불편하다는 이유로 게시글을 내리기 시작한다면 이 또한 문제가 될 수 있습니다.
And this might look like a clear-cut case, but, actually, most speech isn't. These lines are incredibly difficult to draw. What's a well-meaning decision by one person is outright censorship to the next. What we now know is that this account, Texas Lone Star, was part of a wider Russian disinformation campaign, one that has since been taken down. Would that change your view? It would mine, because now it's a case of a coordinated campaign to sow discord. And for those of you who'd like to think that artificial intelligence will solve all of our problems, I think we can agree that we're a long way away from AI that's able to make sense of posts like this.
이 예시의 경우 명백해 보이지만, 대부분의 게시물은 그렇지 않습니다. 옳고 그름의 선을 긋기 매우 어렵습니다. 어떤 사람이 좋은 의도로 내려진 결정이 다른 사람에게는 완전한 검열로 될 수 있습니다. 이제 우리는 이 계정, Texas Lone Star가 러시아의 거짓 정보 캠페인의 일부였고, 그 때 이후 내려진 상태라는 걸 압니다. 이것이 여러분의 관점을 바꿀 수 있을까요? 제 관점은 변화시킬 듯 합니다. 왜냐하면 이제 이 글은 불화를 초래하기 위해서 설계된 캠페인의 일부이기 때문입니다. 여러분 중에서 혹시 인공지능이 우리의 문제를 해결해 줄 수 있다고 믿으시는 분이 있다면, 아마 이런 사건을 해결할 수 있는 인공지능이 등장하기 전까지는 오랜 시간이 걸릴 것이라고 동의하실 겁니다.
So I'd like to explain three interlocking issues that make this so complex and then think about some ways we can consider these challenges. First, we just don't have a rational relationship to information, we have an emotional one. It's just not true that more facts will make everything OK, because the algorithms that determine what content we see, well, they're designed to reward our emotional responses. And when we're fearful, oversimplified narratives, conspiratorial explanations and language that demonizes others is far more effective. And besides, many of these companies, their business model is attached to attention, which means these algorithms will always be skewed towards emotion.
그래서 저는 이 문제를 복잡하게 만드는 세 가지 서로 맞물린 이슈에 대해 설명하고자 합니다. 그리고 우리가 이 문제의 해결 방법을 생각해보도록 하죠. 첫째로, 우리는 정보를 이성적으로 받아들이지 않습니다. 감정으로 받아들이죠. 사실이 더 많아지면 모든 것이 괜찮아질 것이라는 건 사실이 아닙니다. 왜냐하면 우리가 어떤 콘텐츠를 볼지를 정하는 알고리즘은 우리의 감정적인 반응을 우선시하게 되어 있습니다. 그리고 우리가 공포를 느낄 때, 지나치게 축소된 이야기들, 음모론적인 설명들, 그리고 다른 사람을 탓하는 언어가 훨씬 효과적입니다. 게다가, 많은 이런 회사들의 비즈니스 모델은 관심을 받는 정도에 따라 결정됩니다. 따라서 이 알고리즘들은 감정 변화에 치우쳐서 반응하게 됩니다.
Second, most of the speech I'm talking about here is legal. It would be a different matter if I was talking about child sexual abuse imagery or content that incites violence. It can be perfectly legal to post an outright lie. But people keep talking about taking down "problematic" or "harmful" content, but with no clear definition of what they mean by that, including Mark Zuckerberg, who recently called for global regulation to moderate speech. And my concern is that we're seeing governments right around the world rolling out hasty policy decisions that might actually trigger much more serious consequences when it comes to our speech. And even if we could decide which speech to take up or take down, we've never had so much speech. Every second, millions of pieces of content are uploaded by people right around the world in different languages, drawing on thousands of different cultural contexts. We've simply never had effective mechanisms to moderate speech at this scale, whether powered by humans or by technology.
둘째로, 제가 말하는 대부분의 내용은 법적인 문제입니다. 아동 성범죄 관련 사진 혹은 폭력을 일으키는 내용이라면 다른 문제가 될 수 있습니다. 노골적인 거짓을 업로드하면 완벽히 법적인 문제가 될 수 있습니다. 하지만 사람들은 "문제가 되는" 또는 "해로운" 글을 내려야 한다고 합니다. 그 말이 무슨 뜻인지 명확한 정의를 내리지 못한 채 말이죠. 마크 저커버그를 포함해서요. 그는 최근에 온건한 표현에 대한 국제적 규제를 촉구했습니다. 제가 걱겅되는 것은, 전 세계 정부들이 우리가 올리는 게시물, 표현에 있어 훨씬 더 큰 결과를 촉발할수 있는 정책결정을 성급하게 내놓고 있다는 것입니다. 심지어 우리가 어떤 표현을 허용하고, 어떤 표현을 규제할지 정한다 해도 이보다 더 많았던 적이 없었다는 게 문제죠. 매 초 마다, 수 백만 개의 게시글이 세계 각지에서 업로드됩니다. 여러 언어로 말이죠. 수 천개의 다른 문화적 맥락이 들어간 것들이죠. 이런 규모의 표현을 제어할 수 있는 효율적인 방법이 현재로선 없습니다. 인간이 되었든, 기계가 되었든 간에 말이죠.
And third, these companies -- Google, Twitter, Facebook, WhatsApp -- they're part of a wider information ecosystem. We like to lay all the blame at their feet, but the truth is, the mass media and elected officials can also play an equal role in amplifying rumors and conspiracies when they want to. As can we, when we mindlessly forward divisive or misleading content without trying. We're adding to the pollution.
셋째로, 구글, 트위터, 페이스북, 왓츠앱과 같은 회사들은 정보 생태계의 일부분을 차지할 뿐이라는 겁니다. 우리는 이 회사들을 탓하기 쉽지만, 사실은, 매스미디어와 지도자들도 그들이 원할 때 루머와 음모론을 확산할 수 있다는 것입니다. 우리도 마찬가지로 생각없이 오해의 소지가 있는 글을 공유합니다. 우리도 정보 생태계의 오염에 한 몫을 하는 겁니다.
I know we're all looking for an easy fix. But there just isn't one. Any solution will have to be rolled out at a massive scale, internet scale, and yes, the platforms, they're used to operating at that level. But can and should we allow them to fix these problems? They're certainly trying. But most of us would agree that, actually, we don't want global corporations to be the guardians of truth and fairness online. And I also think the platforms would agree with that. And at the moment, they're marking their own homework. They like to tell us that the interventions they're rolling out are working, but because they write their own transparency reports, there's no way for us to independently verify what's actually happening.
우리는 모두 쉬운 해결책을 갈구하고 있습니다. 하지만 그런 건 존재하지 않습니다. 어떤 해결책이든, 넓은 범위로, 인터넷 범위로 적용되어야 합니다. 그리고 소셜네트워크 플랫폼은 그 단계에 최적화되어 있습니다. 하지만 그렇다고 그들이 이 문제를 해결하도록 둘 수 있을까요? 그래야 할까요? 그들도 물론 노력하고 있긴 하죠. 하지만 우리 대부분은 글로벌 기업들이 온라인에서 진실과 공정의 수호자가 되는 것을 원치 않을 것입니다. 소셜플랫폼들도 이에 동의할 것입니다. 지금 그들은, 스스로에게 내 준 숙제를 채점하고 있습니다. 그들은 우리에게 그들이 설치한 제어 장치들이 작동하고 있다고 뻐기죠. 하지만 그들이 스스로 투명성 보고서를 쓰기 때문에, 무엇이 진짜로 일어나는지 우리가 확인할 길이 없습니다.
(Applause)
(박수)
And let's also be clear that most of the changes we see only happen after journalists undertake an investigation and find evidence of bias or content that breaks their community guidelines. So yes, these companies have to play a really important role in this process, but they can't control it.
또, 우리가 보는 변화의 대부분은 저널리스트들이 조사를 통해 편향되었다는 증거를 발견하거나, 커뮤니티 가이드라인을 위반하는 콘텐츠를 발견한 이후에나 나타납니다. 네, 이 회사들은 문제해결을 위해 아주 중요한 역할을 해야 하지만, 그것을 통제하지는 못합니다.
So what about governments? Many people believe that global regulation is our last hope in terms of cleaning up our information ecosystem. But what I see are lawmakers who are struggling to keep up to date with the rapid changes in technology. And worse, they're working in the dark, because they don't have access to data to understand what's happening on these platforms. And anyway, which governments would we trust to do this? We need a global response, not a national one.
정부는 어떨까요? 많은 사람들은 우리의 정보 생태계를 정화시키기 위해서는 전세계적인 규율이 필요하다고 믿고 있습니다. 하지만 정책 입안자들은 빠른 기술의 발전을 따라가지 못하고 있습니다. 설상가상으로, 정부는 암흑 속에서 일하고 있습니다. 이런 플랫폼에서 무슨 일이 일어나는지 알 길이 없습니다. 알 수 있는 데이터에 접근할 수 없으니까요. 게다가, 어떤 정부를 믿을 수 있을까요? 우리는 국가적인 대응보다는 세계적인 대응이 필요합니다.
So the missing link is us. It's those people who use these technologies every day. Can we design a new infrastructure to support quality information? Well, I believe we can, and I've got a few ideas about what we might be able to actually do. So firstly, if we're serious about bringing the public into this, can we take some inspiration from Wikipedia? They've shown us what's possible. Yes, it's not perfect, but they've demonstrated that with the right structures, with a global outlook and lots and lots of transparency, you can build something that will earn the trust of most people. Because we have to find a way to tap into the collective wisdom and experience of all users. This is particularly the case for women, people of color and underrepresented groups. Because guess what? They are experts when it comes to hate and disinformation, because they have been the targets of these campaigns for so long. And over the years, they've been raising flags, and they haven't been listened to. This has got to change. So could we build a Wikipedia for trust? Could we find a way that users can actually provide insights? They could offer insights around difficult content-moderation decisions. They could provide feedback when platforms decide they want to roll out new changes.
여기서 빠진 연결고리가 바로 우리입니다. 이 기술을 매일매일 사용하는 우리들이지요. 양질의 정보를 지지하기 위한 새로운 인프라를 만들 수 있을까요? 저는 가능하다고 믿습니다. 우리가 실제로 할 수 있는 일에 대한 몇 가지 아이디어가 있습니다. 첫째로, 사람들의 참여가 정말로 필요하다면, 위키피디아에서 영감을 얻을 수 없을까요? 그들은 무엇이 가능한지 우리에게 보여주었습니다. 네, 완벽하진 않지만, 위키피디아는 투명성이 보장되고 전 세계 사람들이 참여할 수 있는 기초적인 구조가 있다면 사람들이 신뢰할 수 있는 플랫폼을 만들 수 있다는 것을 보여주었습니다. 왜냐하면 우리는 집단적 지혜와 모든 사용자들의 경험을 활용할 방법을 찾아야 하기 때문입니다. 이는 여성, 유색인종들, 그리고 대표성을 갖지 못하는 소수자들에게 더욱 필요한 방법입니다. 왜냐하면 그들은 혐오와 허위 정보에 관해서라면 전문가니까요. 그들이야말로 오랫동안 혐오 캠페인의 표적이 되어왔기 때문이죠. 몇 년 전부터 그들은 의문을 제기하기 시작하였지만, 그들의 목소리는 아무도 듣지 않았습니다. 이는 바뀌어야 합니다. 신뢰의 위키피디아 같은 것을 우리가 만들 수 있을까요? 사용자들이 자신의 통찰을 제시하게끔 할 방법을 찾을 수 있을까요? 그들은 어떤 표현이 온건한지와 같은, 판단이 어려운 결정에 통찰을 줄 수 있습니다. 플랫폼들이 새로운 변경사항을 출시할 때, 피드백을 줄 수도 있습니다.
Second, people's experiences with the information is personalized. My Facebook news feed is very different to yours. Your YouTube recommendations are very different to mine. That makes it impossible for us to actually examine what information people are seeing. So could we imagine developing some kind of centralized open repository for anonymized data, with privacy and ethical concerns built in? Because imagine what we would learn if we built out a global network of concerned citizens who wanted to donate their social data to science. Because we actually know very little about the long-term consequences of hate and disinformation on people's attitudes and behaviors. And what we do know, most of that has been carried out in the US, despite the fact that this is a global problem. We need to work on that, too.
둘째로, 정보에 대한 사람들의 경험은 개인적이라는 것입니다. 저의 페이스북 피드는 여러분의 것과 아주 다릅니다. 여러분의 유튜브 추천목록은 제 것과 많이 다릅니다. 그래서 사람들이 무슨 정보를 보고 있는지 조사하는 것은 불가능합니다. 그렇다면 익명화된 데이터를 위한 일종의 개방형 중앙 저장소를 개발해서 개인 정보와 윤리를 보호할 수 있도록 할 수 있을까요? 예를 들어, 이런 경우 우리가 무엇을 배울 수 있을지 상상해볼까요. 이런 문제에 관심이 있고, 자신의 소셜데이터를 연구에 기부하려는 시민들로 구성된 글로벌 네트워크를 만든다면 말이죠. 혐오와 허위 정보가 장기적으로 사람들의 태도와 행동에 어떤 영향을 미치는지, 우리는 잘 알고 있지 못합니다.. 우리가 아는 것들은 미국 한정으로 밝혀진 연구입니다. 이 문제는 전 세계적인 문제인데 말이죠. 이 문제도 해결해야 합니다.
And third, can we find a way to connect the dots? No one sector, let alone nonprofit, start-up or government, is going to solve this. But there are very smart people right around the world working on these challenges, from newsrooms, civil society, academia, activist groups. And you can see some of them here. Some are building out indicators of content credibility. Others are fact-checking, so that false claims, videos and images can be down-ranked by the platforms.
세 번째로, 점과 점을 서로 이을 방법을 찾을 수 있을까요? 어떤 한 비영리단체, 스타트업, 정부도 이 문제를 스스로 해결할 수는 없습니다. 하지만 이 문제를 해결하기 위해 일하고 있는 아주 똑똑한 사람들이 전 세계에 있습니다. 뉴스 편집국에서부터 시민 사회, 학계, 권익 보호 운동 단체까지요. 여기 그들 중 일부를 보실 수 있습니다. 몇 명은 콘텐츠 신뢰성을 나타내는 지표를 개발 중입니다. 몇 명은 팩트체크를 하고 있습니다. 거짓 정보, 비디오와 사진들이 순위에서 멀어질 수 있게 말이죠.
A nonprofit I helped to found, First Draft, is working with normally competitive newsrooms around the world to help them build out investigative, collaborative programs. And Danny Hillis, a software architect, is designing a new system called The Underlay, which will be a record of all public statements of fact connected to their sources, so that people and algorithms can better judge what is credible. And educators around the world are testing different techniques for finding ways to make people critical of the content they consume. All of these efforts are wonderful, but they're working in silos, and many of them are woefully underfunded.
제가 설립을 도운 비영리단체인 퍼스트 드래프트(First Draft)는 평균적으로 경쟁력있는 뉴스 편집국들과 함께 일하며 그들이 협력할 수 있는 프로그램을 세울 수 있도록 돕습니다. 소프트웨어 설계자인 대니 힐즈(Danny Hillls)는 언더레이(The Underlay)라고 불리는 새로운 시스템을 만들고 있습니다. 이는 인터넷 상의 모든 발언들과 그 출처를 엮은 기록물입니다. 사람들과 알고리즘이 믿을 만한 정보를 가려내는 것을 도와주죠. 전 세계의 교육자들은 사람들이 접하는 정보들을 비판적으로 받아들일 수 있게 교육하는 방법을 찾고 있습니다. 이 모든 노력들은 대단하지만 그들은 지하에서 일하고 있습니다. 대부분은 자금 부족을 겪고 있죠.
There are also hundreds of very smart people working inside these companies, but again, these efforts can feel disjointed, because they're actually developing different solutions to the same problems.
또한 수백 명의 정말 똑똑한 인재들이 이들 회사에서 일하고 있지만, 이들의 노력이 서로 연결되고 있지 않은 느낌입니다. 같은 문제에 대해 서로 다른 해결책을 만들고 있기 때문이죠.
How can we find a way to bring people together in one physical location for days or weeks at a time, so they can actually tackle these problems together but from their different perspectives? So can we do this? Can we build out a coordinated, ambitious response, one that matches the scale and the complexity of the problem? I really think we can. Together, let's rebuild our information commons.
어떻게 하면 이 사람들을 며칠 혹은 몇 주 간, 하나의 물리적인 공간에 모아서, 그들이 자신들의 견해와 관점을 제시하며 이 문제를 함께 해결하도록 할 수 있을까요? 이것이 가능할까요? 우리의 문제가 복잡하고 큰 만큼 우리도 잘 설계된 해결 방법을 야심차게 내놓을 수 있을까요? 저는 이것이 가능하다고 믿습니다. 함께 안전한 정보 공동체를 재구축해 봅시다.
Thank you.
감사합니다.
(Applause)
(박수)