No matter who you are or where you live, I'm guessing that you have at least one relative that likes to forward those emails. You know the ones I'm talking about -- the ones with dubious claims or conspiracy videos. And you've probably already muted them on Facebook for sharing social posts like this one.
مهم نیست چه کسی هستید و یا کجا زندگی میکنید، حدس میزنم شما هم حداقل یک دوست یا آشنایی دارید که دوست دارد چنین پیامهایی را برای شما ارسال کند. میدانید کدام پیامها را میگویم، پیامهایی که شامل ادعاهای مشکوک و فیلمهای توطئه آمیز هستند. و احتمالاً به خاطرِ به اشتراک گذاشتن چنین مطالبی، آنها را در فیسبوکتان بی صدا کردهاید.
It's an image of a banana with a strange red cross running through the center. And the text around it is warning people not to eat fruits that look like this, suggesting they've been injected with blood contaminated with the HIV virus. And the social share message above it simply says, "Please forward to save lives." Now, fact-checkers have been debunking this one for years, but it's one of those rumors that just won't die. A zombie rumor. And, of course, it's entirely false.
این تصویر یک موز است که از وسط آن، صلیب قرمز عجیبی گذشته است. و متنی در بالای آن، که به مردم هشدار میدهد هرگز میوههایی مانند این را نخورند، چراکه آنها را با خونی آلوده کردهاند، که حاوی ویروس اچآیوی است. و پیام نوشته شده در بالای آن تأکید زیادی دارد که، «برای نجات انسانها، پیام را به اشتراک بگذارید.» با اینکه محققان سالهاست شایعه بودن این خبر را تائید کردهاند، اما این یکی از آن شایعاتی است که هرگز از بین نمیرود. یک شایعهی زامبی! و مطمئن هستیم که کاملاً اشتباه است.
It might be tempting to laugh at an example like this, to say, "Well, who would believe this, anyway?" But the reason it's a zombie rumor is because it taps into people's deepest fears about their own safety and that of the people they love. And if you spend as enough time as I have looking at misinformation, you know that this is just one example of many that taps into people's deepest fears and vulnerabilities.
ممکن است به چنین مثالی بخندید، و بگویید، «به هر حال چه کسی این را باور میکند؟» اما دلیل برگشتن دوباره این شایعه، این است که عمیقترین ترسهای انسانها را در مورد سلامتی خودشان و عزیزانشان، مورد هدف قرار میدهد. و اگر به اندازهی من، زمانتان را صرف بررسی اطلاعات جعلی کرده باشید، میفهمید که این تنها یک نمونه از بیشمار خبری است که به ترسها و آسیبپذیریهای عمیق مردم حمله میکند.
Every day, across the world, we see scores of new memes on Instagram encouraging parents not to vaccinate their children. We see new videos on YouTube explaining that climate change is a hoax. And across all platforms, we see endless posts designed to demonize others on the basis of their race, religion or sexuality.
هر روزه در سراسر جهان، شاهد جوکهای زیادی در اینستاگرام هستیم، که والدین را تشویق میکند به کودکانشان واکسن نزنند. فیلمهای زیادی در یوتیوب توضیح میدهند که چرا گرمایش زمین برای گول زدن ماست، و در همهی شبکههای اجتماعی، مطالب بیشماری میبینیم که ساختهشدهاند، تا بر اساس نژاد، مذهب یا جنسیت، دیگران را قضاوت و سرزنش کنند.
Welcome to one of the central challenges of our time. How can we maintain an internet with freedom of expression at the core, while also ensuring that the content that's being disseminated doesn't cause irreparable harms to our democracies, our communities and to our physical and mental well-being? Because we live in the information age, yet the central currency upon which we all depend -- information -- is no longer deemed entirely trustworthy and, at times, can appear downright dangerous. This is thanks in part to the runaway growth of social sharing platforms that allow us to scroll through, where lies and facts sit side by side, but with none of the traditional signals of trustworthiness.
به یکی از اساسیترین چالشهای عصر ما خوش آمدید. چگونه میتوانیم اینترنتی بسازیم که در بطن آن، آزادی بیان وجود داشته باشد، اما مطمئن باشیم مطالبی که در آن منتشر میشوند، به دموکراسی، اقلیتها و سلامت جسم و روانمان، آسیبهای جبرانناپذیری نمیزنند؟ از آنجا که ما در عصر اطلاعات زندگی میکنیم، ارز رایجی هست که همه به آن وابستهایم -یعنی اطلاعات- اما دیگر، کاملاً قابل اعتماد به نظر نمیرسد و در مواقعی میتواند بسیار خطرناک عمل کند. علت آن رشد غیرقابلکنترلِ پلتفرمهای اجتماعی متعددی است که به ما اجازه میدهند در میانِ خبرهایی بگردیم که حقیقت و دروغ در آنها مخلوط شدهاند، اما هیچ یک از نشانههای مرسوم اعتمادپذیری وجود ندارد.
And goodness -- our language around this is horribly muddled. People are still obsessed with the phrase "fake news," despite the fact that it's extraordinarily unhelpful and used to describe a number of things that are actually very different: lies, rumors, hoaxes, conspiracies, propaganda. And I really wish we could stop using a phrase that's been co-opted by politicians right around the world, from the left and the right, used as a weapon to attack a free and independent press.
و شکر خدا، اصطلاحاتمان هم در این زمینه به طرز وحشتناکی بههمریخته است. مردم هنوز به عبارت «اخبار جعلی» توجه نشان میدهند، با اینکه در اکثر مواقع هیچ کمکی نمیکند، و برای توصیف چیزهای بسیار متفاوتی استفاده میشود: دروغ، شایعه، فریب، توطئه، پروپاگاندا. و من آرزو میکنم که بتوانیم استفاده از این عبارت را متوقف کنیم. عبارتی که سیاستمداران همه احزاب در سراسر دنیا توافق کردهاند که از آن برای حمله به رسانههای آزاد و مستقل استفاده کنند.
(Applause)
(تشویق حضار)
Because we need our professional news media now more than ever. And besides, most of this content doesn't even masquerade as news. It's memes, videos, social posts. And most of it is not fake; it's misleading. We tend to fixate on what's true or false. But the biggest concern is actually the weaponization of context. Because the most effective disinformation has always been that which has a kernel of truth to it.
چراکه ما بیش از هر زمان دیگری به رسانههای خبری حرفهای نیاز داریم. و علاوه بر آن، بیشتر این محتوا حتی شبیه به اخبار هم نیست، بلکه کمیک، ویدیو و پستهای اجتماعی است. و بیشتر آنها کاملاً جعلی نیست؛ بلکه تنها گمراهکننده است. ما سعی داریم ثابت کنیم چه چیزی درست یا غلط است. اما در واقع بزرگترین نگرانی، تبدیل این مسئله به یک سلاح است. چراکه مؤثرترین نمونههای شایعات، همواره مواردی بودهاند که در پوستهای از حقیقت قرار داشتهاند.
Let's take this example from London, from March 2017, a tweet that circulated widely in the aftermath of a terrorist incident on Westminster Bridge. This is a genuine image, not fake. The woman who appears in the photograph was interviewed afterwards, and she explained that she was utterly traumatized. She was on the phone to a loved one, and she wasn't looking at the victim out of respect. But it still was circulated widely with this Islamophobic framing, with multiple hashtags, including: #BanIslam. Now, if you worked at Twitter, what would you do? Would you take that down, or would you leave it up? My gut reaction, my emotional reaction, is to take this down. I hate the framing of this image. But freedom of expression is a human right, and if we start taking down speech that makes us feel uncomfortable, we're in trouble.
بیایید این مثال از ماه مارس سال ۲۰۱۷، در لندن را ببینیم: یک توییت، که بسیار هم دیده شد، بعد از یک واقعهی تروریستی بر روی پل «وستمینیستر». این یک عکس واقعی است، و نه تقلبی. زنی در این عکس دیده میشود، که بعداً با او مصاحبه شد، و توضیح داد که در زمان حادثه کاملاً شوکه شده بود. او در حال صحبت کردن با یکی از عزیزانش بوده، و به منظور حفظ احترام، به قربانی نگاه نمیکرد. اما این عکس، همچنان با نگاهی اسلامستیزانِ در حال پخش شدن بود. با چندین هشتک مانند #BanIslam. خب اگر شما در توییتر کار میکردید چه کار میکردید؟ آن را حذف میکردید؟ یا همینطور که هست رهایش میکردید؟ واکنش لحظهای و احساسی من این است که آن را حذف کنم. من طرز نگاه این تصویر را، نمیپسندم. اما آزادی بیان یک حق انسانی است. و اگر ما شروع کنیم به حذف کردنِ هر سخنی که برایمان ناخوشایند است، به مشکل برمیخوریم.
And this might look like a clear-cut case, but, actually, most speech isn't. These lines are incredibly difficult to draw. What's a well-meaning decision by one person is outright censorship to the next. What we now know is that this account, Texas Lone Star, was part of a wider Russian disinformation campaign, one that has since been taken down. Would that change your view? It would mine, because now it's a case of a coordinated campaign to sow discord. And for those of you who'd like to think that artificial intelligence will solve all of our problems, I think we can agree that we're a long way away from AI that's able to make sense of posts like this.
و در این نمونه، ممکن است تصمیم واضح به نظر برسد، اما، بیشتر موارد اینطور نیستند. مشخص کردن مرزها کار بسیار سختی است. تصمیم درست از نظر یک نفر، ممکن است از نظر فرد دیگری سانسور مطلق باشد. چیزی که الآن میدانیم، این است که، این کاربر «Texas Lone Star» بخشی از یک کمپین بزرگ روسی برای انتشار اطلاعات نادرست بوده، که از آن زمان با آن مقابله شده است. آیا این نظرتان را عوض میکند؟ نظر من را که عوض میکند، زیرا حالا با یک کمپینِ سازمانیافته طرف هستیم، که هدفش ایجاد دعوا است. و برای بعضی از شما، که دوست دارید فکر کنید که هوش مصنوعی همه مشکلات را حل خواهد کرد، فکر میکنم با هم توافق داریم که تا سطحی از هوش مصنوعی که قادر باشد چنین پستهایی را تشخیص دهد، فاصلهی زیادی داریم.
So I'd like to explain three interlocking issues that make this so complex and then think about some ways we can consider these challenges. First, we just don't have a rational relationship to information, we have an emotional one. It's just not true that more facts will make everything OK, because the algorithms that determine what content we see, well, they're designed to reward our emotional responses. And when we're fearful, oversimplified narratives, conspiratorial explanations and language that demonizes others is far more effective. And besides, many of these companies, their business model is attached to attention, which means these algorithms will always be skewed towards emotion.
من قصد دارم ۳ مشکل مرتبط را شرح دهم، که این کار را بسیار پیچیده میکنند. و سپس راهحلهایی برای فکر کردن در مورد این مشکلات پیشنهاد دهم. اول از همه، ما تنها رابطهی منطقی با اطلاعات نداریم، این یک ارتباط احساسی است. مشاهده حقایق بیشتر، مشکل را حل نمیکند، زیرا الگوریتمهایی که محتوایی را که میبینیم، انتخاب میکنند، طوری طراحی شدهاند که به پاسخهای احساسی ما جایزه بدهند. و زمانی که ما ترسیده باشیم، روایتهای سادهشده، توضیحات توطئه آمیز، و متهم کردن دیگران بسیار مؤثرتر عمل میکنند. علاوه بر آن، بسیاری از این کمپانیها، حیاتی وابسته به توجه دارند. و به این معناست که این الگوریتمها، همواره به سمت احساسات متمایل خواهند بود.
Second, most of the speech I'm talking about here is legal. It would be a different matter if I was talking about child sexual abuse imagery or content that incites violence. It can be perfectly legal to post an outright lie. But people keep talking about taking down "problematic" or "harmful" content, but with no clear definition of what they mean by that, including Mark Zuckerberg, who recently called for global regulation to moderate speech. And my concern is that we're seeing governments right around the world rolling out hasty policy decisions that might actually trigger much more serious consequences when it comes to our speech. And even if we could decide which speech to take up or take down, we've never had so much speech. Every second, millions of pieces of content are uploaded by people right around the world in different languages, drawing on thousands of different cultural contexts. We've simply never had effective mechanisms to moderate speech at this scale, whether powered by humans or by technology.
دوم، بیشترِ مطالبی که من در موردشان صحبت میکنم، موارد قانونی هستند. اگر در موردِ مطالبی حرف میزدم که مربوط به سوءاستفادهی جنسی از کودکان یا ترویج کنندهی خشونت هستند، اوضاع بسیار فرق میکرد. اما انتشار دروغی آشکار، کاملاً قانونی است. مردم همواره از حذف کردنِ مطالب مشکلساز و آسیبزا صحبت میکنند، اما تعریف دقیق و مشخصی از آن ارائه نمیدهند، ازجمله «مارک زاکربرگ» که اخیراً خواستار وضع مقررات جهانی برای تعدیل صحبتها شد. و نگرانی من این است که میبینیم دولتها در همه جای جهان عجولانه در حال گرفتن تصمیمهایی هستند که ممکن است تبعاتی بسیار جدی در پی داشته باشد بهخصوص اکنونکه موضوع، صحبت کردن ماست. و اگر میتوانستیم تصمیم بگیریم کدام سخن را نگهداریم و کدامیک را حذف کنیم، هرگز این حجم از مطالب را نداشتیم. در هر ثانیه میلیونها عکس و متن توسط افراد مختلف در جهان آپلود میشود به زبانهای متفاوت، و با هزاران زمینه فرهنگی متفاوت. ما هرگز روش مناسبی برای تعدیل کردن این حجم از صحبتها را چه به وسیله انسان و چه کامپیوتر، نداشتهایم.
And third, these companies -- Google, Twitter, Facebook, WhatsApp -- they're part of a wider information ecosystem. We like to lay all the blame at their feet, but the truth is, the mass media and elected officials can also play an equal role in amplifying rumors and conspiracies when they want to. As can we, when we mindlessly forward divisive or misleading content without trying. We're adding to the pollution.
و سوم، این کمپانیها مانند گوگل، توییتر، فیسبوک و واتساپ بخشی از اکوسیستم اطلاعاتی بزرگتری هستند. ما علاقه داریم همهی تقصیرها را گردن آنها بیندازیم، اما در حقیقت رسانههای جمعی و مقامات رسمی هنگامیکه بخواهند، میتوانند نقشی به همان مقدار در تشدید شایعات و توطئهها داشته باشند. همانقدرهم، ما میتوانیم بدون هیچ تلاشی، با بازپخش کردن چشمبسته مطالب گمراهکننده نقش داشته باشیم. ما هم داریم این آلودگی را اضافه میکنیم.
I know we're all looking for an easy fix. But there just isn't one. Any solution will have to be rolled out at a massive scale, internet scale, and yes, the platforms, they're used to operating at that level. But can and should we allow them to fix these problems? They're certainly trying. But most of us would agree that, actually, we don't want global corporations to be the guardians of truth and fairness online. And I also think the platforms would agree with that. And at the moment, they're marking their own homework. They like to tell us that the interventions they're rolling out are working, but because they write their own transparency reports, there's no way for us to independently verify what's actually happening.
همهی ما به دنبال یک راهحل ساده هستیم. اما چنین راهی وجود ندارد. هر راهحلی لازم است در مقیاس بزرگی بهاندازهی اینترنت اعمال شود. و بله، پلتفرمها در این سطح عمل میکنند. اما آیا میتوانیم و خوب است که به آنها اجازه حل این مشکل را بدهیم؟ آنها در حال تلاش هستند. اما بیشتر ما، مایل نیستیم این شرکتهای بینالمللی محافظان حقیقت و عدالت در فضای آنلاین باشند. و فکر میکنم خود این پلتفرمها هم با من همنظر باشند. هماکنون آنها در حالِ نمره دادن به تکالیف خودشان هستند. آنها دوست دارند بگویند که مداخلههایشان تابهحال جواب داده است، اما از آنجا که آنها گزارش شفافیت خودشان را میدهند، راهی نیست که ما مستقیماً بفهمیم واقعاً چه اتفاقی در حال افتادن است.
(Applause)
(تشویق حضار)
And let's also be clear that most of the changes we see only happen after journalists undertake an investigation and find evidence of bias or content that breaks their community guidelines. So yes, these companies have to play a really important role in this process, but they can't control it.
و بگذارید این را هم صراحتاً بگویم بیشتر تغییراتی که میبینیم، زمانی اتفاق میافتند که روزنامهنگاران دست به تحقیقات میزنند و مدارکی نشاندهنده جانبداری یا محتوای ناقض قواعد اجتماعی پیدا میکنند. بله، این کمپانیها باید نقش مهمی در این جریان داشته باشند، اما نمیتوانند آن را کنترل کنند.
So what about governments? Many people believe that global regulation is our last hope in terms of cleaning up our information ecosystem. But what I see are lawmakers who are struggling to keep up to date with the rapid changes in technology. And worse, they're working in the dark, because they don't have access to data to understand what's happening on these platforms. And anyway, which governments would we trust to do this? We need a global response, not a national one.
در مورد دولتها چطور؟ بسیاری از مردم فکر میکنند که مقررات جهانی، بهمنظور تمیز کردن فضای اطلاعاتی، آخرین امید ما باشند. اما قانونگذارانی که من میبینم، قادر نیستند پابهپای تغییراتِ سریع تکنولوژی حرکت کنند. و بدتر اینکه آنها در تاریکی حرکت میکنند. چراکه دسترسی کافی به دادهها ندارند که بفهمند در این پلتفرمها دقیقاً چه اتفاقی میافتند. و از طرفی، ما به کدام دولت اعتماد میکنیم که چنین کاری را انجام دهد؟ ما به یک پاسخ بینالمللی نیاز داریم، نه یک پاسخ ملی.
So the missing link is us. It's those people who use these technologies every day. Can we design a new infrastructure to support quality information? Well, I believe we can, and I've got a few ideas about what we might be able to actually do. So firstly, if we're serious about bringing the public into this, can we take some inspiration from Wikipedia? They've shown us what's possible. Yes, it's not perfect, but they've demonstrated that with the right structures, with a global outlook and lots and lots of transparency, you can build something that will earn the trust of most people. Because we have to find a way to tap into the collective wisdom and experience of all users. This is particularly the case for women, people of color and underrepresented groups. Because guess what? They are experts when it comes to hate and disinformation, because they have been the targets of these campaigns for so long. And over the years, they've been raising flags, and they haven't been listened to. This has got to change. So could we build a Wikipedia for trust? Could we find a way that users can actually provide insights? They could offer insights around difficult content-moderation decisions. They could provide feedback when platforms decide they want to roll out new changes.
پس حلقه گم شده خود ما هستیم. ما مردمی که روزانه از این تکنولوژیها استفاده میکنیم. آیا میتوانیم زیرساخت تازهای بنا کنیم که از کیفیت اطلاعات حمایت کند؟ من باور دارم که میتوانیم، و چند ایده دارم که در عمل چهکاری میتوانیم انجام دهیم. اول از همه، اگر ما قصد داریم مردم را در این کار داخل کنیم، آیا میتوانیم از ویکیپدیا انگیزه بگیریم؟ آنها نشان دادند که چهکاری ممکن است. بله، این کار بینقص نیست، اما آنها نشان دادهاند با زیرساخت مناسب، با چشماندازی جهانی، و شفافیتی فوقالعاده، میتوان چیزی ساخت که اعتماد اکثر مردم را جلب کند. زیرا ما باید راهی برای کمک گرفتن از خِردِ جمعی و تجربیات همهی کاربران پیدا کنیم. بهخصوص از طریق زنان، رنگینپوستان و گروههایی که در اقلیت هستند. حدس میزنید چرا؟ چون این افراد متخصص اطلاعات نادرست و نفرت پراکنی هستند، چراکه سالهاست هدفِ چنین کمپینهایی بودهاند. و در طی سالها پرچمدارِ این مبارزات بودهاند، و به آنها گوش داده نشده است. این باید تغییر کند. آیا میتوانیم یک ویکیپدیا از افراد مورد اعتماد بسازیم؟ آیا میتوانیم راهی پیدا کنیم که کاربران در مورد تصمیمگیریهای دشوار برای تعدیل محتوا نظر بدهند. اگر پلتفرمی تصمیم بگیرد که تغییرات جدیدی اعمال کند، آنها میتوانند بازخورد بدهند.
Second, people's experiences with the information is personalized. My Facebook news feed is very different to yours. Your YouTube recommendations are very different to mine. That makes it impossible for us to actually examine what information people are seeing. So could we imagine developing some kind of centralized open repository for anonymized data, with privacy and ethical concerns built in? Because imagine what we would learn if we built out a global network of concerned citizens who wanted to donate their social data to science. Because we actually know very little about the long-term consequences of hate and disinformation on people's attitudes and behaviors. And what we do know, most of that has been carried out in the US, despite the fact that this is a global problem. We need to work on that, too.
دوم آنکه تجربه افراد از اطلاعات، شخصیسازی شده است. خبرهای فیسبوک من با شما بسیار تفاوت دارد. پیشنهادهای یوتیوب شما با من متفاوت است. بنابراین عملاً غیرممکن است بررسی کنیم که چه کسی چه اطلاعاتی را مشاهده میکند. پس آیا میتوانید تصور کنید یک مجموعه متمرکز و منبع باز از دادههای ناشناس با رعایت محرمانگی و حساسیتهای اخلاقی جمعآوری کنیم؟ فکر کنید چه چیزهایی میتوانیم بفهمیم، اگر یک شبکهی جهانی، از شهروندان نگرانی بسازیم که دوست دارند دادههای شبکههای اجتماعیشان را وقف علم کنند. چراکه ما واقعاً خیلی کم در مورد آثار درازمدتِ نفرت پراکنی و اطلاعات اشتباه روی دیدگاهها و رفتارهای مردم، میدانیم. و آنچه میدانیم نیز، عمدتاً در ایالاتمتحده بررسی شده است، بدون توجه به اینکه این یک مشکل جهانی است. لازم است روی این مشکل هم کار کنیم.
And third, can we find a way to connect the dots? No one sector, let alone nonprofit, start-up or government, is going to solve this. But there are very smart people right around the world working on these challenges, from newsrooms, civil society, academia, activist groups. And you can see some of them here. Some are building out indicators of content credibility. Others are fact-checking, so that false claims, videos and images can be down-ranked by the platforms.
و سوم، راهی هست که نهادهای مختلف را به هم متصل کنیم؟ هیچ نهادی، اعم از غیرانتفاعی، استارتآپ و یا دولت، این مشکل را حل نخواهد کرد. اما افراد بسیار باهوشی سرتاسر جهان، روی این مشکلات کار میکنند، از خبرنگاران، جوامع مدنی، دانشگاهیان و اکتیویستها که تصویر تعدادی از آنها را مشاهده میکنید. بعضی از آنها در حال ایجاد شاخصهای اعتبار محتوا هستند. برخی در حال چک کردن حقایق، تا ادعاها، تصاویر و فیلمهای نادرست توسط پلتفرمها محدود شوند.
A nonprofit I helped to found, First Draft, is working with normally competitive newsrooms around the world to help them build out investigative, collaborative programs. And Danny Hillis, a software architect, is designing a new system called The Underlay, which will be a record of all public statements of fact connected to their sources, so that people and algorithms can better judge what is credible. And educators around the world are testing different techniques for finding ways to make people critical of the content they consume. All of these efforts are wonderful, but they're working in silos, and many of them are woefully underfunded.
نهاد غیرانتفاعی به نام «فرست درفت» که در تأسیس آن کمک کردم، سعی میکند با کمک خبرگزاریهای مختلف سراسر جهان، برنامههای تحقیقاتی مشترکی راهاندازی کند. و «دنی هیلیس»، یک معمار نرمافزار، در حال طراحی یک سیستم جدید به نام «آندرلی» است، که یک بانک اطلاعاتی، برای اظهارات عمومی از حقایق و اتصال آنها به منبعشان خواهد بود. تا انسانها و الگوریتمها بهتر بتوانند موارد معتبر را تشخیص دهند. و معلمانی از کشورهای مختلف روشهای مختلفی را آزمایش میکنند، تا به مردم یاد دهند نگاهی انتقادی به مطالبی که مصرف میکنند داشته باشند. همه این تلاشها عالیاند، اما هر کدام به دور از سایرین انجام میشود، و بسیاری از آنها کسری بودجه قابلتوجهی دارند.
There are also hundreds of very smart people working inside these companies, but again, these efforts can feel disjointed, because they're actually developing different solutions to the same problems.
همچنین صدها انسان بسیار باهوش در این کمپانیها کار میکنند، اما باز هم، این تلاشها ممکن است ایزوله احساس شوند، زیرا به دنبال راهحلهای مختلفی برای یک مشکل یکسان هستند.
How can we find a way to bring people together in one physical location for days or weeks at a time, so they can actually tackle these problems together but from their different perspectives? So can we do this? Can we build out a coordinated, ambitious response, one that matches the scale and the complexity of the problem? I really think we can. Together, let's rebuild our information commons.
چگونه میتوانیم راهی بیابیم که این افراد برای چند روز یا چند هفته در مکانی دور هم جمع شوند، تا بتوانند به کمک یکدیگر با این مشکل مقابله کنند اما هر یک از دیدگاه خودشان؟ آیا از عهده این کار برمیآییم؟ میتوانیم یک پاسخ بلندپروازانِ همگانی، متناسب برای مسئلهای با این ابعاد و پیچیدگی پیدا کنیم؟ من فکر میکنم، بله. بیایید با کمک همدیگر، فضای اطلاعاتیمان را بازسازی کنیم.
Thank you.
متشکرم.
(Applause)
(تشویق حضار)