بغض النظر عن هويتك أو أين تعيش، أنا أتوقع أنه لديك على الأقل قريب واحد يفضّل تمرير تلك الرسائل الإلكترونية. تعرفون نوعية الرسائل التي أقصدها... رسائل تحتوي على ادعاءات مشكوك فيها أو فيديوهات المؤامرة. وغالبًا قد تكون منعتهم من الظهور على الفيسبوك لمشاركة منشورات اجتماعية مثل هذه.
No matter who you are or where you live, I'm guessing that you have at least one relative that likes to forward those emails. You know the ones I'm talking about -- the ones with dubious claims or conspiracy videos. And you've probably already muted them on Facebook for sharing social posts like this one.
إنها صورة لموزة يتواجد في مركزها صليب أحمر. والنص حولها يحذر الجميع بأن لا يأكلوا الفاكهة التي تبدو هكذا، مدعين أنها محقونة بدم ملوث بفيروس نقص المناعة المكتسبة. ورسالة المشاركة الاجتماعية الموجودة أعلاه تقول: "رجاءً مرّرها لتنفذ الأرواح". مدققو الحقائق كانوا يدحضون هذا الادعاء لسنوات، إلا أنها واحدة من تلك الإشاعات التي لا تموت ببساطة. كإشاعة الزومبي. وبالطبع، فهي كاذبة تمامًا.
It's an image of a banana with a strange red cross running through the center. And the text around it is warning people not to eat fruits that look like this, suggesting they've been injected with blood contaminated with the HIV virus. And the social share message above it simply says, "Please forward to save lives." Now, fact-checkers have been debunking this one for years, but it's one of those rumors that just won't die. A zombie rumor. And, of course, it's entirely false.
من الممكن أن يكون رد فعلك الضحك على مثال كهذا وjقول: "حسنًا، من يصدق هذا بأي حال؟" ولكن سبب كونها كإشاعة الزومبي هو أنها تتعامل مع أعمق المخاوف لدى الأشخاص حول سلامتهم الشخصية وسلامة أحبائهم. وإذا أمضيت وقتًا كافيًا كالذي أمضيته بالنظر في المعلومات الخاطئة، ستعرف أن هذا مجرد مثال واحد من أمثلة عديدة تتلاعب في أعمق مخاوف الأشخاص ونقاط ضعفهم.
It might be tempting to laugh at an example like this, to say, "Well, who would believe this, anyway?" But the reason it's a zombie rumor is because it taps into people's deepest fears about their own safety and that of the people they love. And if you spend as enough time as I have looking at misinformation, you know that this is just one example of many that taps into people's deepest fears and vulnerabilities.
كل يوم، حول العالم، نرى أعدادًا مهولة من الصور ذات التعليقات على الإنستغرام تشجع الأهل على عدم إعطاء أولادهم لقاحًا ما. نرى فيديوهات جديدة على يوتيوب تشرح أن التغير المناخي عبارة عن خدعة. وعلى جميع المنصات، نرى منشورات لا نهاية لها مصممة لتشويه صورة الآخرين على أساس عرقهم أو دينهم أو جنسهم.
Every day, across the world, we see scores of new memes on Instagram encouraging parents not to vaccinate their children. We see new videos on YouTube explaining that climate change is a hoax. And across all platforms, we see endless posts designed to demonize others on the basis of their race, religion or sexuality.
أهلاً بك في أحد التحديات الرئيسية في عصرنا. كيف يمكننا الحفاظ على إنترنت يقوم في جوهره على حرية التعبير، مع ضمان أن المحتوى الذي يجري نشره لا يؤدي إلى ضرر دائم لديمقراطيتنا ومجتمعاتنا بالإضافة إلى سلامتنا الجسدية والنفسية؟ لأننا نعيش في عصر المعلومات، إلا أن العنصر الرئيسي الذي نعتمد عليه جميعًا...المعلومات... لم تعد تُعتبر جديرة بالثقة بشكل مطلق ويمكن أن تكون في بعض الأحيان خطيرة. هذا بفضل منصات المشاركة الاجتماعية التي انتشرت بشكل كبير والتي تتيح لنا التصفح فيها، حيث تتواجد الحقائق والأكاذيب جنبًا إلى جنب، ولكن بدون وجود أي من العلامات التقليدية التي تعطي الثقة.
Welcome to one of the central challenges of our time. How can we maintain an internet with freedom of expression at the core, while also ensuring that the content that's being disseminated doesn't cause irreparable harms to our democracies, our communities and to our physical and mental well-being? Because we live in the information age, yet the central currency upon which we all depend -- information -- is no longer deemed entirely trustworthy and, at times, can appear downright dangerous. This is thanks in part to the runaway growth of social sharing platforms that allow us to scroll through, where lies and facts sit side by side, but with none of the traditional signals of trustworthiness.
كما أن لغتنا بشأن هذا الموضوع مشوشة بشكل كبير. لا يزال الناس مهووسين بعبارة "الأخبار الزائفة"، بالرغم من حقيقة أن هذا الأمر غير مفيد إطلاقًا كما أنها تستخدم لوصف عدة أشياء مختلفة عن بعضها البعض: أكاذيب، وإشاعات، وخدع، ومؤامرات، ودعاية التهويل. وأتمنى فعلًا أن نتوقف عن استعمال تعبيرٍ تبناه سياسيون في جميع أنحاء العالم، من اليسار ومن اليمين، يستخدم كسلاح لمهاجمة الصحافة الحرة والمستقلة.
And goodness -- our language around this is horribly muddled. People are still obsessed with the phrase "fake news," despite the fact that it's extraordinarily unhelpful and used to describe a number of things that are actually very different: lies, rumors, hoaxes, conspiracies, propaganda. And I really wish we could stop using a phrase that's been co-opted by politicians right around the world, from the left and the right, used as a weapon to attack a free and independent press.
(تصفيق)
(Applause)
لأننا نحتاج قنواتنا الإخبارية المحترفة الآن أكثر من أي وقت مضى. كما أن معظم هذا المحتوى لا يوضع في قوالب إخبارية. فهي صور ذات تعليقات، وفيديو، ومشاركات اجتماعية. وأغلبها ليست بأكاذيب، ولكنها محتوى مضلل. نميل للتركيز على ما هو صحيح وما هو خاطئ. إلا أن خوفنا الأكبر هو استخدام سياق الكلام كسلاح. لأن التضليل الأكثر فعالية هو الذي يحتوي في جوهره على الحقيقة.
Because we need our professional news media now more than ever. And besides, most of this content doesn't even masquerade as news. It's memes, videos, social posts. And most of it is not fake; it's misleading. We tend to fixate on what's true or false. But the biggest concern is actually the weaponization of context. Because the most effective disinformation has always been that which has a kernel of truth to it.
لنأخذ هذا المثال من لندن، في مارس 2017، تغريدة انتشرت على نطاق واسع في أعقاب حادث إرهابي وقع على جسر وستمنستر. هذه صورة حقيقية وليست مفبركة. تم إجراء مقابلة لاحقًا مع السيدة التي تظهر في الصورة، حيث أخبرتنا أنها أصيبت بصدمة كبيرة. كانت تتحدث مع أحد أفراد أسرتها، ولم تكن تنظر للضحية من منطلق احترام. إلا أن الصورة انتشرت على نطاق واسع في إطار الإسلاموفوبيا، مرفقة مع وسوم مختلفة ومنها #امنعواـالإسلام. تخيل نفسك تعمل لدى تويتر، ماذا ستفعل؟ هل ستترك الصورة لتنتشر، أم تزيلها من التداول؟ ردة فعلي، ردة فعلي العاطفية، هي إزالتها. أكره الإطار الذي وُضعت فيه هذه الصورة. لكن حرية التعبير حق بشري، وإذا أزلنا الخطابات التي لا نشعر بالراحة تجاهها، فنحن في ورطة.
Let's take this example from London, from March 2017, a tweet that circulated widely in the aftermath of a terrorist incident on Westminster Bridge. This is a genuine image, not fake. The woman who appears in the photograph was interviewed afterwards, and she explained that she was utterly traumatized. She was on the phone to a loved one, and she wasn't looking at the victim out of respect. But it still was circulated widely with this Islamophobic framing, with multiple hashtags, including: #BanIslam. Now, if you worked at Twitter, what would you do? Would you take that down, or would you leave it up? My gut reaction, my emotional reaction, is to take this down. I hate the framing of this image. But freedom of expression is a human right, and if we start taking down speech that makes us feel uncomfortable, we're in trouble.
وربما بدت هذه الحالة واضحة بدون لبس، ولكن الحقيقة عكس ذلك في معظم الخطابات. من الصعب الفصل فيها بوضوح. ما قد يكون قرارًا واضحًا لشخص ما يكون رقابة صارخة لشخص آخر. ما نعرفه أن الحساب "تكساس لون ستار"، كان جزءًا من حملة كبيرة للتضليل أعدّتها روسيا، وقد تمت إزالته من التداول منذ ذاك. هل سيغير ذلك من نظرتكم؟ سيغير نظرتي، لأن الوضع الآن أصبح عبارة عن حملة ممنهجة لزرع الفتنة. ولمن يظنون أن الذكاء الاصطناعي سيحل جميع مشاكلكم، أعتقد أننا جميعنا نتفق أن الطريق ما زال طويلًا لكي يتمكن الذكاء الاصطناعي من تمييز معنى منشور كهذا.
And this might look like a clear-cut case, but, actually, most speech isn't. These lines are incredibly difficult to draw. What's a well-meaning decision by one person is outright censorship to the next. What we now know is that this account, Texas Lone Star, was part of a wider Russian disinformation campaign, one that has since been taken down. Would that change your view? It would mine, because now it's a case of a coordinated campaign to sow discord. And for those of you who'd like to think that artificial intelligence will solve all of our problems, I think we can agree that we're a long way away from AI that's able to make sense of posts like this.
لذا سأذكر ثلاثة مواضيع مترابطة تجعل هذا الأمر معقدًا للغاية ثم نناقش بعض الطرق التي تمكننا من التعامل مع هذه التحديات. أولاً، نحن لا تربطنا علاقة عقلانية مع المعلومات، بل تربطنا علاقة عاطفية. ليس صحيحًا أن المزيد من الحقائق سيجعل كل شيء طبيعيًا، لأن الخوارزميات التي تحدد المحتوى الذي نشاهده، مصممة لكي تستجيب مع ردود أفعالنا العاطفية. وعندما نخشى أمرًا ما، فإن الروايات المبالغ في تبسيطها والتفسيرات التآمرية وخطاب شيطنة الآخرين، تصبح أكثر فاعلية. كما أن العديد من تلك الشركات، تقوم سياسات عملها على جذب الاهتمام، ما يعني أن الخوارزميات تفضل العاطفة أكثر.
So I'd like to explain three interlocking issues that make this so complex and then think about some ways we can consider these challenges. First, we just don't have a rational relationship to information, we have an emotional one. It's just not true that more facts will make everything OK, because the algorithms that determine what content we see, well, they're designed to reward our emotional responses. And when we're fearful, oversimplified narratives, conspiratorial explanations and language that demonizes others is far more effective. And besides, many of these companies, their business model is attached to attention, which means these algorithms will always be skewed towards emotion.
ثانيًا، معظم الخطابات التي أتحدث عنها هنا قانونية. سيكون الأمر مختلفًا تمامًا لو ارتبط الأمر بصور اعتداءات جنسية على الأطفال أو محتوى يشجع على العنف. يمكن أن يكون نشر كذبة واضحة غير مخالف تمامًا للقانون. إلا أن الناس لا يزالون يتحدثون عن إزالة المحتوى "الضار" أو "الإشكالي"، ولكن بدون تعريف واضح لما يعنيه ذلك، بما فيهم مارك زكربورغ، الذي طالب بقوانين عالمية لتقنين الخطاب. وما أخشاه أننا نشاهد حكومات في جميع أنحاء العالم تقرّ سياسات مُتعجلة يمكن أن تؤدي إلى عواقب أكثر خطورة حين يتعلق الأمر بخطاباتنا. وحتى إن تمكنا من تحديد أي الخطابات نزيلها أو نبقي عليها، فنحن لم نتعامل مع هذا القدر من الخطابات سابقًا. هنالك الملايين من المنشورات كل ثانية يرفعها الناس حول العالم بلغات مختلفة، تستمد سياقاتها من آلاف السياقات الثقافية المختلفة. نحن ببساطة لم نمتلك سابقًا آلية فعالة لمراقبة خطابات بهذه الكمية، سواء آليات قائمة على البشر أو التكنولوجيا.
Second, most of the speech I'm talking about here is legal. It would be a different matter if I was talking about child sexual abuse imagery or content that incites violence. It can be perfectly legal to post an outright lie. But people keep talking about taking down "problematic" or "harmful" content, but with no clear definition of what they mean by that, including Mark Zuckerberg, who recently called for global regulation to moderate speech. And my concern is that we're seeing governments right around the world rolling out hasty policy decisions that might actually trigger much more serious consequences when it comes to our speech. And even if we could decide which speech to take up or take down, we've never had so much speech. Every second, millions of pieces of content are uploaded by people right around the world in different languages, drawing on thousands of different cultural contexts. We've simply never had effective mechanisms to moderate speech at this scale, whether powered by humans or by technology.
وثالثاً، هذه الشركات...جوجل، وتويتر، وفيسبوك، وواتس آب... هم جزء من نظام معلوماتي أكبر. ونحن نحب أن نلقي باللوم عليهم، إلا أن الحقيقة، أن وسائل الإعلام والمسؤولين المنتخبين يمكن أن يلعبوا دورًا مساويًا أيضًا في تضخيم الإشاعات والمؤامرات عندما يرغبون في ذلك. نحن نقوم بذلك أيضًا حين نمرّر بلا مبالاة مواد مضللة أو مسببة للخلاف دون أي محاولة. نحن نزيد من التلوث.
And third, these companies -- Google, Twitter, Facebook, WhatsApp -- they're part of a wider information ecosystem. We like to lay all the blame at their feet, but the truth is, the mass media and elected officials can also play an equal role in amplifying rumors and conspiracies when they want to. As can we, when we mindlessly forward divisive or misleading content without trying. We're adding to the pollution.
أعرف أننا جميعًا نبحث عن حل سهل. ولكن لا يوجد مثل هذا الأمر. أي حل ينبغي أن يكون على نطاق واسع، على نطاق الإنترنت، والمنصات معتادة على العمل في نطاق كهذا. ولكن هل بوسعنا تركهم يصلحون هذه المشكلات؟ وهل ينبغي علينا السماح لهم بذلك؟ هم يحاولون بالتأكيد. إلا أن أغلبنا يتفق في الحقيقة أننا لا نرغب أن تكون الشركات العالمية هم حماة الحقيقة والشفافية على الإنترنت. وأعتقد أن تلك المنصات ستوافق على ذلك أيضًا. وهو يقومون حاليًا بتجهيز أنفسهم داخليًا. هم يرغبون أن يقولوا لنا أن الإجراءات التي يقومون بتطبيقها بدأت تعطي ثمارها، لكن ولأنهم يكتبون تقارير النزاهة الخاصة بهم، فلا توجد طريقة لكي نتحقق مما يجري بشكل مستقل.
I know we're all looking for an easy fix. But there just isn't one. Any solution will have to be rolled out at a massive scale, internet scale, and yes, the platforms, they're used to operating at that level. But can and should we allow them to fix these problems? They're certainly trying. But most of us would agree that, actually, we don't want global corporations to be the guardians of truth and fairness online. And I also think the platforms would agree with that. And at the moment, they're marking their own homework. They like to tell us that the interventions they're rolling out are working, but because they write their own transparency reports, there's no way for us to independently verify what's actually happening.
(تصفيق)
(Applause)
ولنكن واضحين كذلك، أغلب التغيرات التي نراها حدثت بعد إجراء صحفيين لتحقيقات وعثورهم على أدلة تؤكد عدم الحيادية أو محتوى يتعارض مع سياسات مجتمعاتهم. ولذا، نعم، يجب على تلك الشركات القيام بدور هام جدًا في تلك العملية، ولكن لا يجب أن يتحكموا بها.
And let's also be clear that most of the changes we see only happen after journalists undertake an investigation and find evidence of bias or content that breaks their community guidelines. So yes, these companies have to play a really important role in this process, but they can't control it.
ماذا بشأن الحكومات؟ يعتقد الكثير من الناس أن القوانين العالمية هي أملنا الأخير لكي نتمكن من تطهير نظامنا المعلوماتي المترابط. إلا أن ما أراه هو أن المشرّعين هم الذين يعانون لمواكبة التغيرات المتسارعة في التكنولوجيا. والأسوأ هو أنهم يعملون دون أي دراية، لأنه لا توجد لديهم طريقة للوصول للبيانات لكي يفهموا ما يجري على تلك المنصات. وعلى أي حال، ما هي الحكومات التي يمكن أن نثق بها للقيام بذلك؟ نريد فعلًا عالميًا وليس محليًا.
So what about governments? Many people believe that global regulation is our last hope in terms of cleaning up our information ecosystem. But what I see are lawmakers who are struggling to keep up to date with the rapid changes in technology. And worse, they're working in the dark, because they don't have access to data to understand what's happening on these platforms. And anyway, which governments would we trust to do this? We need a global response, not a national one.
لذا الحلقة المفقودة هي نحن. الناس الذين يستخدمون تلك التكنولوجيا كل يوم. هل يمكننا تصميم بنية تحتية جديدة لدعم جودة المعلومات؟ حسنًا، أعتقد أنه يمكننا ذلك. ولدي بعض الأفكار عما يمكننا القيام به بالفعل. أولاً، إن كنا جادين حقًا بشأن إشراك الناس بهذا الأمر، هل يمكن أن نستلهم من تجربة ويكيبيديا؟ هم أثبتوا أن الأمر ممكن. أجل، التجربة ليست مثالية، لكنهم أظهروا أنه وباستخدام الهياكل الصحيحة، ورقابة عالمية ودرجة كبيرة جدًا من الشفافية، يمكن بناء شيء يحظى بثقة أغلب الناس. لأنه يتوجب علينا أن نجد طريقة لكي نستفيد من الحكمة الجماعية والخبرات التي يمتلكها كل المستخدمين. وهذا ينطبق بالذات على النساء، وذوي البشرة غير البيضاء والمجموعات قليلة التمثيل. هل تعرفون لماذا؟ لأنهم خبراء حين يتعلق الأمر بالكراهية والتضليل، لأنهم شكّلوا أهدافًا لتلك الحملات منذ زمن بعيد. ولقد رفعوا الكثير من علامات التحذير على مر السنين، ولم يتم الانتباه لأي منها. يجب أن يتغير هذا الأمر. فهل يمكننا بناء ويكيبيديا من أجل الاستيثاق؟ هل يمكننا أن نجد طريقة ليتمكن المستخدمون من إضافة رؤيتهم؟ يمكن أن يقدموا رؤاهم بخصوص القرارات الصعبة لمراقبة المحتوى. يمكنهم تقديم ملاحظاتهم حين تقرر المنصات تقديم تغيرات جديدة للمستخدمين.
So the missing link is us. It's those people who use these technologies every day. Can we design a new infrastructure to support quality information? Well, I believe we can, and I've got a few ideas about what we might be able to actually do. So firstly, if we're serious about bringing the public into this, can we take some inspiration from Wikipedia? They've shown us what's possible. Yes, it's not perfect, but they've demonstrated that with the right structures, with a global outlook and lots and lots of transparency, you can build something that will earn the trust of most people. Because we have to find a way to tap into the collective wisdom and experience of all users. This is particularly the case for women, people of color and underrepresented groups. Because guess what? They are experts when it comes to hate and disinformation, because they have been the targets of these campaigns for so long. And over the years, they've been raising flags, and they haven't been listened to. This has got to change. So could we build a Wikipedia for trust? Could we find a way that users can actually provide insights? They could offer insights around difficult content-moderation decisions. They could provide feedback when platforms decide they want to roll out new changes.
ثانيًا، تجارب الناس مع المعلومات لها طابعها الشخصي. الأخبار التي تظهر لي على فيسبوك تختلف عن تلك التي تظهر لك. مفضَلاتك على يوتيوب تختلف تمامًا عن مفضَلاتي. وهو ما يعني أنه من المستحيل أن نتمكن من مراجعة المعلومات التي يطلع عليها الناس. هل يمكننا تخيل تطوير مستودع مركزي ليكون متاحًا لأخذ البيانات المُجهّلة، على أن يتضمن حلولًا لهواجس الخصوصية والأخلاقية؟ تخيلوا ما يمكن أن نعرفه إن أنشأنا شبكة عالمية من مواطنين مهتمين يرغبون في التبرع ببياناتهم الاجتماعية من أجل العِلم. لأننا في الحقيقة نعلم القليل جدًا عن الآثار الطويلة المدى للكراهية والمعلومات المضللة على سلوك الناس وتصرفاتهم. وما نعرفه بالفعل، أنه تم تنفيذ هذا في الولايات المتحدة، بالرغم من أن هذه مشكلة عالمية. يجب أن نهتم بهذا الجانب أيضًا.
Second, people's experiences with the information is personalized. My Facebook news feed is very different to yours. Your YouTube recommendations are very different to mine. That makes it impossible for us to actually examine what information people are seeing. So could we imagine developing some kind of centralized open repository for anonymized data, with privacy and ethical concerns built in? Because imagine what we would learn if we built out a global network of concerned citizens who wanted to donate their social data to science. Because we actually know very little about the long-term consequences of hate and disinformation on people's attitudes and behaviors. And what we do know, most of that has been carried out in the US, despite the fact that this is a global problem. We need to work on that, too.
وثالثًا، هل يمكننا جمع جهات مختلفة معًا؟ لا يتمكن قطاع واحد أو حكومة ناهيك عن منظمات غير ربحية، من حل هذه المشكلة. لكن يوجد الآن أناس أذكياء في جميع أنحاء العالم يعملون على حل هذه التحديات، من غرف الأخبار، إلى المجتمعات المدنية، والمجموعات الأكاديمية وكذلك الناشطون. ويمكنكم أن تروا بعضهم هنا. البعض منهم ينشئ مؤشرات للدلالة على مصداقية المحتوى. ويتأكد آخرون من المعلومات، حتى تعطى الادعاءات والأفلام والصور الكاذبة أولوية أقل في تلك المنصات.
And third, can we find a way to connect the dots? No one sector, let alone nonprofit, start-up or government, is going to solve this. But there are very smart people right around the world working on these challenges, from newsrooms, civil society, academia, activist groups. And you can see some of them here. Some are building out indicators of content credibility. Others are fact-checking, so that false claims, videos and images can be down-ranked by the platforms.
توجد منظمة غير ربحية عملتُ على تأسيسها، تدعى "فورست درافت"، تعمل مع غرف أخبار متنافسة حول العالم لمساعدتها في بناء برامج استقصائية تعاونية. داني هيليس، مهندس برامج كمبيوتر، يصمم برنامجًا جديدًا يسمى "ذي أندرلاي"، سيوثّق لجميع الإصدارات العامة من الحقائق مع ربطها بمصادرها، لكي تتمكن الخوارزميات والناس من تحديد ما هو حقيقي على نحو أدق. كما يوجد مدربون حول العالم يختبرون طرقًا متعددة لجعل الناس أكثر حرصًا عند اختيار المحتوى الذي يشاركونه. جميعها جهود رائعة إلا أنها تبقى منفصلة عن بعضها، وكثير منها يعاني من نقص التمويل.
A nonprofit I helped to found, First Draft, is working with normally competitive newsrooms around the world to help them build out investigative, collaborative programs. And Danny Hillis, a software architect, is designing a new system called The Underlay, which will be a record of all public statements of fact connected to their sources, so that people and algorithms can better judge what is credible. And educators around the world are testing different techniques for finding ways to make people critical of the content they consume. All of these efforts are wonderful, but they're working in silos, and many of them are woefully underfunded.
كما يوجد المئات من الأذكياء الذين يعملون في تلك الشركات، ولكن مرة أخرى، يشعرون أنهم مفككون عن بعضهم، لأنهم في حقيقة الأمر، يطورون حلولًا مختلفة لذات المشكلة.
There are also hundreds of very smart people working inside these companies, but again, these efforts can feel disjointed, because they're actually developing different solutions to the same problems.
كيف يمكننا أن نجمع هؤلاء معًا في مكانٍ واحدٍ لمدة أيام وأسابيع، لكي يتباحثوا في تلك المشاكل معًا ولكن من وجهات نظر مختلفة؟ هل يمكننا القيام بذلك؟ هل يمكننا صياغة استجابة منسقة وطموحة، استجابة تتناسب مع تحديات وتعقيدات المشكلة؟ أعتقد بحق أنه يمكننا ذلك. لنعمل معًا على إعادة بناء معلوماتنا المشتركة.
How can we find a way to bring people together in one physical location for days or weeks at a time, so they can actually tackle these problems together but from their different perspectives? So can we do this? Can we build out a coordinated, ambitious response, one that matches the scale and the complexity of the problem? I really think we can. Together, let's rebuild our information commons.
شكرًا جزيلًا.
Thank you.
(تصفيق)
(Applause)