كنت باحثةً في مجال الذكاء الاصطناعي لأكثر من عقد. وقبل شهرين، تلقيت أغرب بريد إلكتروني في حياتي المهنية. كتب لي شخص غريب بشكل عشوائي قائلاً إن عملي في الذكاء الاصطناعي سينهي البشرية. لقد فهمت الآن، الذكاء الاصطناعي، هو موضوع الساعة لآن.
So I've been an AI researcher for over a decade. And a couple of months ago, I got the weirdest email of my career. A random stranger wrote to me saying that my work in AI is going to end humanity. Now I get it, AI, it's so hot right now.
(ضحك)
(Laughter)
إنها تتصدر عناوين الأخبار كل يوم تقريبًا، أحيانًا بسبب أشياء رائعة حقًا مثل اكتشاف جزيئات جديدة للطب أو البابا الرائع في المعطف الأبيض المنتفخ. لكن في أحيان أخرى كانت العناوين الرئيسية مظلمة، مثل روبوت المحادثة الذي يخبر هذا الرجل أنه يجب عليه طلاق زوجته أو تطبيق مخطط الوجبات بالذكاء الاصطناعي الذي يقترح وصفة ترضي الجماهير تحتوي على غاز الكلور. وفي الخلفية، سمعنا الكثير من الحديث عن سيناريوهات يوم القيامة والمخاطر، الوجودية والتفرد، مع كتابة الرسائل وتنظيم الأحداث للتأكد من عدم حدوث ذلك.
It's in the headlines pretty much every day, sometimes because of really cool things like discovering new molecules for medicine or that dope Pope in the white puffer coat. But other times the headlines have been really dark, like that chatbot telling that guy that he should divorce his wife or that AI meal planner app proposing a crowd pleasing recipe featuring chlorine gas. And in the background, we've heard a lot of talk about doomsday scenarios, existential risk and the singularity, with letters being written and events being organized to make sure that doesn't happen.
أنا الآن باحثة تدرس تأثيرات الذكاء الاصطناعي على المجتمع، ولا أعرف ما الذي سيحدث في غضون 10 أو 20 عامًا، ولا أحد يفعل ذلك حقًا. لكن ما أعرفه هو أن هناك بعض الأشياء السيئة جدًا التي تحدث الآن، لأن الذكاء الاصطناعي لا يوجد في فراغ. إنه جزء من المجتمع، وله تأثيرات على الناس والكوكب.
Now I'm a researcher who studies AI's impacts on society, and I don't know what's going to happen in 10 or 20 years, and nobody really does. But what I do know is that there's some pretty nasty things going on right now, because AI doesn't exist in a vacuum. It is part of society, and it has impacts on people and the planet.
يمكن أن تساهم نماذج الذكاء الاصطناعي في تغير المناخ. تستخدم بيانات التدريب الخاصة بهم الفن والكتب التي أنشأها الفنانون والمؤلفون دون موافقتهم. ويمكن أن يؤدي نشرها إلى التمييز ضد مجتمعات بأكملها. لكننا بحاجة إلى البدء في تتبع آثاره. نحن بحاجة إلى البدء في التحلي بالشفافية والكشف عنها وإنشاء أدوات حتى يفهم الناس الذكاء الاصطناعي بشكل أفضل، بحيث نأمل أن تكون الأجيال القادمة من نماذج الذكاء الاصطناعي أكثر موثوقية واستدامة، وربما أقل عرضة لقتلنا، إذا كان هذا هو ما أنت مهتم به.
AI models can contribute to climate change. Their training data uses art and books created by artists and authors without their consent. And its deployment can discriminate against entire communities. But we need to start tracking its impacts. We need to start being transparent and disclosing them and creating tools so that people understand AI better, so that hopefully future generations of AI models are going to be more trustworthy, sustainable, maybe less likely to kill us, if that's what you're into.
ولكن لنبدأ بالاستدامة، لأن تلك السحابة التي تعيش عليها نماذج الذكاء الاصطناعي هي في الواقع مصنوعة من المعدن والبلاستيك وتعمل بكميات هائلة من الطاقة. وفي كل مرة تستفسر فيها عن نموذج الذكاء الاصطناعي، فإن ذلك يأتي بتكلفة على الكوكب. في العام الماضي، كنت جزءًا من مبادرة BigScience، التي جمعت ألف باحث من جميع أنحاء العالم لإنشاء Bloom، أول نموذج لغة مفتوح كبير، مثل ChatGPT، ولكن مع التركيز على الأخلاق والشفافية والموافقة. ووجدت الدراسة التي قمت بقيادتها والتي نظرت في التأثيرات البيئية لشركة بلوم أن مجرد تدريبها ستهلك قدرًا من الطاقة يصل إلى 30 منزلًا في عام كامل وانبعث منه 25 طنًا من ثاني أكسيد الكربون، وهو ما يشبه قيادة سيارتك خمس مرات حول الكوكب فقط حتى يتمكن شخص ما من استخدام هذا النموذج لإلقاء نكتة. وقد لا يبدو هذا كثيرًا، لكن نماذج اللغات الكبيرة المماثلة الأخرى، مثل GPT-3، تنبعث منها أكثر 20 مرة من الكربون. لكن الأمر هو أن شركات التكنولوجيا لا تقيس هذه الأشياء. إنهم لا يكشفون عنها. ولذا ربما يكون هذا مجرد غيض من فيض، حتى لو كان ذائبًا.
But let's start with sustainability, because that cloud that AI models live on is actually made out of metal, plastic, and powered by vast amounts of energy. And each time you query an AI model, it comes with a cost to the planet. Last year, I was part of the BigScience initiative, which brought together a thousand researchers from all over the world to create Bloom, the first open large language model, like ChatGPT, but with an emphasis on ethics, transparency and consent. And the study I led that looked at Bloom's environmental impacts found that just training it used as much energy as 30 homes in a whole year and emitted 25 tons of carbon dioxide, which is like driving your car five times around the planet just so somebody can use this model to tell a knock-knock joke. And this might not seem like a lot, but other similar large language models, like GPT-3, emit 20 times more carbon. But the thing is, tech companies aren't measuring this stuff. They're not disclosing it. And so this is probably only the tip of the iceberg, even if it is a melting one.
وفي السنوات الأخيرة، رأينا نماذج الذكاء الاصطناعي تتضخم في الحجم لأن الاتجاه الحالي في الذكاء الاصطناعي هو «الأكبر هو الأفضل». ولكن من فضلك لا تجعلني أبدأ في معرفة سبب ذلك. على أي حال، رأينا نماذج اللغات الكبيرة على وجه الخصوص تنمو 2000 مرة في الحجم على مدى السنوات الخمس الماضية. وبالطبع، فإن تكاليفها البيئية ترتفع أيضًا. وجدت أحدث الأعمال التي قمت بقيادتها أن تبديل نموذج أصغر وأكثر كفاءة لنموذج لغوي أكبر ينبعث 14 مرة أكثر من الكربون لنفس المهمة. مثل قول تلك النكتة القاعية. وبينما نضع هذه النماذج في الهواتف المحمولة ومحركات البحث والثلاجات الذكية ومكبرات الصوت، فإن التكاليف البيئية تتراكم بسرعة كبيرة. لذا بدلاً من التركيز على بعض المخاطر الوجودية المستقبلية، دعونا نتحدث عن التأثيرات الملموسة الحالية والأدوات التي يمكننا إنشاؤها لقياس هذه التأثيرات والتخفيف منها.
And in recent years we've seen AI models balloon in size because the current trend in AI is "bigger is better." But please don't get me started on why that's the case. In any case, we've seen large language models in particular grow 2,000 times in size over the last five years. And of course, their environmental costs are rising as well. The most recent work I led, found that switching out a smaller, more efficient model for a larger language model emits 14 times more carbon for the same task. Like telling that knock-knock joke. And as we're putting in these models into cell phones and search engines and smart fridges and speakers, the environmental costs are really piling up quickly. So instead of focusing on some future existential risks, let's talk about current tangible impacts and tools we can create to measure and mitigate these impacts.
لقد ساعدت في إنشاء CodeCarbon، وهي أداة تعمل بالتوازي مع كود تدريب الذكاء الاصطناعي الذي يقدر كمية الطاقة التي تستهلكها وكمية الكربون التي تنبعث منها. واستخدام أداة مثل هذه يمكن أن يساعدنا في اتخاذ خيارات مستنيرة، مثل اختيار نموذج واحد على الآخر لأنه أكثر استدامة، أو نشر نماذج الذكاء الاصطناعي على الطاقة المتجددة، والتي يمكن أن تقلل بشكل كبير من انبعاثاتها.
I helped create CodeCarbon, a tool that runs in parallel to AI training code that estimates the amount of energy it consumes and the amount of carbon it emits. And using a tool like this can help us make informed choices, like choosing one model over the other because it's more sustainable, or deploying AI models on renewable energy, which can drastically reduce their emissions.
ولكن دعونا نتحدث عن أشياء أخرى لأن هناك تأثيرات أخرى للذكاء الاصطناعي بصرف النظر عن الاستدامة. على سبيل المثال، كان من الصعب حقًا على الفنانين والمؤلفين إثبات أن أعمال حياتهم قد استخدمت لتدريب نماذج الذكاء الاصطناعي دون موافقتهم. وإذا كنت تريد مقاضاة شخص ما، فأنت تميل إلى الحاجة إلى دليل، أليس كذلك؟ لذا فإن Spawning.ai، وهي منظمة أسسها فنانون، أنشأت هذه الأداة الرائعة حقًا المسماة «هل تم تدريبي؟» ويتيح لك البحث في مجموعات البيانات الضخمة هذه لمعرفة ما لديها عنك. الآن، أعترف بذلك، كنت أشعر بالفضول. لقد بحثت في LAION-5B، وهي مجموعة البيانات الضخمة هذه من الصور والنصوص، لمعرفة ما إذا كانت هناك أي صور لي هناك. الآن هاتان الصورتان الأوليان، هذه أنا من الأحداث التي تحدثت فيها. لكن بقية الصور، ليست لي. من المحتمل أنهن لنساء أخريات تدعى ساشا وضعن صورًا لأنفسهن على الإنترنت. وربما يفسر هذا لماذا، عندما أستفسر عن نموذج لتوليد الصور لإنشاء صورة لامرأة تدعى ساشا، أحصل في كثير من الأحيان على صور لنماذج البكيني. في بعض الأحيان يكون لديهم ذراعان، وأحيانًا لديهم ثلاثة أذرع، لكن نادرًا ما يرتدون أي ملابس. وفي حين أنه قد يكون من الممتع لأشخاص مثلي ومثلك البحث في مجموعات البيانات هذه، بالنسبة لفنانين مثل كارلا أورتيس، فإن هذا يوفر دليلًا حاسمًا على استخدام أعمال حياتها وأعمالها الفنية لتدريب نماذج الذكاء الاصطناعي دون موافقتها، وقد استخدمت هي وفنانان هذا كدليل لرفع دعوى قضائية جماعية ضد شركات الذكاء الاصطناعي بسبب انتهاك حقوق الطبع والنشر. ومؤخراً --
But let's talk about other things because there's other impacts of AI apart from sustainability. For example, it's been really hard for artists and authors to prove that their life's work has been used for training AI models without their consent. And if you want to sue someone, you tend to need proof, right? So Spawning.ai, an organization that was founded by artists, created this really cool tool called “Have I Been Trained?” And it lets you search these massive data sets to see what they have on you. Now, I admit it, I was curious. I searched LAION-5B, which is this huge data set of images and text, to see if any images of me were in there. Now those two first images, that's me from events I've spoken at. But the rest of the images, none of those are me. They're probably of other women named Sasha who put photographs of themselves up on the internet. And this can probably explain why, when I query an image generation model to generate a photograph of a woman named Sasha, more often than not I get images of bikini models. Sometimes they have two arms, sometimes they have three arms, but they rarely have any clothes on. And while it can be interesting for people like you and me to search these data sets, for artists like Karla Ortiz, this provides crucial evidence that her life's work, her artwork, was used for training AI models without her consent, and she and two artists used this as evidence to file a class action lawsuit against AI companies for copyright infringement. And most recently --
(تصفيق)
(Applause)
ومؤخراً، دخلت Spawning.ai في شراكة مع Hugging Face، الشركة التي أعمل فيها، لإنشاء آليات الاشتراك وإلغاء الاشتراك لإنشاء مجموعات البيانات هذه. لأن الأعمال الفنية التي ابتكرها البشر لا ينبغي أن تكون بوفيه كل ما يمكنك تناوله لتدريب نماذج لغة الذكاء الاصطناعي.
And most recently Spawning.ai partnered up with Hugging Face, the company where I work at, to create opt-in and opt-out mechanisms for creating these data sets. Because artwork created by humans shouldn’t be an all-you-can-eat buffet for training AI language models.
(تصفيق)
(Applause)
آخر شيء أريد الحديث عنه هو التحيز. ربما تسمع عن هذا كثيرًا. من الناحية الرسمية، يحدث ذلك عندما تقوم نماذج الذكاء الاصطناعي بترميز الأنماط والمعتقدات التي يمكن أن تمثل الصور النمطية أو العنصرية والتمييز الجنسي. اختبرت إحدى أبطالي، الدكتورة جوي بولامويني، هذا الأمر بشكل مباشر عندما أدركت أن أنظمة الذكاء الاصطناعي لن تكتشف وجهها حتى إلا إذا كانت ترتدي قناعًا أبيض اللون. وبالتعمق أكثر، وجدت أن أنظمة التعرف على الوجه الشائعة كانت أسوأ بكثير بالنسبة للنساء ذوات البشرة الملونة مقارنة بالرجال البيض. وعندما يتم نشر نماذج متحيزة مثل هذه في بيئات إنفاذ القانون، يمكن أن يؤدي ذلك إلى اتهامات كاذبة، وحتى السجن غير المشروع، وهو ما رأيناه يحدث لعدة أشخاص في الأشهر الأخيرة. على سبيل المثال، اتُهمت بورشا وودروف ظلماً بسرقة سيارة وهي حامل في شهرها الثامن لأن نظام الذكاء الاصطناعي تعرّف عليها بشكل خاطئ.
The very last thing I want to talk about is bias. You probably hear about this a lot. Formally speaking, it's when AI models encode patterns and beliefs that can represent stereotypes or racism and sexism. One of my heroes, Dr. Joy Buolamwini, experienced this firsthand when she realized that AI systems wouldn't even detect her face unless she was wearing a white-colored mask. Digging deeper, she found that common facial recognition systems were vastly worse for women of color compared to white men. And when biased models like this are deployed in law enforcement settings, this can result in false accusations, even wrongful imprisonment, which we've seen happen to multiple people in recent months. For example, Porcha Woodruff was wrongfully accused of carjacking at eight months pregnant because an AI system wrongfully identified her.
ولكن للأسف، هذه الأنظمة عبارة عن صناديق سوداء، وحتى منشئوها لا يمكنهم تحديد سبب عملها بالطريقة التي يعملون بها بالضبط. وعلى سبيل المثال، بالنسبة لأنظمة توليد الصور، إذا تم استخدامها في سياقات مثل إنشاء رسم تخطيطي للطب الشرعي استنادًا إلى وصف الجاني، فإنها تأخذ كل تلك التحيزات وتعيد نشرها لمصطلحات مثل مجرم خطير أو إرهابي أو عضو عصابة، وهو بالطبع أمر خطير للغاية عندما يتم نشر هذه الأدوات في المجتمع.
But sadly, these systems are black boxes, and even their creators can't say exactly why they work the way they do. And for example, for image generation systems, if they're used in contexts like generating a forensic sketch based on a description of a perpetrator, they take all those biases and they spit them back out for terms like dangerous criminal, terrorists or gang member, which of course is super dangerous when these tools are deployed in society.
ومن أجل فهم هذه الأدوات بشكل أفضل، قمت بإنشاء هذه الأداة المسماة Stable Bias Explorer، والتي تتيح لك استكشاف تحيز نماذج توليد الصور من منظور المهن. لذا حاول تصوير عالم في ذهنك. لا تنظر إلي. ماذا ترى؟ الكثير من نفس الشيء، أليس كذلك؟ رجال يرتدون النظارات ومعاطف المختبر. ولا أحد منهم يشبهني. والأمر هو أننا نظرنا إلى كل هذه النماذج المختلفة لتوليد الصور ووجدنا الكثير من الشيء نفسه: تمثيل كبير للبياض والذكورة في جميع المهن الـ150 التي نظرنا إليها، حتى لو تمت مقارنتها بالعالم الحقيقي، مكتب إحصاءات العمل الأمريكي. تُظهر هذه النماذج المحامين كرجال، والرؤساء التنفيذيين كرجال، ما يقرب من 100 في المائة من الوقت، على الرغم من أننا نعلم جميعًا أنهم ليسوا جميعًا من البيض والذكور.
And so in order to understand these tools better, I created this tool called the Stable Bias Explorer, which lets you explore the bias of image generation models through the lens of professions. So try to picture a scientist in your mind. Don't look at me. What do you see? A lot of the same thing, right? Men in glasses and lab coats. And none of them look like me. And the thing is, is that we looked at all these different image generation models and found a lot of the same thing: significant representation of whiteness and masculinity across all 150 professions that we looked at, even if compared to the real world, the US Labor Bureau of Statistics. These models show lawyers as men, and CEOs as men, almost 100 percent of the time, even though we all know not all of them are white and male.
وللأسف، لم يتم استخدام أداتي لكتابة التشريعات حتى الآن. لكنني عرضتها مؤخرًا في حدث للأمم المتحدة حول التحيز بين الجنسين كمثال على كيفية صنع أدوات للأشخاص من جميع مناحي الحياة، حتى أولئك الذين لا يعرفون كيفية البرمجة، للتفاعل مع الذكاء الاصطناعي وفهمه بشكل أفضل لأننا نستخدم المهن، ولكن يمكنك استخدام أي مصطلحات تهمك.
And sadly, my tool hasn't been used to write legislation yet. But I recently presented it at a UN event about gender bias as an example of how we can make tools for people from all walks of life, even those who don't know how to code, to engage with and better understand AI because we use professions, but you can use any terms that are of interest to you.
وبينما يتم نشر هذه النماذج، يتم نسجها في نسيج مجتمعاتنا، وهواتفنا المحمولة، ووسائل التواصل الاجتماعي الخاصة بنا، وحتى أنظمتنا القضائية واقتصاداتنا تحتوي على الذكاء الاصطناعي. ومن المهم حقًا أن يظل الذكاء الاصطناعي متاحًا حتى نعرف كيف يعمل ومتى لا يعمل. ولا يوجد حل واحد للأشياء المعقدة حقًا مثل التحيز أو حقوق النشر أو تغير المناخ. ولكن من خلال إنشاء أدوات لقياس تأثير الذكاء الاصطناعي، يمكننا البدء في الحصول على فكرة عن مدى سوء هذه العوامل والبدء في معالجتها مع تقدمنا. ابدأ في إنشاء حواجز حماية لحماية المجتمع والكوكب. وبمجرد حصولنا على هذه المعلومات، يمكن للشركات استخدامها لتقول، حسنًا، سنختار هذا النموذج لأنه أكثر استدامة، هذا النموذج لأنه يحترم حقوق الطبع والنشر. يمكن للمشرعين الذين يحتاجون حقًا إلى معلومات لكتابة القوانين، استخدام هذه الأدوات لتطوير آليات تنظيمية جديدة أو حوكمة للذكاء الاصطناعي عند نشره في المجتمع. ويمكن للمستخدمين مثلك ومثلي استخدام هذه المعلومات لاختيار نماذج الذكاء الاصطناعي التي يمكننا الوثوق بها، وليس لتحريف صورتنا وعدم إساءة استخدام بياناتنا.
And as these models are being deployed, are being woven into the very fabric of our societies, our cell phones, our social media feeds, even our justice systems and our economies have AI in them. And it's really important that AI stays accessible so that we know both how it works and when it doesn't work. And there's no single solution for really complex things like bias or copyright or climate change. But by creating tools to measure AI's impact, we can start getting an idea of how bad they are and start addressing them as we go. Start creating guardrails to protect society and the planet. And once we have this information, companies can use it in order to say, OK, we're going to choose this model because it's more sustainable, this model because it respects copyright. Legislators who really need information to write laws, can use these tools to develop new regulation mechanisms or governance for AI as it gets deployed into society. And users like you and me can use this information to choose AI models that we can trust, not to misrepresent us and not to misuse our data.
ولكن ماذا أجبت على تلك الرسالة الإلكترونية التي قالت إن عملي سيدمر البشرية؟ قلت إن التركيز على المخاطر الوجودية المستقبلية للذكاء الاصطناعي هو صرف الانتباه عن آثاره الحالية والملموسة للغاية، والعمل الذي يجب أن نقوم به الآن، أو حتى بالأمس، للحد من هذه التأثيرات. لأن نعم، الذكاء الاصطناعي يتحرك بسرعة، لكنه ليس صفقة منتهية. نحن نبني الطريق ونحن نسير فيه، ويمكننا بشكل جماعي أن نقرر الاتجاه الذي نريد أن نسير فيه معًا.
But what did I reply to that email that said that my work is going to destroy humanity? I said that focusing on AI's future existential risks is a distraction from its current, very tangible impacts and the work we should be doing right now, or even yesterday, for reducing these impacts. Because yes, AI is moving quickly, but it's not a done deal. We're building the road as we walk it, and we can collectively decide what direction we want to go in together.
شكرًا لكم.
Thank you.
(تصفيق)
(Applause)