الذكاء الاصطناعي معروف بتعطيل جميع أنواع الصناعات. ماذا عن الآيس كريم؟ ما هو نوع النكهات الجديدة المذهلة التي يمكن صنعها باستخدام قوة الذكاء الاصطناعي المتقدم؟ لذلك تعاونت مع مجموعة من المبرمجين من مدرسة كيلينغ المتوسطة لمعرفة إجابة هذا السؤال. قاموا بجمع أكثر من 1600 نكهة آيس كريم موجودة بالفعل ثم قمنا معاً بإدخالهم إلى خوارزمية حسابية لنرى ماذا قد ينتج. وهنا لدينا بعض النكهات التي توصل إليها الذكاء الاصطناعي.
So, artificial intelligence is known for disrupting all kinds of industries. What about ice cream? What kind of mind-blowing new flavors could we generate with the power of an advanced artificial intelligence? So I teamed up with a group of coders from Kealing Middle School to find out the answer to this question. They collected over 1,600 existing ice cream flavors, and together, we fed them to an algorithm to see what it would generate. And here are some of the flavors that the AI came up with.
(استراحة قمامة اليقطين)
[Pumpkin Trash Break]
ضحك
(Laughter)
(صلصال زبدة الفول السوداني)
[Peanut Butter Slime]
(مرض قشدة فراولة)
[Strawberry Cream Disease]
(ضحك)
(Laughter)
هذه النكهات ليست لذيذة كما كنا نأمل أن تكون. لذا السؤال هو: ماذا حدث؟ ما الخطأ الذي حدث؟ هل الذكاء الاصطناعي يحاول قتلنا؟ أم أنه يحاول فعل ما نطلب منه وقد كان هناك مشكلة ما؟
These flavors are not delicious, as we might have hoped they would be. So the question is: What happened? What went wrong? Is the AI trying to kill us? Or is it trying to do what we asked, and there was a problem?
في الأفلام، عندما يحدث خطأ مع الذكاء الاصطناعي يكون عادة السبب أن الذكاء الإصطناعي قد قرر أنه لا يريد أن يطيع البشر بعد الآن وأنه قد حصل على هدفه وشكراً جزيلاً لكم. في الحياة الواقعية، الذكاء الاصطناعي الذي نمتلكه فعليا ليس ذكياً بما يكفي لفعل ذلك. إنه يمتلك القدرة الحاسوبية التقريبية لدودة الأرض أو ربما كحد أقصى لنحلة واحدة وربما أقل من ذلك فعليا. وحيث أننا نتعلم باستمرار أشياء جديدة عن العقول التي توضح كم أن الذكاء الاصطناعي لا يرقى إلى مستوى العقول الحقيقية. لذلك فإن الذكاء الاصصناعي هذه الأيام يمكنه أن يقوم بمهمة مثل تحديد المارة في صورة لكنه لا يدرك مفهوم المارة عدا عن أنه مجموعة من الخطوط والأخاديد وأشياء أخرى. إنه لا يعلم ما هو الإنسان فعلياً. لذا فإن السؤال: هل الذكاء الاصطناعي هذه الأيام سوف يفعل ما نطلبه منه؟ إنه سوف يفعل عندما يستطيع لكن ربما قد لا يفعل ماذا نريد نحن فعلياً. دعنا نقول أنك كنت تحاول أن تحصل على ذكاء اصطناعي لتأخذ هذه المجموعة من أجزاء الروبوت وتقوم بتجميعهم في نوع من الروبوت لتصل من النقطة A إلى النقطة B. الآن إذا كنت تحاول أن تجرب وتحل هذه المشكلة عن طريق كتابة برنامج حاسوبي ذو طابع تقليدي فإنك سوف تعطي البرنامج التعليمات خطوة بخطوة عن كيفية أخذ هذه الأجزاء وكيفية تجميعها في روبوت له أقدام من ثم كيفية استخدام تلك الأرجل في المشي إلى النقطة B. لكن عندما تستخدم الذكاء الاصطناعي لحل المشكلة يحدث ذلك بطريقة مختلفة. أنت لاتخبره كيف يمكن أن يحل المشكلة أنت تعطيه فقط الهدف وهو عليه أن يكتشف بنفسه عن طريق التجربة والخطأ كيفية الوصول إلى هذا الهدف. ويتبين أن الطريقة التي يميل بها الذكاء الاصطناعي لحل هذه المشكلة بالذات تتم عن طريق فعل التالي إنه يقوم بجمع نفسه في برج ثم يسقط ويهبط عند النقطة B. وهذه الطريقة تحل المشكلة تقنياً. وصل إلى النقطة B تقنياً. خطر الذكاء الاصطناعي ليس في أنه سوف يتمرد ضدنا الخطر في أنه سوف يقوم بالضبط بفعل ما نطلب منه. وبذلك تصبح خدعة العمل مع الذكاء الاصطناعي هي: كيف نقوم بتنصيب المشكلة كي يفعل ما نريد فعلياً؟
In movies, when something goes wrong with AI, it's usually because the AI has decided that it doesn't want to obey the humans anymore, and it's got its own goals, thank you very much. In real life, though, the AI that we actually have is not nearly smart enough for that. It has the approximate computing power of an earthworm, or maybe at most a single honeybee, and actually, probably maybe less. Like, we're constantly learning new things about brains that make it clear how much our AIs don't measure up to real brains. So today's AI can do a task like identify a pedestrian in a picture, but it doesn't have a concept of what the pedestrian is beyond that it's a collection of lines and textures and things. It doesn't know what a human actually is. So will today's AI do what we ask it to do? It will if it can, but it might not do what we actually want. So let's say that you were trying to get an AI to take this collection of robot parts and assemble them into some kind of robot to get from Point A to Point B. Now, if you were going to try and solve this problem by writing a traditional-style computer program, you would give the program step-by-step instructions on how to take these parts, how to assemble them into a robot with legs and then how to use those legs to walk to Point B. But when you're using AI to solve the problem, it goes differently. You don't tell it how to solve the problem, you just give it the goal, and it has to figure out for itself via trial and error how to reach that goal. And it turns out that the way AI tends to solve this particular problem is by doing this: it assembles itself into a tower and then falls over and lands at Point B. And technically, this solves the problem. Technically, it got to Point B. The danger of AI is not that it's going to rebel against us, it's that it's going to do exactly what we ask it to do. So then the trick of working with AI becomes: How do we set up the problem so that it actually does what we want?
بذلك فإن هذا الروبوت الصغير هنا يتم التحكم به بواسطة ذكاء اصطناعي. توصل الذكاء الاصطناعي لتصميم من أجل أرجل الروبوت من ثم اكتشف كيفية استخدامهم لتجاوز كل هذه العقبات. ولكن عندما قام ديفيد ها بإعداد هذه التجربة كان عليه أن يضعها مع قيود صارمة جدا جدا على مدى حجم الذكاء الاصطناعي المسموح لصنع الأرجل لأنه على خلاف ذلك
So this little robot here is being controlled by an AI. The AI came up with a design for the robot legs and then figured out how to use them to get past all these obstacles. But when David Ha set up this experiment, he had to set it up with very, very strict limits on how big the AI was allowed to make the legs, because otherwise ...
(ضحك)
(Laughter)
ومن الناحية التقنية فإنه وصل إلى نهاية هذه العقبة. إذن ترى مدى صعوبة الحصول على ذكاء اصطناعي لفعل شيء ما بسيط مثل المشي فقط.
And technically, it got to the end of that obstacle course. So you see how hard it is to get AI to do something as simple as just walk.
لذلك رؤية الذكاء الاصطناعي يفعل هذا قد تقول حسناً هذا ليس عدلاً لا يمكنك أن تكون برجاً طويلاً وتسقط عليك مثلاً أن تستخدم الأرجل فعلياً للمشي. ثم يتبين أنه أيضاً لا يجدي نفعأ دائماً. كانت مهمة الذكاء الاصطناعي هذه هي التحرك بسرعة. لم يخبروها أنه كان عليها أن تتجه نحو الأمام أو أنها لا تستطيع استخدام ذراعيها. لذلك هذا ما تحصل عليه عندما تدرب الذكاء الاصطناعي ليتحرك بسرعة قد تحصل على أشياء مثل الشقلبة والمشي الرديء. هذا شائع حقاً. بذلك ترتعش على الأرض في كومة.
So seeing the AI do this, you may say, OK, no fair, you can't just be a tall tower and fall over, you have to actually, like, use legs to walk. And it turns out, that doesn't always work, either. This AI's job was to move fast. They didn't tell it that it had to run facing forward or that it couldn't use its arms. So this is what you get when you train AI to move fast, you get things like somersaulting and silly walks. It's really common. So is twitching along the floor in a heap.
(ضحك)
(Laughter)
لذلك برأيي أنت تعرف ما ينبغي أن يكون أكثر غرابة هو الروبوتات "المدمرة". الشيء الآخر الذي سوف يفعله الذكاء الاصطناعي إذا أعطيته فرصة هو اختراق "القالب". لذلك إذا قمت بتدريب ذكاء اصطناعي في محاكاة فإنه سوف يتعلم كيف يخترق أخطاء المحاكاة الحسابية ويجمعهم للحصول على الطاقة. أو أنه سوف يكتشف كيفية التحرك بشكل أسرع عن طريق الاضطراب مراراً وتكراراً على الأرض عندما تعمل مع ذكاء اصطناعي فإنه أقل شبهاً من العمل مع إنسان آخر وأكثر شبهاً بالعمل مع نوع ما من القوى الغريبة للطبيعة. ومن السهل حقاً أن تعطي الذكاء الاصطناعي عن طريق الخطأ المشكلة الخاطئة ليحلها ونحن لاندرك ذلك غالباًَ حتى يحدث خطاً ما فعلياً.
So in my opinion, you know what should have been a whole lot weirder is the "Terminator" robots. Hacking "The Matrix" is another thing that AI will do if you give it a chance. So if you train an AI in a simulation, it will learn how to do things like hack into the simulation's math errors and harvest them for energy. Or it will figure out how to move faster by glitching repeatedly into the floor. When you're working with AI, it's less like working with another human and a lot more like working with some kind of weird force of nature. And it's really easy to accidentally give AI the wrong problem to solve, and often we don't realize that until something has actually gone wrong.
هنا تجربة قمت بإعدادها حيث أردت أن ينسخ الذكاء الاصطناعي ألوان الطلاء لأخترع ألوان طباعة جديدة مع إعطاء القائمة مثل تلك الموجودة على اليسار. وهنا يظهر ما الذي أتى به الذكاء الاصطناعي.
So here's an experiment I did, where I wanted the AI to copy paint colors, to invent new paint colors, given the list like the ones here on the left. And here's what the AI actually came up with.
(سينديس بوب، توردلي، سفر، غراي ببليك)
[Sindis Poop, Turdly, Suffer, Gray Pubic]
(ضحك)
(Laughter)
إذن من الناحية التقنية قام بما طلبته منه. اعتقدت أني كنت أسأله عن أسماء ألوان طلاء جميلة مثلاً لكن فعلياً ما كنت أطلب فعله كان فقط أن يقلد أنواع مجموعات الحروف التي رآها في النص الأصلي. كما أني لم أخبره أي شيء عن معاني الكلمات أو أن هناك ربما بعض الكلمات التي ينبغي أن يتجنب استخدامها في ألوان الطلاء هذه. بذلك عالمه الكلي هو المعلومات التي أعطيته إياها. كما حدث مع تجربة نكهة الآيس كريم، إنه لا يعرف عن أي شيء آخر.
So technically, it did what I asked it to. I thought I was asking it for, like, nice paint color names, but what I was actually asking it to do was just imitate the kinds of letter combinations that it had seen in the original. And I didn't tell it anything about what words mean, or that there are maybe some words that it should avoid using in these paint colors. So its entire world is the data that I gave it. Like with the ice cream flavors, it doesn't know about anything else.
ذلك عن طريق البيانات التي غالباً نعطيها للذكاء الاصطناعي عن طريق الخطأ ليفعل الشيء الخطأ. هذه سمكة تدعى تنش. وكان هناك مجموعة من الباحثيين الذين دربوا ذكاء اصطناعي على إيجاد هذه السمكة في الصور. لكن بعد ذلك عندما سألوه أي جزء من الصورة كان يستخدم فعلياً لإيجاد السمكة إليكم ما أبرزه. نعم هذه أصابع بشرية. لماذا قد يبحث عن أصابع بشرية عندما يحاول إيجاد السمكة؟ حسناً هذا يوضح أن التنش هي سمكة تذكارية لذا في العديد من الصور التي رأى فيها الذكاء الاصطناعي هذه السمكة خلال التدريب بدت السمكة هكذا.
So it is through the data that we often accidentally tell AI to do the wrong thing. This is a fish called a tench. And there was a group of researchers who trained an AI to identify this tench in pictures. But then when they asked it what part of the picture it was actually using to identify the fish, here's what it highlighted. Yes, those are human fingers. Why would it be looking for human fingers if it's trying to identify a fish? Well, it turns out that the tench is a trophy fish, and so in a lot of pictures that the AI had seen of this fish during training, the fish looked like this.
(ضحك)
(Laughter)
كما أنه لم يكن يعلم أن الأصابع ليست جزءاً من السمكة.
And it didn't know that the fingers aren't part of the fish.
هكذا أنتم تفهمون سبب صعوبة تصميم ذكاء اصطناعي يستطيع أن يفهم فعلياً ما الذي ينظر اليه. وهذا هو السبب في أن تصميم إدراك الصورة في القيادة الذاتية للسيارات صعب للغاية. كما أن العديد من أعطال السيارات ذاتية القيادة هو بسبب أن الذكاء الاصطناعي اختلط عليه الأمر. أريد أن أذكر مثال من عام 2016. وقع حادث قاتل عندما كان يستخدم أحد ما الطيار الآلي تسلا ولكن بدلاً من استخدامه على الطريق السريع كما كان مصمم له استخدموه في شوارع المدينة. وما حدث كان أن شاحنة خرجت أمام السيارة وفشلت السيارة في الضغط على المكابح. تم تدريب الذكاء الاصطناعي الآن على التعرف على الشاحنات في الصور بشكل قطعي. لكن ما يبدو وكأنه حدث هو أنه تم تدريبه للتعرف على الشاحنات في الطريق السريع حيث قد تتوقع رؤية الشاحنات من الخلف. ليس من المفترض أن تقود الشاحنات على الجانب في الطريق السريع ولذلك عندما رأى الذكاء الاصطناعي هذه الشاحنة يبدو أنه أدرك أنها من المرجح أن تكون علامة طريق وبالتالي فهي آمنة للقيادة أسفلها.
So you see why it is so hard to design an AI that actually can understand what it's looking at. And this is why designing the image recognition in self-driving cars is so hard, and why so many self-driving car failures are because the AI got confused. I want to talk about an example from 2016. There was a fatal accident when somebody was using Tesla's autopilot AI, but instead of using it on the highway like it was designed for, they used it on city streets. And what happened was, a truck drove out in front of the car and the car failed to brake. Now, the AI definitely was trained to recognize trucks in pictures. But what it looks like happened is the AI was trained to recognize trucks on highway driving, where you would expect to see trucks from behind. Trucks on the side is not supposed to happen on a highway, and so when the AI saw this truck, it looks like the AI recognized it as most likely to be a road sign and therefore, safe to drive underneath.
وهنا خطأ للذكاء الاصطناعي من مجال مختلف. اضطرت أمازون مؤخرًا إلى التخلي عن خوارزمية فرز السيرة الذاتية التي كانوا يعملون عليها عندما اكتشفوا أن الخوارزمية تعلمت التمييز ضد المرأة. ما حدث هو أنهم تدربوا على عينات من سير ذاتية لأشخاص توظفوا في الماضي. ومن هذه الأمثلة تعلم الذكاء الاصطناعي أن يتجنب السير الذاتية لأشخاص التحقوا بكليات للنساء أو الذين لديهم كلمة "امرأة" في مكان ما من سيرتهم الذاتية كما في "فريق كرة القدم النسائي" أو "جمعية النساء المهندسات". لم يكن يعرف الذكاء الاصطناعي أنه لم يكن من المفترض أن ينسخ هذا الشيء بالتحديد حيث كان يرى البشر يفعلون. ومن الناحية التقنية فقد قام بفعل ما طلبوا منه لكنهم فقط طلبوا أن يفعل الشيء الخطأ عن طريق الخطأ.
Here's an AI misstep from a different field. Amazon recently had to give up on a résumé-sorting algorithm that they were working on when they discovered that the algorithm had learned to discriminate against women. What happened is they had trained it on example résumés of people who they had hired in the past. And from these examples, the AI learned to avoid the résumés of people who had gone to women's colleges or who had the word "women" somewhere in their resume, as in, "women's soccer team" or "Society of Women Engineers." The AI didn't know that it wasn't supposed to copy this particular thing that it had seen the humans do. And technically, it did what they asked it to do. They just accidentally asked it to do the wrong thing.
وهذا يحدث دائماً مع الذكاء الاصطناعي. الذكاء الاصطناعي يمكن أن يكون مدمراً حقاً ولا يعرف ذلك. لذلك فإن الذكاء الاصطناعي الذي يوصي بمحتوى جديد في الفيسبوك أو على اليوتيوب تم تحسينه لزيادة عدد النقرات والمشاهدات. ولسوء الحظ إحدى الطرق التي اكتشفوا فيها القيام بذلك هي التوصية بمحتوى نظريات المؤامرة أو التعصب. لا يملك الذكاء الاصطناعي نفسه أي تصور عن المضمون الفعلي للمحتوى كما أنه ليس لديهم أي فكرة عما قد تكون عليه عواقب التوصية بهذا المحتوى.
And this happens all the time with AI. AI can be really destructive and not know it. So the AIs that recommend new content in Facebook, in YouTube, they're optimized to increase the number of clicks and views. And unfortunately, one way that they have found of doing this is to recommend the content of conspiracy theories or bigotry. The AIs themselves don't have any concept of what this content actually is, and they don't have any concept of what the consequences might be of recommending this content.
لذلك عندما نعمل مع الذكاء الاصطناعي يمكننا أن نتجنب المشاكل. وتجنب أن تسير الأمور بشكل خاطىء قد يرجع ذلك إلى مشكلة التواصل القديمة حيث يتعين علينا كبشر أن نتعلم كيفية التواصل مع الذكاء الاصطناعي. يجب علينا أن نتعلم ما يستطيع الذكاء الاصطناعي فعله وما لايستطيع وأن نفهم ذلك، بعقله الصغير جداً لا يفهم الذكاء الاصطناعي حقاً ما نحاول أن نطلب منه القيام به. بمعنى آخر ، يجب أن نكون مستعدين للعمل مع الذكاء الاصطناعى ليس الذكاء الاصطناعي الفائق الكفاءة والواعي كما في الخيال العلمي. يجب علينا أن نكون مستعدين للعمل مع ذكاء اصطناعى لدينا بالفعل في وقتنا الحالي. وفي الوقت الحاضر، الذكاء الاصطناعي غريب بما فيه الكفاية.
So, when we're working with AI, it's up to us to avoid problems. And avoiding things going wrong, that may come down to the age-old problem of communication, where we as humans have to learn how to communicate with AI. We have to learn what AI is capable of doing and what it's not, and to understand that, with its tiny little worm brain, AI doesn't really understand what we're trying to ask it to do. So in other words, we have to be prepared to work with AI that's not the super-competent, all-knowing AI of science fiction. We have to be prepared to work with an AI that's the one that we actually have in the present day. And present-day AI is plenty weird enough.
شكراً لكم
Thank you.
(تصفيق)
(Applause)