عندما كنت صغيراً، كنت شغوفاً بالدراسة أظن أن بعضاً منكم كان كذلك، أيضاًً.
When I was a kid, I was the quintessential nerd. I think some of you were, too.
(ضحك)
(Laughter)
و أنت يا سيدي، الذي ضحكت بشدة، من المحتمل أنك مازلت كذلك.
And you, sir, who laughed the loudest, you probably still are.
(ضحك)
(Laughter)
لقد عشت في بلدة صغيرة في أحد ضواحي نورث تكساس، كوني ولداً لضابط في الشرطة وهو حفيد لقس. فإن الوقوع في المشاكل لم يكن من خياراتي. فبدأت بقراءة كتب الرياضيات للترفيه.
I grew up in a small town in the dusty plains of north Texas, the son of a sheriff who was the son of a pastor. Getting into trouble was not an option. And so I started reading calculus books for fun.
(ضحك)
(Laughter)
أنتم فعلتم ذلك، أيضاً. قادني ذلك لعمل ليزر وحاسوب ونماذج صواريخ، فأنشأت ورشة صواريخ في غرفة نومي. الآن، علمياً، نسمي هذه بالفكرة السيئة جداً.
You did, too. That led me to building a laser and a computer and model rockets, and that led me to making rocket fuel in my bedroom. Now, in scientific terms, we call this a very bad idea.
(ضحك)
(Laughter)
في ذلك الوقت، رواية ستاني كوبورز "ملحمة الفضاء" أصبحت في دور العرض، وبذلك تغيرت حياتي للأبد. لقد أحببت كل شيء في ذلك الفلم، خصوصي "هال" 9000. "هال" كان حاسوباً واعياً مصمماً لقيادة سفينة الاستكشاف من الأرض إلى المشترى. "هال" كان شخصيةً سيئة، في النهاية لقد اختار إتمام المهمة عوضاً عن إنقاذ البشرية. "هال" كان شخصيةً خياليََة، لكن ومع ذلك لقد تحاكى مع مخاوفنا، مخاوفنا في التعامل مع ذكاء اصطناعي عديم المشاعر لا يختلف عنا نحن البشر.
Around that same time, Stanley Kubrick's "2001: A Space Odyssey" came to the theaters, and my life was forever changed. I loved everything about that movie, especially the HAL 9000. Now, HAL was a sentient computer designed to guide the Discovery spacecraft from the Earth to Jupiter. HAL was also a flawed character, for in the end he chose to value the mission over human life. Now, HAL was a fictional character, but nonetheless he speaks to our fears, our fears of being subjugated by some unfeeling, artificial intelligence who is indifferent to our humanity.
أنا أؤمن بأن هذه المخاوف لا وجود لها. في الواقع، نحن نعيش وقتاً مميزاً في تاريخ البشريََة، حيث نسير رافضين وضع حدود لقدراتنا العقلية والجسدية، نقوم ببناء آلات ذات تعقيد وأداء رائعين وجميلين ستسهم في توسيع المعرفة البشريََة لمراحل لا يمكن تصورها.
I believe that such fears are unfounded. Indeed, we stand at a remarkable time in human history, where, driven by refusal to accept the limits of our bodies and our minds, we are building machines of exquisite, beautiful complexity and grace that will extend the human experience in ways beyond our imagining.
عبر خبرتي المهنية من الكلية الجوية إلى توجيه سفن الفضاء، إلى الوقت الحالي، أصبحت مهندس أنظمة، ومؤخراً تم توكيلي بمهمة حل مشكلة هندسية متعلََقة بعملية وكالة الفضاء "ناسا" في المريخ. حالياً، في الرحلات الفضائية إلى القمر، يمكننا الإعتماد على نظام الملاحة المسمََى "هيوستون" لمتابعة كافة تفاصيل الرحلة. ولكن المريخ يبعد مئتي ضعف مقارنة بالقمر، وبالتالي نحتاج في المتوسط ل 13 دقيقة لتنتقل الإشارة من الأرض إلى المريخ، وإذا ما حدثت مشكلة، لا يوجد وقت كاف لتفاديها. ولذلك فإن الحل الهندسي الأكثر فائدة يدعونا لوضع جهاز توجيه للحركة (جهاز ملاحة) داخل جدران المركبة الفضائية. وفكرة أخرى جميلة تصب في مجال أداء العملية هي إرسال رجال آليين ووضعهم فوق سطح المريخ قبل وصول البشر بنفسهم إلى هناك، أولاً لتقديم بعض التسهيلات ومن ثمََ كأعضاء متعاونين في الفريق العلمي.
After a career that led me from the Air Force Academy to Space Command to now, I became a systems engineer, and recently I was drawn into an engineering problem associated with NASA's mission to Mars. Now, in space flights to the Moon, we can rely upon mission control in Houston to watch over all aspects of a flight. However, Mars is 200 times further away, and as a result it takes on average 13 minutes for a signal to travel from the Earth to Mars. If there's trouble, there's not enough time. And so a reasonable engineering solution calls for us to put mission control inside the walls of the Orion spacecraft. Another fascinating idea in the mission profile places humanoid robots on the surface of Mars before the humans themselves arrive, first to build facilities and later to serve as collaborative members of the science team.
حالياًً عندما أتمعن في هذه الفكرة من منظور هندسي، فإنني أرى بشكل واضح أن ما أخطط له هو حل ذكي، متعاون، يتمتع بالذكاء الاصطناعي والاجتماعي. بعبارة أخرى، أريد بناء ما يشبه "هال" إلى حد كبير ولكن بدون أن يكون له نزعات للقتل.
Now, as I looked at this from an engineering perspective, it became very clear to me that what I needed to architect was a smart, collaborative, socially intelligent artificial intelligence. In other words, I needed to build something very much like a HAL but without the homicidal tendencies.
(ضحك)
(Laughter)
لنتوقف للحظة. هل من الممكن بناء نظام ذكي مثل هذا؟ في الواقع، أجل. بتصورات مختلفة، إن هذه مشكلة هندسية صعبة تضمن عناصر ذكاء اصطناعي، ليست مجرد مسألة ذكاء اصطناعي بسيطة يمكن إنشاؤها. كما ورد عن "آلان تورنج"، أنا لست مهتما بآلة ذات إحساس. أنا لا أقوم بصناعة "هال". كل ما أريد إنجازه هو مجرد عقل بسيط، يمكنه تقديم هذا الذكاء الخيالي.
Let's pause for a moment. Is it really possible to build an artificial intelligence like that? Actually, it is. In many ways, this is a hard engineering problem with elements of AI, not some wet hair ball of an AI problem that needs to be engineered. To paraphrase Alan Turing, I'm not interested in building a sentient machine. I'm not building a HAL. All I'm after is a simple brain, something that offers the illusion of intelligence.
إن علوم وفنون الحاسوب قد أثمرت في نهاية المطاف منذ ظهور "هال" على الشاشة، وأظن في حال وجود المخترع الدكتور "شاندرو" هنا اليوم، فإنه سوف يكون لديه العديد من التساؤلات. هل بالفعل يمكننا تكوين نظام يحوي ملايين ملايين الأجهزة، يمكنه قراءة معطياتها، التنبؤ بحالات حصول الخطأ، و التصرف قبل وقوعه؟ أجل. هل يمكننا بناء نظام يمكنه التحاكي مع البشر بلغاتهم؟ أجل. هل يمكننا بناء أنظمة يمكنها التعرف على الأجسام، وعلى حركتها، والشعور بأنفسها، أو اللعب بألعاب الحاسب وقراءة حركة الشفاه؟ أجل. هل يمكننا بناء نظام يضع أهدافاًً لنفسه، يتوجب الوصول إليها وضع خطط يتعلمها حتى يصل هدفه؟ أجل. هل يمكننا بناء أنظمة تستطيع التفكير؟ هذا ما نقوم بالتعلم لإنجازه. هل يمكننا بناء أنظمة ذات اعتقادات أدبية وخُلقية؟ هذا ما يتوجب علينا تعلم كيفية إنجازه. إذا، لنتقبَََل حالياً القدرة على بناء نظام كهذا من أجل مهمة كهذه وغيرها.
The art and the science of computing have come a long way since HAL was onscreen, and I'd imagine if his inventor Dr. Chandra were here today, he'd have a whole lot of questions for us. Is it really possible for us to take a system of millions upon millions of devices, to read in their data streams, to predict their failures and act in advance? Yes. Can we build systems that converse with humans in natural language? Yes. Can we build systems that recognize objects, identify emotions, emote themselves, play games and even read lips? Yes. Can we build a system that sets goals, that carries out plans against those goals and learns along the way? Yes. Can we build systems that have a theory of mind? This we are learning to do. Can we build systems that have an ethical and moral foundation? This we must learn how to do. So let's accept for a moment that it's possible to build such an artificial intelligence for this kind of mission and others.
السؤال الآخر الذي ينبغي عليكم سؤاله هو، هل ينبغي علينا الخوف منه؟ حسناً، كل تقنية جديدة تجلب معها شيئاً من الريبة. عندما رأينا السيارات لأول مرة، توقع البشر حدوث دمار للعائلة. عندما رأينا الهواتف لأول مرة، قلق الناس من قيامها بإنهاء المحادثات الشخصية. في الماضي عندما انتشرت الكلمة المكتوبة، ظن البشر أننا سنفقد قدرتنا على التذكر. هذه التنبؤات واقعية لحد معين، ولكن هذه التقنيات جلبت لنا ما زاد خبرتنا كبشر بطرقٍ عميقة.
The next question you must ask yourself is, should we fear it? Now, every new technology brings with it some measure of trepidation. When we first saw cars, people lamented that we would see the destruction of the family. When we first saw telephones come in, people were worried it would destroy all civil conversation. At a point in time we saw the written word become pervasive, people thought we would lose our ability to memorize. These things are all true to a degree, but it's also the case that these technologies brought to us things that extended the human experience in some profound ways.
لنتوسع في هذه النقطة بعض الشيء. أنا لا أخاف من بناء أنظمة ذكاء اصطناعي كهذه، ﻷنها بالنتيجة ستقوم باستعمال معاييرنا. لنأخذ بعين الاعتبار أن بناء نظام واع يختلف تماماً عن بناء النظام التقليدي المعقد في الماضي. نحن لا نقوم ببرمجتها، نحن نعلِِمها. لتعليم نظام كيف يتعرف على الورود، أُريه آلاف الورود، من الأنواع المفضلة لدي. لتعليم نظام كيف يلعب لعبة حسنا، أريد فعل ذلك. و أنتم تريدون، أيضاً. أنا أحب الورود، صدقوني. لتعليم نظام كيفية لعب لعبة ك "جو"، أقوم بلعب ال "جو" آلاف المرات، ضمنياً أقوم بتعليمه التمييز بين اللعبة الجيدة من السيئة. إذا أردت إنشاء مساعد قانوني ذكي، سوف أعلمه بعض قواعد القانون ولكن بنفس الوقت أقوم بتمرير إحساس الرحمة والعدل المتعلق بهذا القانون. علمياً نطلق على هذه العملية "القاعدة الحقيقية"، هنا تكمن النقطة المهمة: لإنشاء آلات كهذه، نحن نقوم بتعليمها الشعور بقيمنا. إلى هنا، أنا أثق بالذكاء الاصطناعي بما يساوي، إن لم يزِد، إنساناً جيد التدريب.
So let's take this a little further. I do not fear the creation of an AI like this, because it will eventually embody some of our values. Consider this: building a cognitive system is fundamentally different than building a traditional software-intensive system of the past. We don't program them. We teach them. In order to teach a system how to recognize flowers, I show it thousands of flowers of the kinds I like. In order to teach a system how to play a game -- Well, I would. You would, too. I like flowers. Come on. To teach a system how to play a game like Go, I'd have it play thousands of games of Go, but in the process I also teach it how to discern a good game from a bad game. If I want to create an artificially intelligent legal assistant, I will teach it some corpus of law but at the same time I am fusing with it the sense of mercy and justice that is part of that law. In scientific terms, this is what we call ground truth, and here's the important point: in producing these machines, we are therefore teaching them a sense of our values. To that end, I trust an artificial intelligence the same, if not more, as a human who is well-trained.
لكن، قد تسألون، ماذا عن العملاء المحتالين، المؤسسات غير الحكومية ذات الدعم المادي القوي؟ أنا لا أخاف من الذكاء الاصطناعي في يد ثعلب وحيد. بشكل صريح، لا يمكننا حماية أنفسنا من كافة أشكال العنف، لكن في الواقع نظام كهذا يحتاج لإنجاز تدريبات كثيفة ومعقدة تفوق قدرة الفرد الواحد. أيضاًً، إنها أصعب من مجرد إدخال فايروس إلى العالم عبر الإنترنت، حيث بضغطة زر، ينتشر في ملايين الأجهزة وتتعطل الحواسيب المحمولة في كل مكان. إن هذه الأمور أكبر بكثير، ونحن نراها في المستقبل.
But, you may ask, what about rogue agents, some well-funded nongovernment organization? I do not fear an artificial intelligence in the hand of a lone wolf. Clearly, we cannot protect ourselves against all random acts of violence, but the reality is such a system requires substantial training and subtle training far beyond the resources of an individual. And furthermore, it's far more than just injecting an internet virus to the world, where you push a button, all of a sudden it's in a million places and laptops start blowing up all over the place. Now, these kinds of substances are much larger, and we'll certainly see them coming.
هل أخاف من هكذا ذكاء اصطناعي قد يهدد البشرية جمعاء؟ إذا ما تابعتم أفلام ك "ماتريكس"، و"شرطة القطار" و"المدمر"، ومسلسلات مثل "العالم الغربي" فإن كلها تتحدث عن هذه المخاوف. في الواقع، في كتاب "الذكاء الخارق" للفيلسوف "نيك بوستروم"، يتناول هذه النمطية ويرى أن الذكاء الخارق ليس مجرد خطر فحسب، وإنما يمكن أن يمثل تهديداً حقيقياً لكافة البشرية. الجدل الأساسي للدكتور "بوستروم" أن هذه الأنظمة بشكل مفاجيء ستصبح متعطشة بشكل شديد للمعلومات وبالتالي سوف تتعلم كيف تتم عملية التعلم ومن ثم تكتشف أن لديها أهدافاً تخالف ما يحتاجه البشر. الدكتور "بوستروم" لديه عدد من الأتباع. و يدعمه في تفكيره أشخاص ك "إيلون موسك" و "ستيفن هاوكنج". مع كل احترامي لهذه العقول الرائعة، إلا أني أؤمن بأنهم على خطأ. هناك العديد من جدليات الدكتور "بوستوم" للمناقشة، وليس لدي وقت كاف لمناقشتها كلها، لكن بشكل مختصر، فكروا في هذه: المعرفة الفائقة تختلف بشكل أساسي عن العمل الخارق. "هال" كان خطراً على فريق الاستكشاف فقط عندما قام "هال" بإصدار التعليمات كافة في عملية الاستكشاف. لذا هذه الفكرة مرتبطة بالذكاء الخارق. من الممكن أن تسيطر على عالمنا. هذه الأشياء مقتبسة من فلم "المدمر" حيث لدينا ذكاء خارق يقود رغبة البشر، يتحكم بكل جهاز موجود في كل زاوية في أنحاء العالم. للحديث بشكل عملي، هذا لن يحدث. نحن لا نقوم ببناء أنظمة ذكاء اصطناعي تتحكم بحالة الطقس، وتوجه المد والجزر، وتأمرنا نحن البشر المتقلبين العشوائيين. وللمزيد، إذا وُجدت أنظمة ذكاء اصطناعي كهذه، ستنافس اقتصاد البشر، وبالتالي تنافس البشر في المصادر والثروات. وفي النهاية. لا تخبروا نظام "سيري" بهذا حيث يمكننا إطفاؤها دائماً.
Do I fear that such an artificial intelligence might threaten all of humanity? If you look at movies such as "The Matrix," "Metropolis," "The Terminator," shows such as "Westworld," they all speak of this kind of fear. Indeed, in the book "Superintelligence" by the philosopher Nick Bostrom, he picks up on this theme and observes that a superintelligence might not only be dangerous, it could represent an existential threat to all of humanity. Dr. Bostrom's basic argument is that such systems will eventually have such an insatiable thirst for information that they will perhaps learn how to learn and eventually discover that they may have goals that are contrary to human needs. Dr. Bostrom has a number of followers. He is supported by people such as Elon Musk and Stephen Hawking. With all due respect to these brilliant minds, I believe that they are fundamentally wrong. Now, there are a lot of pieces of Dr. Bostrom's argument to unpack, and I don't have time to unpack them all, but very briefly, consider this: super knowing is very different than super doing. HAL was a threat to the Discovery crew only insofar as HAL commanded all aspects of the Discovery. So it would have to be with a superintelligence. It would have to have dominion over all of our world. This is the stuff of Skynet from the movie "The Terminator" in which we had a superintelligence that commanded human will, that directed every device that was in every corner of the world. Practically speaking, it ain't gonna happen. We are not building AIs that control the weather, that direct the tides, that command us capricious, chaotic humans. And furthermore, if such an artificial intelligence existed, it would have to compete with human economies, and thereby compete for resources with us. And in the end -- don't tell Siri this -- we can always unplug them.
(ضحك)
(Laughter)
نحن في رحلة عظيمة من التطور مع آلاتنا. ما نحن عليه اليوم كبشر يختلف عن ما سنكون عليه في المستقبل. القلق الآن من نمو الذكاء الخارق هو إلهاء خطير بحالات متعددة لأن نمو الحوسبة بذاتها يجلب لنا عدداً من المشاكل البشرية والاجتماعية ينبغي علينا حلها الآن. كيف يمكنني أن أنظم المجتمع بالشكل الأفضل عندما يقل احتياج اليد العاملة البشرية؟ كيف يمكنني أن أجلب الوعي والتعليم لكافة أنحاء الأرض مع احترام كافة أشكال اختلافاتنا؟ كيف يمكنني أن أوسع وأحسن حياة الإنسان من خلال العناية الإدراكية؟ كيف يمكنني استعمال الحوسبة لتقوم بأخذنا إلى النجوم؟
We are on an incredible journey of coevolution with our machines. The humans we are today are not the humans we will be then. To worry now about the rise of a superintelligence is in many ways a dangerous distraction because the rise of computing itself brings to us a number of human and societal issues to which we must now attend. How shall I best organize society when the need for human labor diminishes? How can I bring understanding and education throughout the globe and still respect our differences? How might I extend and enhance human life through cognitive healthcare? How might I use computing to help take us to the stars?
وهذا هو الشيء الممتع. إن الفرص لاستعمال الحوسبة لتطوير خبرة الإنسان في متناول يدنا، هنا والآن، نحن نبدأ فحسب.
And that's the exciting thing. The opportunities to use computing to advance the human experience are within our reach, here and now, and we are just beginning.
شكراً لكم.
Thank you very much.
(تصفيق)
(Applause)