إعتدنا قديما علي انه عندما تريد من الحاسب القيام بمهمة ما فإنه عليك برمجته. الآن، البرمجة بالنسبة للذين لم يقومو بها من قبل، تتطلب وضع كل خطوة تريد من الحاسوب القيام بها بالتفصيل الممل من أجل تحقيق غايتك. الآن، في حال أردت القيام بأمرٍ لاتعرف كيفية القيام به بنفسك، عندها سيكون هذا تحدٍ كبير.
It used to be that if you wanted to get a computer to do something new, you would have to program it. Now, programming, for those of you here that haven't done it yourself, requires laying out in excruciating detail every single step that you want the computer to do in order to achieve your goal. Now, if you want to do something that you don't know how to do yourself,
و هذا هو التحدي الذي واجه هذا الرجل ارثر صامويل في عام 1956، أراد ان يشتري هذا الحاسوب أن يكون قادراً على هزيمته في لعبة الداما. ليتمكن من هزيمتة في لعبة الشطرنج كيف يمكنك كتابة برنامج بكل تفاصيلة كيف يمكن للحاسوب ان يكون أفضل منك في الشطرنج؟ لذا فقد جاء بفكرة: جعل الحاسوب يلعب ضد نفسه آلاف المرات ويتعلم كيفية لعب الشطرنج وبالفعل نجحت فكرته وفي عام 1962 فاز هذا الكمبيوتر ببطولة ولاية كونيتيكت
then this is going to be a great challenge. So this was the challenge faced by this man, Arthur Samuel. In 1956, he wanted to get this computer to be able to beat him at checkers. How can you write a program, lay out in excruciating detail, how to be better than you at checkers? So he came up with an idea: he had the computer play against itself thousands of times and learn how to play checkers. And indeed it worked, and in fact, by 1962,
لهذا يعد أرثر صاموئيل أب التعلم الآلي وأنا أدين له بشده لأنني ممارس للتعلم الآلي لقد كنت رئيس شركة كاجل ، مجتمع أكثر من 200,000 ممارس للتعلم الألي وقد وضعت شركة كاجل مسابقات لحثهم على محاولة أن يحلوا مشاكل لم تحل من قبل وقد نجحت مئات المرات وإنطلاقاً من هذه النقطة تمكنت من إكتشاف الكثير عن ما الذي كان يستطيع التعلم الآلي فعله في الماضي وما يستطيعه اليوم وما الذي ستتمكن من فعله في المستقبل ربما يكون أول نجاح تجاري كبير للتعلم الآلي هو جوجل جوجل أظهرت إمكانية أن تجد معلومات من خلال إستخدام لوغارتيمات الكمبيوتر وتعتمد هذه اللوغارتيمات على التعلم الآلي ومنذ هذا الوقت كان هناك نجاحات تجارية كبيرة في التعلم الآلي فشركات مثل أمازون ونت فليكس تستخدم التعلم الآلي لإقتراح المنتجات التي قد تفضل شرائها والأفلام التي تحب مشاهدتها في بعض الأحيان قد يبدو الأمر مخيف شركات مثل لينكد ان وفيسبوك أحياناً ستخبرك من يجب أن يكون صديقك؟ وأنت ليس لديك أي فكرة عن كيف فعلت هذا؟ وهذا لأنها تستخدم قوة التعلم الآلي هذه هي الخوارزمات التي تعلمت كيف تفعل هذا من البيانات بدلاً من أن يتم برمجتها يدوياً
this computer had beaten the Connecticut state champion. So Arthur Samuel was the father of machine learning, and I have a great debt to him, because I am a machine learning practitioner. I was the president of Kaggle, a community of over 200,000 machine learning practictioners. Kaggle puts up competitions to try and get them to solve previously unsolved problems, and it's been successful hundreds of times. So from this vantage point, I was able to find out a lot about what machine learning can do in the past, can do today, and what it could do in the future. Perhaps the first big success of machine learning commercially was Google. Google showed that it is possible to find information by using a computer algorithm, and this algorithm is based on machine learning. Since that time, there have been many commercial successes of machine learning. Companies like Amazon and Netflix use machine learning to suggest products that you might like to buy, movies that you might like to watch. Sometimes, it's almost creepy. Companies like LinkedIn and Facebook sometimes will tell you about who your friends might be and you have no idea how it did it, and this is because it's using the power of machine learning. These are algorithms that have learned how to do this from data
وهذا أيضاً هو سبب نجاح أي بي إم في أن يجعلوا الكمبيوتر واطسون يهزم بطلي عالم في مسابقة "جابردي" مجيباً بشكل مذهل على أسئلة متقنة ومعقدة مثل من أي مدينة فقد أسد نمرود الأثري عام 2003؟ هذا أيضاً سبب أننا نرى الأن أول سيارة ذاتية القيادة إذا كنت تستطيع أن تخبرنا الإختلاف بين مثلاً شجرة وشئ متحرك وهو شئ هام جداً نحن لا نعرف كيف نكتب هذه البرامج بأيدينا ولكنه الأن أصبح ممكناً بواسطة التعلم الآلي وفي الحقيقة ، هذه السيارة تم قيادتها لملايين الأميال بدون أي حوادث على الطرق العادية
rather than being programmed by hand. This is also how IBM was successful in getting Watson to beat the two world champions at "Jeopardy," answering incredibly subtle and complex questions like this one. ["The ancient 'Lion of Nimrud' went missing from this city's national museum in 2003 (along with a lot of other stuff)"] This is also why we are now able to see the first self-driving cars. If you want to be able to tell the difference between, say, a tree and a pedestrian, well, that's pretty important. We don't know how to write those programs by hand, but with machine learning, this is now possible. And in fact, this car has driven over a million miles without any accidents on regular roads.
لذلك نعلم الأن أن الكمبيوتر يستطيع التعلم وأن الكمبيوتر يستطيع أن يتعلم كيفية فعل أشياء لا نعرف أحياناً كيف نفعلها بأنفسنا أو قد يفعلموها أفضل مننا. ومن أغرب الأمثلة التي رأيتها بالتعلم الآلي حدثت بمشروع أديره بشركة كاجل في فريق يديره رجل يدعى جوفري هينتون من جامعة تورنتو فازوا في مسابقة لإكتشاف أدوية أوتوماتيكية المذهل هنا ليس فقط أنهم أستطاعوا هزيمة جميع اللوغاريتمات التي طورتها ميرك أو المجتمع الأكاديمي الدولي ولكن لا أحد من الفريق لديه أي خلفية عن علوم الحياة أو الكيمياء أو الأحياء وقد قاموا بهذا الإنجاز في أسبوعين فقط كيف أستطاعوا أن يحققوا هذا؟ أستخدموا لوغاريتمات فائقة تدعى التعلم العميق ولشدة اهميته تم تغطيته في مقال الصفحة الأولى لنيويورك تايمز منذ عدة أسابيع هذا هو جوفري هينتون على الجانب الأيسر التعلم العميق هي اللوغاريتمات التي تم إستلهامها من كيفية عمل العقل البشري وبالطبع كنتيجه فهي اللوغاريتمات التي ليس لها حدود نظرية حول ما تستطيع فعله كلما غذيتها ببيانات وأعطيتها وقت لحسابها كلما حصلت على نتائج أفضل
So we now know that computers can learn, and computers can learn to do things that we actually sometimes don't know how to do ourselves, or maybe can do them better than us. One of the most amazing examples I've seen of machine learning happened on a project that I ran at Kaggle where a team run by a guy called Geoffrey Hinton from the University of Toronto won a competition for automatic drug discovery. Now, what was extraordinary here is not just that they beat all of the algorithms developed by Merck or the international academic community, but nobody on the team had any background in chemistry or biology or life sciences, and they did it in two weeks. How did they do this? They used an extraordinary algorithm called deep learning. So important was this that in fact the success was covered in The New York Times in a front page article a few weeks later. This is Geoffrey Hinton here on the left-hand side. Deep learning is an algorithm inspired by how the human brain works, and as a result it's an algorithm which has no theoretical limitations on what it can do. The more data you give it and the more computation time you give it, the better it gets.
وقد عرضت نيويورك تايمز أيضاً في هذا المقال نتيجه أخرى فائقة للتعلم العميق والتي سأعرضها عليكم الأن فهي تظهر قدرة الكمبيوتر على أن يسمع ويفهم
The New York Times also showed in this article another extraordinary result of deep learning which I'm going to show you now. It shows that computers can listen and understand.
(فيديو) ريتشارد رشيد : الأن ، أخر خطوة التي أريد تحقيقها في هذه العملية هي أن أتحدث بالصينية لكم الأن الشئ الرئيسي هو ، أننا تمكنا من أخذ كمية كبيرة من المعلومات من العديد من متحدثي الصينية وأنتجنا نظام لتحويل النص المكتوب لحديث وأخذنا نص صيني وحولناه للغة الصينية ثم أخذنا بعد ذلك ما يقرب من ساعة لصوتي وأستخدمناه لتعديل صوت النظام الأساسي لتحويل النص المكتوب لحديث حتى يبدو كصوتي مرة أخرى ، النتيجة ليست مثالية في الحقيقة كان هناك بعض الأخطاء القليلة (باللغة الصينية) (تصفيق) هناك الكثير من العمل الذي يجب أنجازه في هذا المجال (باللغة الصينية) (تصفيق)
(Video) Richard Rashid: Now, the last step that I want to be able to take in this process is to actually speak to you in Chinese. Now the key thing there is, we've been able to take a large amount of information from many Chinese speakers and produce a text-to-speech system that takes Chinese text and converts it into Chinese language, and then we've taken an hour or so of my own voice and we've used that to modulate the standard text-to-speech system so that it would sound like me. Again, the result's not perfect. There are in fact quite a few errors. (In Chinese) (Applause) There's much work to be done in this area. (In Chinese) (Applause)
جيرمي هوارد : حسناً ، هذا كان في مؤتمر التعلم الآلي بالصين في الواقع ليس من المعتاد بالمؤتمرات الأكاديمية أن تسمع تصفيق عفوي بالرغم من أنه أحياناً بالطبع يحدث بمؤتمرات TEDx ، تصرفوا بحريتكم. كل ما رأيتموه هناك كان يحدث بالتعلم العميق (تصفيق) شكراً لكم كتابة نص الحديث بالإنجليزية كان التعلم العميق الترجمة للصينية والكتابة بأعلى اليمين كان التعلم العميق كما أن تركيب الصوت تم عبر التعلم العميق أيضاً
Jeremy Howard: Well, that was at a machine learning conference in China. It's not often, actually, at academic conferences that you do hear spontaneous applause, although of course sometimes at TEDx conferences, feel free. Everything you saw there was happening with deep learning. (Applause) Thank you. The transcription in English was deep learning. The translation to Chinese and the text in the top right, deep learning, and the construction of the voice was deep learning as well.
لذلك فإن التعلم العميق هو شئ مذهل. إنها لوغاريتمة واحدة تستطيع تقريباً أن تفعل أي شئ وقد أكتشفت أنها منذ عام مضى أيضاً قد تعلمت أت ترى. في مسابقة غير معروفة بألمانيا تدعى معيار التعرف على إشارات المرور الألمانية التعلم العميق قد تعلم التعرف على إشارات المرور مثل هذه وهي لا تستطيع فقط التعرف على إشارات المرور أفضل من أي لوغاريتمة أخرى بل في الحقيقه تظهر اللوحة أنها أفضل من البشر بحوالي مرتين مما يستطيعه البشر. لذلك عام 2011 كان لدينا أول مثال لكمبيوتر يستطيع أن يرى أفضل من البشر ومنذ ذلك الوقت حدث الكثير في عام 2012 جوجل أعلنت أن لديهم خوارزمة تعلم عميق تشاهد فيديوهات اليوتيوب وتعالج بيانات 16000 كمبيوتر شهرياً ثم يقوم الكمبيوتر ذاتياً بالتعلم عن مفاهيم مثل التاس والقطط فقط بمجرد مشاهدة الفيديوهات هذا يشبه كثيراً طريقة تعلم البشر البشر لا يتعلمون عن طريق إخبارهم عن ما يروه ولكن يعلمون أنفسهم ماذا تكون هذه الأشياء أيضاً في عام 2012 ، جوفري هينتون الذي رأيناه منذ قليل فاز بمسابقة ImageNet ذائعة الصيت حيث كان يبحث عن محاولة لإكتشاف من بين مليون ونصف صورة مما تم تصويرهم وبالنسبة لـ 2014 فإننا الأن قلصنا نسبة الخطأ لـ 6% في التعرف على الصور ومرة أخرى ، هذا أفضل من البشر
So deep learning is this extraordinary thing. It's a single algorithm that can seem to do almost anything, and I discovered that a year earlier, it had also learned to see. In this obscure competition from Germany called the German Traffic Sign Recognition Benchmark, deep learning had learned to recognize traffic signs like this one. Not only could it recognize the traffic signs better than any other algorithm, the leaderboard actually showed it was better than people, about twice as good as people. So by 2011, we had the first example of computers that can see better than people. Since that time, a lot has happened. In 2012, Google announced that they had a deep learning algorithm watch YouTube videos and crunched the data on 16,000 computers for a month, and the computer independently learned about concepts such as people and cats just by watching the videos. This is much like the way that humans learn. Humans don't learn by being told what they see, but by learning for themselves what these things are. Also in 2012, Geoffrey Hinton, who we saw earlier, won the very popular ImageNet competition, looking to try to figure out from one and a half million images what they're pictures of. As of 2014, we're now down to a six percent error rate in image recognition. This is better than people, again.
لذلك فإن الألات بالفعل تستطيع القيام بأعمال فائقة ويتم إستخدامها الأن بالصناعة وكمثال فإن جوجل أعلنت العام الماضي أنهم رسموا خريطة لكل مكان بفرنسا في ساعتين وقد فعلوا هذا عن طريق إدخال صور للشوارع لخوارزمة التعلم العميق للتعرف على وقراءة أرقام الشوارع لك أن تتخيل كم كانت ستسغرق مسبقاً عشرات الناس والعديد من السنوات. وقد حدثت أيضاً في الصين. بيدو هو نوع من جوجل الصيني ، على ما أعتقد وما ترونه هنا في أعلى اليسار مثال لصورة قد حملتها إلى نظام بيدو للتعلم العميق وبالأسفل ترون أن النظام قد فهم ماذا تكون هذه الصورة بل ووجدت صور أخرى مشابهة الصور المشابهة ذات خلفيات متماثلة بنفس إتجاهات الوجوه بل بعضهم كان بلسانه إلى الخارج وهذا لم يكن بالطبع بحث عن نص مكتوب على صفحة ويب كل ما حملته كان صورة. لذلك أصبح لدينا الأن أجهزة كمبيوتر تستطيع بالفعل فهم ما تراه وبالتالي تستطيع البحث في قواعد بيانات لمئات الملايين من الصور في نفس الوقت.
So machines really are doing an extraordinarily good job of this, and it is now being used in industry. For example, Google announced last year that they had mapped every single location in France in two hours, and the way they did it was that they fed street view images into a deep learning algorithm to recognize and read street numbers. Imagine how long it would have taken before: dozens of people, many years. This is also happening in China. Baidu is kind of the Chinese Google, I guess, and what you see here in the top left is an example of a picture that I uploaded to Baidu's deep learning system, and underneath you can see that the system has understood what that picture is and found similar images. The similar images actually have similar backgrounds, similar directions of the faces, even some with their tongue out. This is not clearly looking at the text of a web page. All I uploaded was an image. So we now have computers which really understand what they see and can therefore search databases of hundreds of millions of images in real time.
والأن ما الذي يعنيه أن تستطيع أجهزة الكمبيوتر أن ترى؟ حسناً ، ليس فقط أن أجهزة الكمبيوتر تستطيع الرؤية في الواقع التعلم العميق قد فعل أكثر من هذا فجمل معقدة ودقيقة مثل هذه الأن أصبحت مفهومة بخوارزمة التعلم العميق كما تروا هنا هذا نظام ستانفورد يظهر النقاط الحمراء بأعلى قد كشفت أن هذه الجملة تعبر عن إحساس سلبي في الواقع التعلم العميق الأن أصبح قريب من الأداء البشري في فهم ما تعبر عنه الجمل وما تقوله عن هذه الأشياء. التعلم العميق قد أستخدم أيضا لقراءة الصينية وبنفس مستوى متحدث الصينية كلغته الأم هذه الخوارزمة تم تطويرها بسويسرا بواسطة ناس لم يتحدث أي منهم أو يفهم الصينية وكما قلت إستخدام التعلم العميق أصبح أفضل نظام بالعالم لمثل هذا بل ويمكن مقارنته للفهم البشري للغة الأم
So what does it mean now that computers can see? Well, it's not just that computers can see. In fact, deep learning has done more than that. Complex, nuanced sentences like this one are now understandable with deep learning algorithms. As you can see here, this Stanford-based system showing the red dot at the top has figured out that this sentence is expressing negative sentiment. Deep learning now in fact is near human performance at understanding what sentences are about and what it is saying about those things. Also, deep learning has been used to read Chinese, again at about native Chinese speaker level. This algorithm developed out of Switzerland by people, none of whom speak or understand any Chinese. As I say, using deep learning is about the best system in the world for this, even compared to native human understanding.
هذا هو النظام الذي صنعناه بشركتي والذي يظهر وضع هذه الأشياء معاً هذه الصور ليس لها أي نص مكتوب ملحق بها وأثناء كتابتي هنا لجمل نصية فهي تفهم هذه الصور في نفس الوقت وتحدد ما تعبر عنه هذه الصور وتجد الصور التي تشابه النص الذي كتبته تستطيع أن تروا أنها بالفعل تفهم كتابتي وأيضاً تفهم هذه الصور أعلم أنك رأيت شئ يشبه ذلك على جوجل حيث تكتب عن أشياء لتظهر لك بالصور ولكن ما تفعله بالواقع هو بحث عن نصوص بصفحة الموقع وهذا مختلف كلياً عن الفهم الفعلي للصور وهذا شئ يستطيع الكمبيوتر فقط فعله لأول مرة بالشهور القليلة الماضية.
This is a system that we put together at my company which shows putting all this stuff together. These are pictures which have no text attached, and as I'm typing in here sentences, in real time it's understanding these pictures and figuring out what they're about and finding pictures that are similar to the text that I'm writing. So you can see, it's actually understanding my sentences and actually understanding these pictures. I know that you've seen something like this on Google, where you can type in things and it will show you pictures, but actually what it's doing is it's searching the webpage for the text. This is very different from actually understanding the images. This is something that computers have only been able to do for the first time in the last few months.
نرى الأن أجهزة الكمبيوتر تستطيع ليس فقط الرؤية بل القراءة أيضاً وبالطبع قد عرضنا أنها تستطيع فهم ما تسمعه. ربما ليس من المفاجئ الأن أن أخبرك أنها تستطيع الكتابة. هنا بعض النصوص التي أنتجتها بالأمس مستخدماً خوارزمة التعلم العميق وهنا بعض النصوص التي أنتجتها خوارزمة بستانفورد كلاً من هذه الجمل المكتوبة تم إنتاجها بواسطة خوارزمة التعلم العميق لوصف كلاً من هذه الصور هذه الخوارزمة لم ترى من قبل رجل يرتدي قميص أسود ويعزف على الجيتار هي رأت رجل من قبل ورأت اللون الأسود من قبل ورأت جيتار من قبل لكنها ذاتياً أنتجت وصفها الجديد عن هذه الصورة ما زال هذا الأداء ليس كمثيله البشري ولكننا قريبين في الإختبارات البشر يفضلون الشرح الذي أنتجه الكمبيوتر بنسبة واحد لأربعة الأن هذا النظام عمره أسبوعين فقط لذا ربما يكون بحلول العام القادم تكون قد تعدت خوارزمة الكمبيوتر الأداء البشري بنسبة الإنجاز هذه التي تتم بها الأشياء لذلك فإن الكمبيوتر يستطيع أيضاً أن يكتب
So we can see now that computers can not only see but they can also read, and, of course, we've shown that they can understand what they hear. Perhaps not surprising now that I'm going to tell you they can write. Here is some text that I generated using a deep learning algorithm yesterday. And here is some text that an algorithm out of Stanford generated. Each of these sentences was generated by a deep learning algorithm to describe each of those pictures. This algorithm before has never seen a man in a black shirt playing a guitar. It's seen a man before, it's seen black before, it's seen a guitar before, but it has independently generated this novel description of this picture. We're still not quite at human performance here, but we're close. In tests, humans prefer the computer-generated caption one out of four times. Now this system is now only two weeks old, so probably within the next year, the computer algorithm will be well past human performance at the rate things are going. So computers can also write.
إذا وضعنا كل هذا معا فسيقودنا لفرص مدهشة مثلاً في صناعة الدواء أعلن فريق عمل ببوسطن أنهم أكتشفوا عشرات التشخيصات الجديدة المتعلقة بالأورام التي تساعد الأطباء علي التنبؤ بالسرطان وفي أمر مشابهه بستانفورد أعلنت مجموعة كانت تفحص الأنسجة المكبره أنهم طوروا نظام قائم على التعلم الآلي هو في الواقع أفضل من الأخصائين البشريين في علوم الأمراض وتنبأت بمعدلات نجاة لمن يعانون من السرطان في كلا الحالتين لم يكن التنبأ أكثر دقه فقط ولكنهم أنتجوا علم دقيق جديد في حالة طب الأشعة هناك مؤشرات تشخيصية جديدة يستطيع البشر إدراكها في حالة علم الأمراض نظام الكمبيوتر قد أكتشف بالفعل أن الخلايا حول السرطان هي بأهمية الخلايا السرطانية نفسها للتوصل للتشخيص وهذا عكس ما تعلمه أخصائي الأمراض لعشرات السنين وقد تم تطوير كلا الحالتين بنظم الكمبيوتر بواسطة مجموعة من خبراء في كلاً من الطب والتعلم الألي لكن بالنسبة للعام الماضي فقد تخطينا هذا الأن أيضاً هذا مثال للتعرف على المناطق السرطانية من أنسجة إنسان تحت الميكرسكوب النظام الذي تم عرضه هنا يستطيع تحديد هذه المناطق بدقة أكبر أو بنفس دقة أخصائي الأمراض البشريين لكن تم بنائها بالكامل بالتعلم العميق بدون إستخدام أي خبرة طبية وبواسطة ناس ليس لديهم أي خلفية عن هذا المجال وبالمثل هنا في فصل الخلايا العصبية نحن نستطيع الأن فصل الخلايا العصبية بنفس دقة البشر ولكن هذا النظام تم تطويره بالتعلم العميق بإستخدام ناس ليس لديهم أي خلفية طبية سابقة
So we put all this together and it leads to very exciting opportunities. For example, in medicine, a team in Boston announced that they had discovered dozens of new clinically relevant features of tumors which help doctors make a prognosis of a cancer. Very similarly, in Stanford, a group there announced that, looking at tissues under magnification, they've developed a machine learning-based system which in fact is better than human pathologists at predicting survival rates for cancer sufferers. In both of these cases, not only were the predictions more accurate, but they generated new insightful science. In the radiology case, they were new clinical indicators that humans can understand. In this pathology case, the computer system actually discovered that the cells around the cancer are as important as the cancer cells themselves in making a diagnosis. This is the opposite of what pathologists had been taught for decades. In each of those two cases, they were systems developed by a combination of medical experts and machine learning experts, but as of last year, we're now beyond that too. This is an example of identifying cancerous areas of human tissue under a microscope. The system being shown here can identify those areas more accurately, or about as accurately, as human pathologists, but was built entirely with deep learning using no medical expertise by people who have no background in the field. Similarly, here, this neuron segmentation. We can now segment neurons about as accurately as humans can, but this system was developed with deep learning using people with no previous background in medicine.
وأنا عن نفسي كشخص ليس لديه أي خلفية طبية سابقة يبدو أنني مؤهل تماماً لبدء شركة طبية جديدة والتي بدئتها بالفعل وكنت إلى حد ما قلق من القيام بذلك ولكن النظرية رجحت أن الأمر سيكون ممكناً لعمل أدوية مفيدة جداً بإستخدام فقط أساليب تحليل البيانات وحمداً لله أن الأراء كانت رائعة ليس فقط من جانب الإعلام ولكن من المجتمع الطبي الذي كان داعماً جداً النظرية كانت أننا نستطيع أن نأخذ الجزء الأوسط من العملية الطبية ونحوله لتحليل بيانات بقدر المستطاع ونترك الأطباء ليفعلوا ماهم خبراء به وأريد أن أعطيكم مثال نستغرق الأن حوالي 15 دقيقة لإستخراج إختبار تشخيص طبي جديد وسأريكم الأن هذا المثال في نفس وقت حديثنا ولكني قلصتها لثلاث دقائق بإقتطاع بعض الأجزاء منها وبدلاً من أن أعرض عليكم عمل إختبار تشخيص طبي سأريكم إختبار تشخيص لصور سيارات لأن هذا سنستطيع جميعنا فهمه
So myself, as somebody with no previous background in medicine, I seem to be entirely well qualified to start a new medical company, which I did. I was kind of terrified of doing it, but the theory seemed to suggest that it ought to be possible to do very useful medicine using just these data analytic techniques. And thankfully, the feedback has been fantastic, not just from the media but from the medical community, who have been very supportive. The theory is that we can take the middle part of the medical process and turn that into data analysis as much as possible, leaving doctors to do what they're best at. I want to give you an example. It now takes us about 15 minutes to generate a new medical diagnostic test and I'll show you that in real time now, but I've compressed it down to three minutes by cutting some pieces out. Rather than showing you creating a medical diagnostic test, I'm going to show you a diagnostic test of car images, because that's something we can all understand.
لذلك سنبدأ بحوالي 1.5 مليون صور سيارات أنا هنا أريد عمل شئ يستطيع تقسيم الصور للزاوية التي تم إلتقاطها بها ولأن هذه الصور لم يتم تصنيفها تماماً لذا كا ن علي البدء من نقطة الصفر بخوازمتنا للتعلم العميق إنها تستطيع تلقائياً التعرف على مناطق بنية هذه الصور الشئ الظريف أن الإنسان والكمبيوتر يستطيعان الأن العمل سوياً كما تروا هنا الإنسان يخبر الكمبيوتر عن دوائر الإهتمام التي تريد من الكمبيوتر أن يجربها ليطور بعد ذلك من خوارزمته الأن هذه النظم للتعلم الألي هي بالفعل بفراغ ذو 16000 بعد لذلك نرى الكمبيوتر يدير الصور في هذا الفراغ محاولاً إيجاد مناطق جديدة للتركيبه وعندما ينجح في تنفيذ هذا يستطيع الإنسان الذي بدءها أن يشير إلى المناطق التي تهمه وهنا الكمبيوتر بالفعل وجد هذه المناطق بنجاح فمثلاً ، الزوايا فكلما تعمقنا في هذه العملية فإننا نخبر الكمبيوتر تدريجياً أكثر وأكثر عن أنواع التركيبة التي نبحث عنها ولك أن تتخيل في إختبارات التشخيص الطبي فمثلاً كتحديد أخصائي الأمراض بأماكن المرض أو كإشارة أخصائي الأشعة للنقاط المقلقة وأحياناً يكون هذا صعب على الخوارزمة حيث يحدث لها حالة من الإرتباك مقدمات وخلفيات السيارات إختلطت جميعها لذلك يجب أن نكون حريصين قليلاً فيتم إختيار المقدمة يدوياً كشئ عكس الخلفيات ونخبر الكمبيوتر بعدها أن هذا تصنيف المجموعه التي نريدها
So here we're starting with about 1.5 million car images, and I want to create something that can split them into the angle of the photo that's being taken. So these images are entirely unlabeled, so I have to start from scratch. With our deep learning algorithm, it can automatically identify areas of structure in these images. So the nice thing is that the human and the computer can now work together. So the human, as you can see here, is telling the computer about areas of interest which it wants the computer then to try and use to improve its algorithm. Now, these deep learning systems actually are in 16,000-dimensional space, so you can see here the computer rotating this through that space, trying to find new areas of structure. And when it does so successfully, the human who is driving it can then point out the areas that are interesting. So here, the computer has successfully found areas, for example, angles. So as we go through this process, we're gradually telling the computer more and more about the kinds of structures we're looking for. You can imagine in a diagnostic test this would be a pathologist identifying areas of pathosis, for example, or a radiologist indicating potentially troublesome nodules. And sometimes it can be difficult for the algorithm. In this case, it got kind of confused. The fronts and the backs of the cars are all mixed up. So here we have to be a bit more careful, manually selecting these fronts as opposed to the backs, then telling the computer that this is a type of group that we're interested in.
نفعل هذا لفترة من الزمن لأننا نتخطاه قليلاً وبعدها ندرب الكمبيوتر على خوارزمة التعلم الآلي بناء على المائتين شئ هذه ونأمل أن تصبح هذه الأمور أفضل بكثير يمكنكم رؤية أنها بدءت الأن تغذية بعض هذه الصور لتظهر لنا إنها بالفعل بدءت التعرف على كيفية فهم البعض بنفسها ويمكننا إستخدام نفس مبدأ الصور المشابهه ونستخدم صور مشابهه كما ترون الأن الكمبيوتر عند هذه النقطة يستطيع أن يجد فقط مقدمات السيارات ومن هنا يستطيع البشر إخبار الكمبيوتر أنك بالفعل قد قمت بعمل ممتاز
So we do that for a while, we skip over a little bit, and then we train the machine learning algorithm based on these couple of hundred things, and we hope that it's gotten a lot better. You can see, it's now started to fade some of these pictures out, showing us that it already is recognizing how to understand some of these itself. We can then use this concept of similar images, and using similar images, you can now see, the computer at this point is able to entirely find just the fronts of cars. So at this point, the human can tell the computer, okay, yes, you've done a good job of that.
أحياناً بالطبع عند هذه النقطة يظل صعباً فصل هذه المجموعات حتى بعد أن نترك الكمبيوتر يحاول إدارتها لوقت نظل نجد أن صور الجانب الأيسر والأيمن تم خلطها جميعها معاً لذلك يجب أن نعطي لكمبيوتر بعض الملحوظات ونقول له جيد حاول وأبحث عن وسيلة لفصل صور الجانب الأيسر عن الأيمن بقدر المستطاع بإستخدام خوارزمة التعلم العميق وبإعطائه هذه التعليمات. جيد لقد نجحت لقد دبرت أمرها لتجد وسيلة للتفكير في هذه الأشياء لفصلها جميعاً
Sometimes, of course, even at this point it's still difficult to separate out groups. In this case, even after we let the computer try to rotate this for a while, we still find that the left sides and the right sides pictures are all mixed up together. So we can again give the computer some hints, and we say, okay, try and find a projection that separates out the left sides and the right sides as much as possible using this deep learning algorithm. And giving it that hint -- ah, okay, it's been successful. It's managed to find a way of thinking about these objects that's separated out these together.
وهنا تكون الفكرة قد وصلت لكم وهذه الحالة ليست لإحلال الكمبيوتر مكان البشر ولكن للعمل معاً ما فعلناه هنا أننا إستبدلنا شئ إعتدنا أن ينفذه فريق مكون من ستة أشخاص لسبعة سنين واحللنا محله عملاً يأخذ فقط 15 دقيقة بواسطة شخص واحد يقوم بهذا العمل
So you get the idea here. This is a case not where the human is being replaced by a computer, but where they're working together. What we're doing here is we're replacing something that used to take a team of five or six people about seven years and replacing it with something that takes 15 minutes for one person acting alone.
وهذه العملية تأخذ حوالي أربع لخمس تكرارات كما تروا أننا الأن لدينا 62% من 1.5 مليون صورة تم تصنيفهم بشكل صحيح ومن هنا نستطيع البدء سريعاً في ترتيب اقسام كبيرة كاملة نفحص من خلالها لنتأكد أن لا يوجد أخطاء إذا كان هناك أخطاء فيجب إطلاع الكمبيوتر ونستخدم هذه العملية لكل مجموهة مختلفة ونحن الأن وصلنا لنسبة 80% نجاح في تصنيف الـ 1.5 مليون صورة وهذه مجرد حالة واحدة لإيجاد العدد الصغير الذي لم يتم تصنيفه صحيحاً ومحاولة فهم هذا الخطأ وبإستخدام هذا الإسلوب بعد حوالي 15 دقيقة وصلنا 97% من التصنيف
So this process takes about four or five iterations. You can see we now have 62 percent of our 1.5 million images classified correctly. And at this point, we can start to quite quickly grab whole big sections, check through them to make sure that there's no mistakes. Where there are mistakes, we can let the computer know about them. And using this kind of process for each of the different groups, we are now up to an 80 percent success rate in classifying the 1.5 million images. And at this point, it's just a case of finding the small number that aren't classified correctly, and trying to understand why. And using that approach, by 15 minutes we get to 97 percent classification rates.
هذا الأسلوب سيمكنا من إصلاح مشاكل كبيرة التي تواجهه نقص بالخبراء الطبيين بالعالم منتدى العالم الإقتصادي يقول أن هناك بين x10 وx20 نقص في الأطباء في الدول النامية مما تطلب حوالي 300 سنة لتدريب عدد كافي لإصلاح هذه المشكلة تخيل إذا أستطعنا المساعدة في تحسين كفائتهم بإستخدام أساليب التعلم العميق
So this kind of technique could allow us to fix a major problem, which is that there's a lack of medical expertise in the world. The World Economic Forum says that there's between a 10x and a 20x shortage of physicians in the developing world, and it would take about 300 years to train enough people to fix that problem. So imagine if we can help enhance their efficiency using these deep learning approaches?
لذلك أن متشوق جداً لهذه الفرص كما إنني مهتم جداً بالمشاكل المشكلة أن كل منطقة زرقاء بهذه الخريطة هي مكان ما حيث الخدمات أكثر من 80% من التشغيل ما هي الخدمات؟ هذه هي الخدمات وهناك أيضاً أشياء محددة التي تعلم الكمبيوتر مؤخرا كيف يفعلها لذلك 80% من تشغيل العالم في الدول النامية هي الأشياء التي مؤخراً تعلم الكمبيوتر كيفية عملها ما الذي يعنية هذا؟ حسناً ، سيتم إستبدالهم بوظائف أخرى مثلا سيكون هناك وظائف أكثر لعلماء البيانات ليس حقيقي لن يحتاج علماء البيانات وقت طويل لبناء هذه الأشياء فمثلاً الأربع خوارزمات تلك بناهم نفس الشخص إذا كنت تعتقد إنها حدثت جميعها مسبقاً فنحن رأينا النتائج بالسابق عندما حدثت أشياء جديدة وتم إستبدالهم بوظائف جديدة ماذا ستكون هذه الوظائف الجديدة؟ من صعب علينا جداً توقعها لأن إداء الإنسان ينمو بمعدل تدريجي ولكننا الأن لدينا نظام وهو التعلم العميق وما نعرفه بالفعل ينمو بقدرات مضاعفة ونحن هنا وحالياً نرى الأشياء حولنا ونقول "كفى ، الكمبيوتر مازال غبياً" صحيح؟ ولكن خلال 5 سنين ستكون أجهزة الكمبيوتر خارج هذه الخريطة لذلك نحتاج أن نفكر في قدراته من الأن
So I'm very excited about the opportunities. I'm also concerned about the problems. The problem here is that every area in blue on this map is somewhere where services are over 80 percent of employment. What are services? These are services. These are also the exact things that computers have just learned how to do. So 80 percent of the world's employment in the developed world is stuff that computers have just learned how to do. What does that mean? Well, it'll be fine. They'll be replaced by other jobs. For example, there will be more jobs for data scientists. Well, not really. It doesn't take data scientists very long to build these things. For example, these four algorithms were all built by the same guy. So if you think, oh, it's all happened before, we've seen the results in the past of when new things come along and they get replaced by new jobs, what are these new jobs going to be? It's very hard for us to estimate this, because human performance grows at this gradual rate, but we now have a system, deep learning, that we know actually grows in capability exponentially. And we're here. So currently, we see the things around us and we say, "Oh, computers are still pretty dumb." Right? But in five years' time, computers will be off this chart. So we need to be starting to think about this capability right now.
وقد رأينا مثل هذا من قبل بالطبع بالثورة الصناعية لقد رأينا تغير كبير في القدرات بسبب للألات الشئ الهام أنه بعد فترة الأمور تتغير كلياً كان هناك إرتباك مجتمعي ولكن بمجرد أن تم إستخدام الماكينات لتوليد الكهرباء بجميع المواقف الأمور بالفعل إستقرت ثــورة التـعلـم الألــي ستكون مختلفة تماماً عن الثورة الصناعية لأن ثورة التعلم الألي لن تستقر أبداً كلما طورت أجهزة الكمبيوتر مستويات ذكائها كلما إستطاعوا بناء أجهزة كمبيوتر أفضل لتطوير مستويات ذكائهم لذا سيكون نوع من التغيير الذي لم يختبره العالم من قبل وسيتغير فهمك السابق عن ماهو ممكن
We have seen this once before, of course. In the Industrial Revolution, we saw a step change in capability thanks to engines. The thing is, though, that after a while, things flattened out. There was social disruption, but once engines were used to generate power in all the situations, things really settled down. The Machine Learning Revolution is going to be very different from the Industrial Revolution, because the Machine Learning Revolution, it never settles down. The better computers get at intellectual activities, the more they can build better computers to be better at intellectual capabilities, so this is going to be a kind of change that the world has actually never experienced before, so your previous understanding of what's possible is different.
إنها بالفعل تؤثر علينا في الـ 25 سنه الماضية حيث زادت إنتاجية رأس المال الإنتاجية العمالية أصبحت ثابتة بل في الواقع قد إنحدرت قليلاً
This is already impacting us. In the last 25 years, as capital productivity has increased, labor productivity has been flat, in fact even a little bit down.
لذلك أريد منكم ان تبدؤا هذه المناقشة الأن أنا أعرف أنني عادة عندما أخبر الناس عن هذا الموقف يستطيع الناس أن يرفضوا بشدة حسناً ، الكمبيوتر لا يستطيع التفكير لا يستطيعون أن يشعروا ولا أن يفهموا الشعر ونحن في الحقيقة لا نفهم كيف يعملون وما الأهمية؟ أجهزة الكمبيوتر الأن تستطيع فعل أشياء يتم الدفع للبشر ليقضوا معظم وقتهم في فعله لذلك حان الوقت الأن لنبدأ التفكير كيف سنعدل تركيبتنا المجتمعية والإقتصادية؟ لنكون واعيين لهذه الحقيقة الجديدة شكراً لكم (تصفيق)
So I want us to start having this discussion now. I know that when I often tell people about this situation, people can be quite dismissive. Well, computers can't really think, they don't emote, they don't understand poetry, we don't really understand how they work. So what? Computers right now can do the things that humans spend most of their time being paid to do, so now's the time to start thinking about how we're going to adjust our social structures and economic structures to be aware of this new reality. Thank you. (Applause)