دعوني أشارككم هذا التناقض. خلال السنوات العشر الماضية، العديد من الشركات حاولت أن تصبح أقل بيروقراطية، بامتلاكها إجراءات وقواعد أساسية أقل، واستقلالية أكبر لفرقهم ليصبحوا أكثر مرونة. والآن أطلقوا العنان للذكاء الاصطناعي، غير مدركين أن تلك التقنية الرائعة، قد تجعلهم أكثر بيروقراطية أكثر من أي وقت سبق. لماذا؟ لأن الذكاء الاصطناعي يعمل مثل البيروقراطيات،
Let me share a paradox. For the last 10 years, many companies have been trying to become less bureaucratic, to have fewer central rules and procedures, more autonomy for their local teams to be more agile. And now they are pushing artificial intelligence, AI, unaware that cool technology might make them more bureaucratic than ever. Why? Because AI operates just like bureaucracies.
حيث يكمن جوهر البيروقراطية في تفضيل القواعد والإجراءات على التقييم البشري. ويعتمد الذكاء الاصطناعي على القواعد فحسب. العديد من القواعد مبنية على بيانات قديمة، لكنها مجرد قواعد. ولو استبعد التقييم البشري خارج هذه الاستنتاجات، فإن الذكاء الاصطناعي سيجلب شكلاً مرعباً من البيروقراطية الجديدة - أدعوه "الجوقراطية" - حيث سيتخذ الذكاء الاصطناعي المزيد والمزيد من القرارات الحاسمة وفق القواعد، بعيداً عن رقابة التقييم البشري. هل هذا خطر حقيقي؟ أجل.
The essence of bureaucracy is to favor rules and procedures over human judgment. And AI decides solely based on rules. Many rules inferred from past data but only rules. And if human judgment is not kept in the loop, AI will bring a terrifying form of new bureaucracy -- I call it "algocracy" -- where AI will take more and more critical decisions by the rules outside of any human control. Is there a real risk? Yes.
أنا أدير فريقا مكونا من 800 متخصص في الذكاء الاصطناعي. نشرنا ما يفوق 100 من الحلول المصممة خصيصا للذكاء الاصطناعي، للشركات الكبيرة حول العالم. رأيت العديد من مديري الشركات يتصرفون كبيروقراطيين من الماضي باستبعادهم الطراز البشري القديم المُكلف خارج دائرة القيادة، والاعتماد على الذكاء الاصطناعي فقط في اتخاذ القرارات. أسمي ذلك "انعدام العقلية البشرية." ولماذا هذا الأمر مغري جداً؟ لأن الخيار الآخر، "الإنسان زائد الذكاء الاصطناعي"، طويل وباهظ الثمن وصعب. إن فرق إدارة الأعمال وفرق التكنولوجيا وفرق علم البيانات، لا بد أن يكرروا لشهور، لصوغ كيف يمكن للإنسان والذكاء الاصطناعي أن يعملا بشكل أفضل معاً، طويل وباهظ الثمن وصعب. لكن النتيجة مذهلة.
I'm leading a team of 800 AI specialists. We have deployed over 100 customized AI solutions for large companies around the world. And I see too many corporate executives behaving like bureaucrats from the past. They want to take costly, old-fashioned humans out of the loop and rely only upon AI to take decisions. I call this the "human-zero mindset." And why is it so tempting? Because the other route, "Human plus AI," is long, costly and difficult. Business teams, tech teams, data-science teams have to iterate for months to craft exactly how humans and AI can best work together. Long, costly and difficult. But the reward is huge.
أجريت دراسة مؤخراً من BCG وMIT أوضحت أن: 18% من الشركات في العالم، من رواد الذكاء الاصطناعي، تجني المال من خلاله. تركز تلك الشركات في مبادراتها للذكاء الاصطناعي بنسبة 80%، على الفاعلية والتقدم. آخذة بعين الاعتبار خيارات أفضل، عدم استبدال البشر بالذكاء الاصطناعي لتوفير النفقات.
A recent survey from BCG and MIT shows that 18 percent of companies in the world are pioneering AI, making money with it. Those companies focus 80 percent of their AI initiatives on effectiveness and growth, taking better decisions -- not replacing humans with AI to save costs.
لماذا من المهم أن يبقى البشر ضمن دائرة اتخاذ القرار؟ ببساطة، لأن الذكاء الاصطناعي بمفرده يرتكب أشياء غبية. أحياناً دون أي عواقب، كما في هذه التغريدة. "عزيزي أمازون، فمت بشراء مقعد مرحاض. ضرورة، لا رغبة. لم أقم باستلامهم، لست مدمن كرسي حمام. لا يهم بأي طريقة راسلتني على البريد الإلكتروني، لن أقوم بالتفكير، صحيح، هيا، ثم، مقعد مرحاض إضافي، سأكافئ نفسي."
Why is it important to keep humans in the loop? Simply because, left alone, AI can do very dumb things. Sometimes with no consequences, like in this tweet. "Dear Amazon, I bought a toilet seat. Necessity, not desire. I do not collect them, I'm not a toilet-seat addict. No matter how temptingly you email me, I am not going to think, 'Oh, go on, then, one more toilet seat, I'll treat myself.' "
(ضحك)
(Laughter)
أحياناً، دون أي عواقب، كما في هذه التغريدة أيضاً، "يكون لدينا نفس الوضع، بما يتعلق بقبر والدتي."
Sometimes, with more consequence, like in this other tweet. "Had the same situation with my mother's burial urn."
(ضحك)
(Laughter)
بعد أشهر من وفاتها، استلمت رسالة من موقع أمازون، تقول "إذا أعجبك ذلك... "
"For months after her death, I got messages from Amazon, saying, 'If you liked that ...' "
(ضحك)
(Laughter)
وأحياناً مع عواقب أسوأ من ذلك. حين يكون الذكاء الاصطناعي، بمثابة أداة رفض لطلبات طلاب الجامعة. لماذا؟ لأن قراراته مكتسبة من بيانات قديمة، لخصائص الطلاب التي سوف يتجاوزها ويقرر فشلها. بعضها يكون بديهي، كما في حال المعدلات. ولكن ماذا لو كان جميع الطلاب ذوي الرمز البريدي قد فشلوا سابقاً، فعلى الأرجح سيتخذ الذكاء الاصطناعي ذلك قاعدة له، وسيقوم برفض أي طالب مع هذا الرمز البريدي، مع عدم إعطاء أي شخص فرصة ليثبت خطأ هذه القاعدة.
Sometimes with worse consequences. Take an AI engine rejecting a student application for university. Why? Because it has "learned," on past data, characteristics of students that will pass and fail. Some are obvious, like GPAs. But if, in the past, all students from a given postal code have failed, it is very likely that AI will make this a rule and will reject every student with this postal code, not giving anyone the opportunity to prove the rule wrong.
وتفقد جميع القواعد ليس بقدرة أحد، لأن الذكاء الاصطناعي يتعلم بصورة مستمرة. وإذا تم استبعاد اليد البشرية من دائرة القيادة، سيأتي كابوس الجوقراطية. من هو المسؤول عن رفض الطلاب؟ لا أحد، غير الذكاء الاصطناعي. هل هذا منصف للجميع؟ نعم. فإن هذه القواعد الموضوعية تم تطبيقها على الجميع. هل يمكننا إعادة النظر بشأن الطلاب مع خطأ الرمز البريدي؟ لا، فالجوقراطي لا يغير رأيه.
And no one can check all the rules, because advanced AI is constantly learning. And if humans are kept out of the room, there comes the algocratic nightmare. Who is accountable for rejecting the student? No one, AI did. Is it fair? Yes. The same set of objective rules has been applied to everyone. Could we reconsider for this bright kid with the wrong postal code? No, algos don't change their mind.
يكون لنا الخيار هنا. نستمر بمنهج الجوقراطية، أو نتبع منهج "الإنسان زائد الذكاء الإصطناعي." ولتحقيق ذلك، علينا أولاً إيقاف التفكير التقني، والبدء بتطبيق المعادلة السرية. لنشر "البشر + الذكاء الاصطناعي"، 10% من الجهود موجهة لتشفير الجوقراطي، و20% لبناء التقنية حول الجوقراطي، جمع البيانات، بناء واجهة مستخدم، دمج في النظم القديمة. ولكن مجمل هذه الجهود، بنسبة 70%، هي جمع الذكاء الاصطناعي مع البشر والإجراءات، لزيادة تحقيق نتيجة حقيقية.
We have a choice here. Carry on with algocracy or decide to go to "Human plus AI." And to do this, we need to stop thinking tech first, and we need to start applying the secret formula. To deploy "Human plus AI," 10 percent of the effort is to code algos; 20 percent to build tech around the algos, collecting data, building UI, integrating into legacy systems; But 70 percent, the bulk of the effort, is about weaving together AI with people and processes to maximize real outcome.
يخفق الذكاء الاصطناعي عندما نوقف مسيرة هذه الـ 70% يمكن أن يكون الثمن لذلك قليل، دون هدر العديد من ملايين الدولارات على هذه التقنية غير المجدية. من يهتم؟ المآسي الكبرى: مؤخراً، 346 ضحية بسبب تصادم طائرتين من طراز B-737. حيث لم يتعامل الطيارون كما ينبغي، مع نظام القيادة الحاسوبي.
AI fails when cutting short on the 70 percent. The price tag for that can be small, wasting many, many millions of dollars on useless technology. Anyone cares? Or real tragedies: 346 casualties in the recent crashes of two B-737 aircrafts when pilots could not interact properly with a computerized command system.
لنجاح نسبة 70% من المعادلة، الخطوة الأولى هي التأكد من تشفير الجوقراطي من قبل عالم بيانات، وأن خبراء المجال يعملون معاً. خذ العناية الصحية كمثال، عمل أحد فرقنا على عقار جديد وواجهتهم مشكلة طفيفة، عندما يأخذ المرضى جرعتهم الأولى، تتعرض قلة قليلة منهم لنوبة قلبية. لذلك، جميع المرضى عند أخذهم الجرعة الأولى، مضطرون للبقاء يوماً كاملاً في المشفى، ليبقوا تحت المراقبة، تحسباً، لتحديد المرضى الآمنين من التعرض لنوبات قلبية، وغير المضطرين للبقاء تحت المراقبة. استعملنا الذكاء الاصطناعي لتحليل البيانات من التجارب الدوائية، للربط بين التخطيط الكهربائي للقلب، قوام الدم والمؤشرات الحيوية، مع احتمال حدوث نوبة قلبية. خلال شهر واحد، أفاد نموذجنا أن 62% من المرضى في أمان، وبإمكانهم تخطي البقاء تحت المراقبة. قد يكون من المريح البقاء في المنزل بعد الجرعة الأولى. لو قرر الجوقراطي ذلك؟
For a successful 70 percent, the first step is to make sure that algos are coded by data scientists and domain experts together. Take health care for example. One of our teams worked on a new drug with a slight problem. When taking their first dose, some patients, very few, have heart attacks. So, all patients, when taking their first dose, have to spend one day in hospital, for monitoring, just in case. Our objective was to identify patients who were at zero risk of heart attacks, who could skip the day in hospital. We used AI to analyze data from clinical trials, to correlate ECG signal, blood composition, biomarkers, with the risk of heart attack. In one month, our model could flag 62 percent of patients at zero risk. They could skip the day in hospital. Would you be comfortable staying at home for your first dose if the algo said so?
(ضحك)
(Laughter)
سيكون للأطباء رأي آخر. ماذا لو كانت هذه النتائج زائفة، معنى ذلك موت المرضى الذين بقوا في بيوتهم.
Doctors were not. What if we had false negatives, meaning people who are told by AI they can stay at home, and die?
(ضحك)
(Laughter)
لنبدأ بتحقيق نسبتنا البناءة، عملنا مع فريق من الأطباء، لتفقد الأساس المنطقي الطبي لكل متغير في نموذج دراستنا. على سبيل المثال، استخدام تركيز إنزيم الكبد كمؤشر، بشأن الأساس المنطقي الطبي الغير واضح. كانت الإشارات الإحصائية قوية للغاية. ولكن ماذا إن كان هناك انحياز في العينة الخاصة بنا؟ سيُلغى ذلك المؤشر من نموذج الدراسة. ونلغي المؤشرات المحصلة من الخبراء، فلا نعتبرهم مقياساً دقيقاً في الواقع. بعد مرور أربعة أشهر، أصبح لدينا نموذج وبروتوكول طبي. تمت الموافقة على كلاهما، من قبل سلطاتي الطبية في الولايات الأمريكية الربيع الماضي، مما يؤدي لتقليل الضغط عند نصف المرضى، ونوعية حياة أفضل. من المتوقع زيادة في مبيعات ذلك الدواء بما يفوق 100مليون.
There started our 70 percent. We worked with a team of doctors to check the medical logic of each variable in our model. For instance, we were using the concentration of a liver enzyme as a predictor, for which the medical logic was not obvious. The statistical signal was quite strong. But what if it was a bias in our sample? That predictor was taken out of the model. We also took out predictors for which experts told us they cannot be rigorously measured by doctors in real life. After four months, we had a model and a medical protocol. They both got approved my medical authorities in the US last spring, resulting in far less stress for half of the patients and better quality of life. And an expected upside on sales over 100 million for that drug.
تلك الـ 70% الهادفة لجمع الذكاء الاصطناعي مع الفريق والإجراءات، تعادل أيضاً بناء روابط وثيقة، بين البشر والذكاء الاصطناعي لحل أصعب العقبات بالعمل المشترك بينهما. سابقاً، واجهنا تحدياً من قبل تاجر تجزئة للألبسة. "لدينا أفضل زبائن في العالم. هل تستطيع إنشاء قاعدة للذكاء الاصطناعي تتغلب على توقعات المبيعات؟ بتوقع كم من قمصان الرجال الفاخرة باللون الأخضر الفاتح، مقاس إكس لارج علينا توفيرها للسنة القادمة؟ وإنشاء توقع أفضل للمبيعات، من توقعات مصممينا." خلال أسابيع قليلة، أنشأ فريقنا نموذج بناء على معطيات المبيعات السابقة، بدأت منافسة تم تنظيمها مع الزبائن، والنتيجة؟ فوز الذكاء الاصطناعي، بتقليل أخطاء التوقعات بنسبة 25%. لا يوجد أي بشري قادراً على تنفيذ هذا النموذج الأولي ومنافسة جميع الزبائن. لا بأس. ولكن نحن نعلم أن الزبائن لهم آراء حول اتجاهات الموضة، التي لا توجد في المعطيات القديمة.
Seventy percent weaving AI with team and processes also means building powerful interfaces for humans and AI to solve the most difficult problems together. Once, we got challenged by a fashion retailer. "We have the best buyers in the world. Could you build an AI engine that would beat them at forecasting sales? At telling how many high-end, light-green, men XL shirts we need to buy for next year? At predicting better what will sell or not than our designers." Our team trained a model in a few weeks, on past sales data, and the competition was organized with human buyers. Result? AI wins, reducing forecasting errors by 25 percent. Human-zero champions could have tried to implement this initial model and create a fight with all human buyers. Have fun. But we knew that human buyers had insights on fashion trends that could not be found in past data.
هنا تبدأ الـ 70% من خطتنا. ننتقل إلى التجربة الثانية، حيث قام الزبائن بمراجعة الكميات المقترحة من قبل الذكاء الاصطناعي، وتصحيحها إذا لزم الأمر. والنتيجة؟ يستخدم البشر الذكاء الاصطناعي... يخسر. يفتقر 75% من التعديلات المدخلة من قبل البشر، إلى دقة الوصف.
There started our 70 percent. We went for a second test, where human buyers were reviewing quantities suggested by AI and could correct them if needed. Result? Humans using AI ... lose. Seventy-five percent of the corrections made by a human were reducing accuracy.
هل هذا وقت التخلص من دور الزبائن؟ لا. إنه وقت إعادة إنشاء نموذج جديد، ينص على عدم محاولة البشر بالتخمين متى يكون الذكاء الاصطناعي مخطئاً، بل بإدخال معطيات صحيحة في نموذج الذكاء الاصطناعي. أعدنا إنشاء النموذج بشكل كامل، وابتعدنا عن واجهتنا الأولية مهما كانت قليلة أو كثيرة، أيها البشر، هذا هو ما أتوقعه، صحح ما تريد، بالأحرى، تحول لأغنى رجل بالعالم، "أيها الإنسان! أنا لا أعرف اتجاهات السنة القادمة. هل تشاركني بقمة رهاناتك الخلاقة؟ "أيها الإنسان! هل تساعدني بقياس مقدار القليل من تلك البنود الكبيرة؟ لم أجد أشياء قيمة لمقارنتها معها في السابق. والنتيجة؟ فوز "البشر زائد الذكاء الإصطناعي"، بتقليل أخطاء التوقعات بنسبة 50%. استغرق الأمر سنة واحدة. طويل وباهظ الثمن وصعب. لكن الأرباح والفوائد، كانت بتوفير ما يزيد على 100 مليون في السنة لبائع التجزئة ذاك،
Was it time to get rid of human buyers? No. It was time to recreate a model where humans would not try to guess when AI is wrong, but where AI would take real input from human buyers. We fully rebuilt the model and went away from our initial interface, which was, more or less, "Hey, human! This is what I forecast, correct whatever you want," and moved to a much richer one, more like, "Hey, humans! I don't know the trends for next year. Could you share with me your top creative bets?" "Hey, humans! Could you help me quantify those few big items? I cannot find any good comparables in the past for them." Result? "Human plus AI" wins, reducing forecast errors by 50 percent. It took one year to finalize the tool. Long, costly and difficult. But profits and benefits were in excess of 100 million of savings per year for that retailer.
%70 من المواضيع الشديدة الحساسية، تعني أن الإنسان يحدد ما هو الصواب أو الخطأ، ويحدد القواعد التي يستطيع الذكاء الاصطناعي استيعابها أم لا، مثل، ضبط الأسعار المرتفعة لمنع محركات الأسعار [من فرض رسوم] أسعار باهظة للعملاء غير المتعلمين من سيصدق ذلك؟ فقط الإنسان يمكنه أن يحدد هذه الحدود الفاصلة، لا يمكن للذكاء الاصطناعي إيجادها في البيانات القديمة،
Seventy percent on very sensitive topics also means human have to decide what is right or wrong and define rules for what AI can do or not, like setting caps on prices to prevent pricing engines [from charging] outrageously high prices to uneducated customers who would accept them. Only humans can define those boundaries -- there is no way AI can find them in past data.
بعض الحالات تكون في المنطقة الرمادية، عملنا مع التأمين الصحي، طور قواعد في الذكاء الاصطناعي ليحدد من ضمن عملائه، الأشخاص الذين على وشك الدخول إلى المشفى، لتوفير خدمات متميزة لهم، المشكلة أن، استدعى الفريق التجاري بعض الاحتمالات، في حين أنهم لم يعرفوا بعد، بأنه ستعين عليهم أن يذهبوا للمشفى بأقرب وقت. أنت المدير التنفيذي لهذه الشركة. هلا أوقفت ذلك البرنامج؟ ليس من السهل الإجابة،
Some situations are in the gray zone. We worked with a health insurer. He developed an AI engine to identify, among his clients, people who are just about to go to hospital to sell them premium services. And the problem is, some prospects were called by the commercial team while they did not know yet they would have to go to hospital very soon. You are the CEO of this company. Do you stop that program? Not an easy question.
لمعالجة هذا الأمر، أنشأت بعض الشركات فرقاً لتحديد قواعد أخلاقية ومعايير لمساعدة فرق الأعمال والتقنيين لوضع حدود، بين إضفاء الطابع الشخصي والاستغلال، تخصيص العروض وممارسة التمييز، التوجيه والإقحام.
And to tackle this question, some companies are building teams, defining ethical rules and standards to help business and tech teams set limits between personalization and manipulation, customization of offers and discrimination, targeting and intrusion.
أنا على ثقة أنه في كل شركة، تطبق الذكاء الاصطناعي البالغ الأهمية يكون لديها مردود هائل. يلزم كبار رجال الأعمال التحلي بالجرأة واختيارهم القليل من المواضيع، ولكل واحد منهم، حشد 10، 20، 30 شخصاً من أفضل فرقهم، التقنية، الذكاء الاصطناعي، علم البيانات، الأخلاقيات، والخوض في دائرة 10، 20، 70% بأكملها من "البشر زائد الذكاء الاصطناعي"، لضمان فاعلية الذكاء الاصطناعي في فرقهم وإجراءاتهم. لا يوجد سبل أخرى.
I am convinced that in every company, applying AI where it really matters has massive payback. Business leaders need to be bold and select a few topics, and for each of them, mobilize 10, 20, 30 people from their best teams -- tech, AI, data science, ethics -- and go through the full 10-, 20-, 70-percent cycle of "Human plus AI," if they want to land AI effectively in their teams and processes. There is no other way.
يخشى المواطنون في الاقتصادات المتقدمة من الجوقراطية بالفعل. أجرينا مقابلات مع 7000 شخص في دراسة استثنائية حديثة. عبر ما يزيد عن 75% عن قلق حقيقي، حيال أثر الذكاء الاصطناعي على القوى العاملة في مجال الخصوصية، خطر قيام مجتمع غير إنساني. إن دفع الجوقراطية يخلق خطرا حقيقيا من ردود الفعل العنيفة ضد الذكاء الاصطناعي داخل الشركات أو في المجتمع ككل. "البشر زائد الذكاء الاصطناعي" هو خيارنا الوحيد لجلب فوائد الذكاء الاصطناعي لعالمنا. وفي نهاية المطاف، فإن المنظمات الفائزة ستستثمر في المعرفة البشرية، ليس فقط الذكاء الاصطناعي والبيانات. توظيف، تدريب، استعانة بخبراء بشر. ويقال إن البيانات هي النفط الجديد، ولكن صدقوني، ستحدث المعرفة البشرية الفرق لأنها الخيار الوحيد المتاح لضخ النفط الكامن في البيانات.
Citizens in developed economies already fear algocracy. Seven thousand were interviewed in a recent survey. More than 75 percent expressed real concerns on the impact of AI on the workforce, on privacy, on the risk of a dehumanized society. Pushing algocracy creates a real risk of severe backlash against AI within companies or in society at large. "Human plus AI" is our only option to bring the benefits of AI to the real world. And in the end, winning organizations will invest in human knowledge, not just AI and data. Recruiting, training, rewarding human experts. Data is said to be the new oil, but believe me, human knowledge will make the difference, because it is the only derrick available to pump the oil hidden in the data.
شكرا لكم.
Thank you.
(تصفيق)
(Applause)