Let me share a paradox. For the last 10 years, many companies have been trying to become less bureaucratic, to have fewer central rules and procedures, more autonomy for their local teams to be more agile. And now they are pushing artificial intelligence, AI, unaware that cool technology might make them more bureaucratic than ever. Why? Because AI operates just like bureaucracies.
Size bir çelişkiden bahsedeyim. Son 10 yıldır pek çok şirket daha az bürokratik olmaya, merkezi kuralları ve prosedürleri azaltmaya, yerel takımlarını daha verimli kılmak için özerkliklerini artırmaya çalışıyor. Fakat şimdilerde yapay zekâyı dayatıyorlar ve bu havalı teknolojinin onları hiç olmadığı kadar bürokratik hale getireceğini fark etmiyorlar. Neden mi? Çünkü yapay zekâ tıpkı bürokrasi gibi işler.
The essence of bureaucracy is to favor rules and procedures over human judgment. And AI decides solely based on rules. Many rules inferred from past data but only rules. And if human judgment is not kept in the loop, AI will bring a terrifying form of new bureaucracy -- I call it "algocracy" -- where AI will take more and more critical decisions by the rules outside of any human control. Is there a real risk? Yes.
Bürokrasinin özü insani yargılar yerine kural ve prosedürleri gözetmektir. Yapay zekâ sadece kurallara dayalıdır. Çoğu, geçmiş verilerden çıkarılan kurallardır fakat yalnızca kurallar. İnsani yargılar işin içine katılmadığında, yapay zekâ, bürokrasinin yeni ve korkunç bir şeklini getirecektir. Yapay zekânın kurallar yoluyla, insan kontrolü olmadan her geçen gün daha fazla kritik kararlar almasını "algokrasi" olarak tanımlıyorum. Burada bir risk var mı? Evet var.
I'm leading a team of 800 AI specialists. We have deployed over 100 customized AI solutions for large companies around the world. And I see too many corporate executives behaving like bureaucrats from the past. They want to take costly, old-fashioned humans out of the loop and rely only upon AI to take decisions. I call this the "human-zero mindset." And why is it so tempting? Because the other route, "Human plus AI," is long, costly and difficult. Business teams, tech teams, data-science teams have to iterate for months to craft exactly how humans and AI can best work together. Long, costly and difficult. But the reward is huge.
800 yapay zekâ uzmanından oluşan bir gruba liderlik ediyorum. Dünyadaki büyük şirketler için 100'ün üzerinde yapay zeka çözümünü hayata geçiriyoruz. Geçmişten gelen bürokratlar gibi davranan birçok kurumsal yönetici ile tanışıyorum. Maliyetli, eski kafalı insanları döngülerden çıkartıp kararların alınmasını sadece yapay zekâdan bekliyorlar. Bunu "sıfır-insan zihniyeti" olarak adlandırıyorum. Kulağa neden bu kadar cezbedici geliyor? Çünkü diğer istikamet olan "insan artı yapay zekâ" uzun, maliyetli ve zor. İş ekipleri, teknoloji ekipleri, ve veri bilimi ekiplerinin insan ve yapay zekânın birlikte en iyi nasıl çalışacağını tasarlamaları aylarca sürecek çalışmalar gerektirir. Uzun, maliyetli ve zor. Fakat ödülü çok büyük.
A recent survey from BCG and MIT shows that 18 percent of companies in the world are pioneering AI, making money with it. Those companies focus 80 percent of their AI initiatives on effectiveness and growth, taking better decisions -- not replacing humans with AI to save costs.
BCG ve MIT'nin yeni bir anketine göre dünyadaki şirketlerin yüzde 18'i yapay zekâya öncülük edip onun sayesinde para kazanıyorlar. Bu şirketler yapay zekâ girişimlerinin yüzde 80'ini verimliliğe, büyümeye ve daha iyi kararlar almaya odaklamıştır. Maliyetleri azaltmak için insanların yerine yapay zekâyı koymaya değil.
Why is it important to keep humans in the loop? Simply because, left alone, AI can do very dumb things. Sometimes with no consequences, like in this tweet. "Dear Amazon, I bought a toilet seat. Necessity, not desire. I do not collect them, I'm not a toilet-seat addict. No matter how temptingly you email me, I am not going to think, 'Oh, go on, then, one more toilet seat, I'll treat myself.' "
Peki insanları döngüde tutmak neden önemli? Çünkü yapay zeka yalnız bırakıldığında, fazlasıyla aptalca şeyler yapabilir. Bazen, bu tweet'teki gibi, sonuçları olmayan şeyler yapar. "Sevgili Amazon, bir tuvalet kapağı aldım. İhtiyaçtan, istekten değil. Koleksiyonunu yapmıyorum. Tuvalet kapağı bağımlısı değilim. Her ne kadar cezbedici e-postalar atsanız da şöyle düşünmeyeceğim: "Peki o zaman, kendimi bir tuvalet kapağı daha alarak şımartayım."
(Laughter)
(Kahkahalar)
Sometimes, with more consequence, like in this other tweet. "Had the same situation with my mother's burial urn."
Bazen ise, şu tweet'teki gibi daha fazla sonuçları olur: "Annemin küllerinin olduğu vazo konusunda bana da aynı şey oldu.
(Laughter)
(Kahkahalar)
"For months after her death, I got messages from Amazon, saying, 'If you liked that ...' "
"Ölümünden aylar sonra, Amazon'dan şöyle mesajlar aldım:
(Laughter)
"Eğer bunu beğendiyseniz."
(Kahkahalar)
Sometimes with worse consequences. Take an AI engine rejecting a student application for university. Why? Because it has "learned," on past data, characteristics of students that will pass and fail. Some are obvious, like GPAs. But if, in the past, all students from a given postal code have failed, it is very likely that AI will make this a rule and will reject every student with this postal code, not giving anyone the opportunity to prove the rule wrong.
Bazen daha kötü sonuçları da olur. Öğrencilerin üniversite başvurularını reddeden bir yapay zekâ robotu ele alalım. Peki neden? Çünkü geçmiş verilerden dersi geçecek ve kalacak öğrencilerin karakteristiklerini "öğrendi". Bazıları not ortalaması gibi bariz olsa da, geçmişte, belli bir posta kodundaki öğrencilerin hepsi dersten kalsaydı yapay zekânın bunu bir kural haline getirecek ve bu posta kodundaki tüm öğrencileri eleyecekti ve bu kuralın yanlış olduğunu kimsenin kanıtlamasına fırsat vermeyecekti.
And no one can check all the rules, because advanced AI is constantly learning. And if humans are kept out of the room, there comes the algocratic nightmare. Who is accountable for rejecting the student? No one, AI did. Is it fair? Yes. The same set of objective rules has been applied to everyone. Could we reconsider for this bright kid with the wrong postal code? No, algos don't change their mind.
Kimse tüm kuralları kontrol edemez. Çünkü gelişmiş bir yapay zekâ sürekli bir öğrenme durumundadır. İnsanlar odanın dışında tutulduğunda, algokratik kabus gerçeğe dönüşür. Bu öğrenciyi reddetmekten kim sorumlu? Hiç kimse, yapay zekâ yaptı. Peki bu adil mi? Evet. Aynı objektif kurallar kümesi herkese uygulandı. Yanlış posta kodundaki bu parlak çocuğu tekrar değerlendirebilir miyiz? Hayır, algoritmalar fikirlerini değiştiremez.
We have a choice here. Carry on with algocracy or decide to go to "Human plus AI." And to do this, we need to stop thinking tech first, and we need to start applying the secret formula. To deploy "Human plus AI," 10 percent of the effort is to code algos; 20 percent to build tech around the algos, collecting data, building UI, integrating into legacy systems; But 70 percent, the bulk of the effort, is about weaving together AI with people and processes to maximize real outcome.
Burada bir seçim yapmalıyız. Algokrasi ile devam etmek ya da "İnsan artı yapay zekâ" yolundan gitmek. Bunu yapmamız için öncelikle teknolojiyi düşünmekten vazgeçip gizli formülü uygulamaya başlamamız gerekir. "İnsan artı yapay zekâ"yı uygulamamız için çabanın yüzde 10'unu algoritmaları kodlamaya yüzde 20'sini teknolojiyi algoritmaların etrafında inşa etmeye, veri toplamaya, arayüz inşa etmeye, eski sistemlere entegre etmeye ayıralım. Fakat yüzde 70'ini, yani çabanın büyük bir kısmını yapay zekâyı insanlar ve süreçlerle birlikte dokumaya harcayarak gerçek neticeyi en yükseğe çıkartabiliriz.
AI fails when cutting short on the 70 percent. The price tag for that can be small, wasting many, many millions of dollars on useless technology. Anyone cares? Or real tragedies: 346 casualties in the recent crashes of two B-737 aircrafts when pilots could not interact properly with a computerized command system.
Yüzde 70'lik kısımdan feragat edildiğinde, yapay zekâ başarısız olur. Bunun maliyeti şu kadar küçük olabilir, milyonlarca doları kullanışsız bir teknolojiye yatırmak. Umursayan var mı? Ya da gerçek trajediler: Yakın zamanda kaza yapan iki B-737 uçak sonucunda 346 ölü. Bilgisayarlı komut sisteminde pilotlar düzgünce iletişim kuramadığından kaynaklandı.
For a successful 70 percent, the first step is to make sure that algos are coded by data scientists and domain experts together. Take health care for example. One of our teams worked on a new drug with a slight problem. When taking their first dose, some patients, very few, have heart attacks. So, all patients, when taking their first dose, have to spend one day in hospital, for monitoring, just in case. Our objective was to identify patients who were at zero risk of heart attacks, who could skip the day in hospital. We used AI to analyze data from clinical trials, to correlate ECG signal, blood composition, biomarkers, with the risk of heart attack. In one month, our model could flag 62 percent of patients at zero risk. They could skip the day in hospital. Would you be comfortable staying at home for your first dose if the algo said so?
Başarılı bir yüzde 70 için ilk adım algoritmaların veri bilimciler ve alan uzmanları tarafından birlikte kodlandığından emin olmaktır. Sağlık sektörünü ele alalım. Ekiplerimizden biri, ufak bir sorunu olan bir ilaç üzerinde çalıştı. İlk dozlarını aldıklarında, bazı hastaların çok az bir kısmı kalp krizi geçiriyordu. Bu nedenle ilk dozu alacak tüm hastalar bir günlerini hastanede geçirmek zorundaydı. Ne olur ne olmaz onları gözlemlemek gerekir. Amacımız, sıfır kalp krizi riskine sahip hastanedeki günü pas geçebilecek hastaları tanımlamaktı. Klinik deneylerin verilerini analiz etmek ECG sinyallerini, kan bileşimlerini ve biyobelirteçleri kalp krizi riskiyle ilişkilendirmek için yapay zekâyı kullandık. Bir ay içinde modelimiz sıfır riskte olan hastaların yüzde 62'sini işaretleyebildi. Hastanedeki günü pas geçebilirlerdi. Algoritma dedi diye ilk dozunuzda evde kalmaya razı olur muydunuz?
(Laughter)
(Kahkahalar)
Doctors were not. What if we had false negatives, meaning people who are told by AI they can stay at home, and die?
Doktorlar razı olmadı. Ya yanlış negatif hatamız vardıysa? Yani yapay zekânın evinde kalıp ölmeyi önerdiği insanlar olursa?
(Laughter)
(Kahkahalar)
There started our 70 percent. We worked with a team of doctors to check the medical logic of each variable in our model. For instance, we were using the concentration of a liver enzyme as a predictor, for which the medical logic was not obvious. The statistical signal was quite strong. But what if it was a bias in our sample? That predictor was taken out of the model. We also took out predictors for which experts told us they cannot be rigorously measured by doctors in real life. After four months, we had a model and a medical protocol. They both got approved my medical authorities in the US last spring, resulting in far less stress for half of the patients and better quality of life. And an expected upside on sales over 100 million for that drug.
Bizim yüzde 70'imiz böyle başladı. Modelimizdeki her değişkenin tıbbi mantığını kontrol etmek için bir doktor ekibiyle çalıştık. Örneğin, belirteç olarak bir ciğer enziminin yoğunluğunu kullanıyorduk. Bunun tıbbi mantığı çok açık değildi. İstatistiksel sinyal oldukça kuvvetliydi. Fakat ya bu, bizim örneğimizdeki bir ön yargıysa? O belirteç bizim modelimizden çıkarıldı. Doktorların gerçek hayatta titizlikle ölçemediği belirteçleri de uzmanların uyarısıyla çıkarttık. Dört ay sonra, bir modelimiz ve tıbbi bir protokolümüz olmuştu. Geçtiğimiz ilkbaharda tıbbi otoriteler tarafından ikisi de onay aldı. Böylece hastaların yarısına daha az stres ve daha iyi yaşam kalitesi sağladık. Bunun dışında, ilacın satışlarında 100 milyonun üzerinde artış bekleniyordu.
Seventy percent weaving AI with team and processes also means building powerful interfaces for humans and AI to solve the most difficult problems together. Once, we got challenged by a fashion retailer. "We have the best buyers in the world. Could you build an AI engine that would beat them at forecasting sales? At telling how many high-end, light-green, men XL shirts we need to buy for next year? At predicting better what will sell or not than our designers." Our team trained a model in a few weeks, on past sales data, and the competition was organized with human buyers. Result? AI wins, reducing forecasting errors by 25 percent. Human-zero champions could have tried to implement this initial model and create a fight with all human buyers. Have fun. But we knew that human buyers had insights on fashion trends that could not be found in past data.
Yapay zekânın yüzde yetmişini ekipler ve süreçler ile işlemek ayrıca insanların ve yapay zekanın en zor sorunları beraber çözebilmesi için güçlü arayüzler inşa etmekti. Öncelikle bir giyim firması bize meydan okudu. "Dünyadaki en iyi satın alma uzmanlarına sahibiz. Satış tahminlerinde onları yenebilecek bir yapay zekâ motoru inşa edebilir misiniz? Gelecek sene için kaç adet lüks, açık yeşil XL erkek tişörtü satın almamız gerekeceğini söyleyebilecek? Neyin satıp satmayacağını tasarımcılarımızdan daha iyi öngörebilecek?" Geçmiş satış verilerini kullanarak ekibimiz birkaç haftada bir modeli eğitti ve yarışma, insan satın almacılar ile beraber organize edildi. Peki ya sonuç? Tahmin hatalarını yüzde 25 düşürerek yapay zekâ kazandı. Sıfır insan savunucuları bu birincil modeli uygulamaya çalışabilirlerdi ve tüm insan satın almacılara savaş açabilirlerdi. İyi eğlenceler. Fakat biliyoruz ki insan satın almacıların geçmiş verilerde bulunmayan şekilde moda akımları hakkında öngörüleri vardı.
There started our 70 percent. We went for a second test, where human buyers were reviewing quantities suggested by AI and could correct them if needed. Result? Humans using AI ... lose. Seventy-five percent of the corrections made by a human were reducing accuracy.
Yüzde 70'imiz burada başladı. İnsan satın almacıların yapay zekânın önerdiği sayıları incelediği ve gerektiğinde düzeltebildiği ikinci bir teste gittik. Sonuç mu? İnsanların kullandığı yapay zekâ kaybetti. İnsanların yaptığı düzeltmelerin yüzde 75'i doğruluk payını azaltıyordu.
Was it time to get rid of human buyers? No. It was time to recreate a model where humans would not try to guess when AI is wrong, but where AI would take real input from human buyers. We fully rebuilt the model and went away from our initial interface, which was, more or less, "Hey, human! This is what I forecast, correct whatever you want," and moved to a much richer one, more like, "Hey, humans! I don't know the trends for next year. Could you share with me your top creative bets?" "Hey, humans! Could you help me quantify those few big items? I cannot find any good comparables in the past for them." Result? "Human plus AI" wins, reducing forecast errors by 50 percent. It took one year to finalize the tool. Long, costly and difficult. But profits and benefits were in excess of 100 million of savings per year for that retailer.
İnsan satın almacılardan kurtulmanın vakti gelmiş miydi? Hayır gelmemişti. İnsanların yapay zekânın doğruluğunu sınamayacağı fakat yapay zekânın insan satın almacılardan gerçek girdiler alacağı bir model yaratma vaktiydi. Modeli tamamen yeniden inşa ettik ve "Hey, insan! Tahminlerim şunlar, istediğin kısmı düzeltebilirsin." diyen birincil arayüzümüzden çok daha zengin bir arayüze geçtik. "Hey, insanlar! Önümüzdeki senenin akımlarını bilmiyorum. En yaratıcı tahminlerinizi benimle paylaşır mısınız?" "Hey, insanlar! Şu birkaç büyük parçanın miktarını belirlememe yardım eder misiniz? Geçmiş veride karşılaştırabileceğim güzel bir örnek bulamadım." Sonuç mu? Tahmin hatalarını yüzde 50 azaltarak "İnsan artı yapay zekâ" kazandı. Aracı tamamlamamız bir yılımızı aldı. Uzun, maliyetli ve zor. Fakat kâr ve faydalar giyim şirketine yıllık 100 milyonun üzerinde bir tasarruf sağladı.
Seventy percent on very sensitive topics also means human have to decide what is right or wrong and define rules for what AI can do or not, like setting caps on prices to prevent pricing engines [from charging] outrageously high prices to uneducated customers who would accept them. Only humans can define those boundaries -- there is no way AI can find them in past data.
Çok hassas konular üzerine yüzde 70 demek, aynı zamanda insanların doğru ve yanlışı belirlemesi ve yapay zekânın neyi yapabilip neyi yapamayacağının kurallarını koyması demekti. Bunlara örnek; fiyatlandırma motorlarının sunulan fiyatı kabul edecek eğitimsiz müşterilere aşırı yüksek fiyat sunmaması için tavan fiyat eklemek olabilir. Bu sınırları sadece insanlar tanımlayabilir. Yapay zekânın bunları geçmiş verilerde bulabilmesinin ihtimali yoktur.
Some situations are in the gray zone. We worked with a health insurer. He developed an AI engine to identify, among his clients, people who are just about to go to hospital to sell them premium services. And the problem is, some prospects were called by the commercial team while they did not know yet they would have to go to hospital very soon. You are the CEO of this company. Do you stop that program? Not an easy question.
Bazı durumlar gri alanda kalıyordu. Bir sağlık sigortası şirketiyle çalışıyorduk. Hangi müşterilerinin hastaneye gitmek üzere olduğunu belirleyerek onlara lüks hizmetler satan bir yapay zekâ motoru geliştirmişti. Sorun şuydu: Hastaneye gitmesi gerekebileceğinden henüz haberi olmayan bazı müşteriler satış ekibi tarafından arandılar. Bu şirketin CEO'su sizsiniz. Bu programı durdurur musunuz? Kolay bir soru değil.
And to tackle this question, some companies are building teams, defining ethical rules and standards to help business and tech teams set limits between personalization and manipulation, customization of offers and discrimination, targeting and intrusion.
Bu soruyu ele almak için bazı şirketler, iş ve teknoloji ekiplerini kişiselleştirme ve manipülasyon, kişiye özel teklifler ve ayırımcılık, hedefleme ve ihlal arasında limitler konulmasına yardımcı olacak takımlar kurup etik kurallar ve standartlar tanımlıyorlar.
I am convinced that in every company, applying AI where it really matters has massive payback. Business leaders need to be bold and select a few topics, and for each of them, mobilize 10, 20, 30 people from their best teams -- tech, AI, data science, ethics -- and go through the full 10-, 20-, 70-percent cycle of "Human plus AI," if they want to land AI effectively in their teams and processes. There is no other way.
Herhangi bir şirkette gerçekten önemli durumlarda yapay zekâ uygulamanın çok büyük getirisi olduğuna ben ikna oldum. İş liderleri yapay zekâyı takım ve süreçlerine verimli bir şekilde uygulamak isterlerse cesur olmaları, birkaç konu seçmeleri, her konu için teknoloji, yapay zekâ, veri bilimi, etik gibi en iyi takımlarından 10, 20, 30 kişiyi harekete geçirip "İnsan artı yapay zeka" felsefesinin yüzde 10- 20-70 döngüsünün tamamının üzerinden gitmeleri gerekir. Başka bir yolu yok.
Citizens in developed economies already fear algocracy. Seven thousand were interviewed in a recent survey. More than 75 percent expressed real concerns on the impact of AI on the workforce, on privacy, on the risk of a dehumanized society. Pushing algocracy creates a real risk of severe backlash against AI within companies or in society at large. "Human plus AI" is our only option to bring the benefits of AI to the real world. And in the end, winning organizations will invest in human knowledge, not just AI and data. Recruiting, training, rewarding human experts. Data is said to be the new oil, but believe me, human knowledge will make the difference, because it is the only derrick available to pump the oil hidden in the data.
Gelişmiş ekonomilerdeki vatandaşlar algokrasiden hali hazırda korkuyorlar. Yeni bir anket kapsamında yedi bin kişiyle görüşüldü. Bunların yüzde 75'inden fazlası yapay zekânın iş gücüne, gizliliğe etkisinden ve insanlıktan çıkmış bir toplum riskinden cidden endişelendiklerini belirttiler. Algokrasiyi dayatmak şirketlerde ve hatta toplumda yapay zekâya karşı ciddi bir ters tepki riski yaratır. "İnsan artı yapay zekâ" yapay zekânın faydalarını gerçek dünyaya getirmek için tek seçeneğimizdir. Son olarak kazanan kuruluşlar insan bilgisine yatırım yapacaklar. Sadece yapay zekâ ve veriye değil. İnsan uzmanlarını işe almak, eğitmek, ödüllendirmek. Verinin petrolün yerini aldığı söyleniyor fakat aslında fark yaratan şey insan bilgisi olacak. Çünkü veride gizlenmiş petrolü pompalamak için mevcut olan tek vinç odur.
Thank you.
Teşekkürler.
(Applause)
(Alkışlar)