So, artificial intelligence is known for disrupting all kinds of industries. What about ice cream? What kind of mind-blowing new flavors could we generate with the power of an advanced artificial intelligence? So I teamed up with a group of coders from Kealing Middle School to find out the answer to this question. They collected over 1,600 existing ice cream flavors, and together, we fed them to an algorithm to see what it would generate. And here are some of the flavors that the AI came up with.
Yapay zekânın, her tür endüstriyi bozduğu bilinmektedir. Peki ya dondurma? Gelişmiş bir yapay zekânın gücüyle akıllara durgunluk verecek ne tür tatlar oluşturabiliriz? Bu sorunun cevabını bulmak için Kealing orta okulundan bir grup kodlayıcı ile birlikte çalıştım. Mevcut olan yaklaşık 1600 dondurma tadını topladılar ve birlikte, ne oluşturacağını görmek için onları bir algoritmaya çevirdik. İşte yapay zekânın ürettiği tatlardan birkaçı.
[Pumpkin Trash Break]
[Kabak Çöpü Parçası]
(Laughter)
(Gülüşmeler)
[Peanut Butter Slime]
[Fıstık Ezmesi Balçığı]
[Strawberry Cream Disease]
[Çilek Kreması Hastalığı]
(Laughter)
(Gülüşmeler)
These flavors are not delicious, as we might have hoped they would be. So the question is: What happened? What went wrong? Is the AI trying to kill us? Or is it trying to do what we asked, and there was a problem?
Bu tatlar umduğumuz gibi lezzetli değiller. Soru şu: Ne oldu? Yanlış giden neydi? Yapay zekâ bizi öldürmeye mi çalışıyor? Yoksa istediğimiz şeyi yapmaya mı çalışıyor ve bir problem mi oluyor?
In movies, when something goes wrong with AI, it's usually because the AI has decided that it doesn't want to obey the humans anymore, and it's got its own goals, thank you very much. In real life, though, the AI that we actually have is not nearly smart enough for that. It has the approximate computing power of an earthworm, or maybe at most a single honeybee, and actually, probably maybe less. Like, we're constantly learning new things about brains that make it clear how much our AIs don't measure up to real brains. So today's AI can do a task like identify a pedestrian in a picture, but it doesn't have a concept of what the pedestrian is beyond that it's a collection of lines and textures and things. It doesn't know what a human actually is. So will today's AI do what we ask it to do? It will if it can, but it might not do what we actually want.
Filmlerde yapay zekâyla ilgili bir hata olduğunda bu genelde yapay zekânın, artık insanlara itaat etmemeye karar vermesi nedeniyle olur ve artık kendi kuralları vardır, çok teşekkürler. Ancak, gerçek hayatta sahip olduğumuz yapay zekâ bunu yapabilecek kadar zeki değil. Yaklaşık bir solucanın veya belki de olsa olsa tek bir bal arısının programlama gücüne sahiptir ve aslında, belki de daha azına sahiptir. Beyinlerle ilgili sürekli yeni şeyler öğreniyoruz ve bu da yapay zekânın neden gerçek beyinlerle aynı düzeyde olmayacağını açıklıyor. Günümüzdeki yapay zekâ, bir resimde yayayı saptamak gibi bir görevi yapabilir, fakat bir yayanın ne olduğunu kavrayamaz, yaya onun için bir çizgiler, dokular ve bazı şeylerin toplamıdır. Bir insanın aslında ne olduğunu bilmez. Peki günümüzün yapay zekâsı biz ne istersek onu mu yapacak? Eğer yapabilirse evet, fakat gerçekten istediğimizi yapamayabilir.
So let's say that you were trying to get an AI to take this collection of robot parts and assemble them into some kind of robot to get from Point A to Point B. Now, if you were going to try and solve this problem by writing a traditional-style computer program, you would give the program step-by-step instructions on how to take these parts, how to assemble them into a robot with legs and then how to use those legs to walk to Point B. But when you're using AI to solve the problem, it goes differently. You don't tell it how to solve the problem, you just give it the goal, and it has to figure out for itself via trial and error how to reach that goal. And it turns out that the way AI tends to solve this particular problem is by doing this: it assembles itself into a tower and then falls over and lands at Point B. And technically, this solves the problem. Technically, it got to Point B. The danger of AI is not that it's going to rebel against us, it's that it's going to do exactly what we ask it to do. So then the trick of working with AI becomes: How do we set up the problem so that it actually does what we want?
Diyelim ki bir yapay zekânın bu robot parçalarını alıp A noktasından B noktasına gidecek bir robota dönüştürmesini istiyorsunuz. Bu problemi geleneksel türden bir bilgisayar programı yazarak çözmeyi deneyecek olsaydınız, programa bu parçaları nasıl alacağına, bunları bacaklı bir robota nasıl dönüştüreceğine ve o bacakları B noktasına gitmesi için nasıl kullanacağına dair adım adım talimatlar verirdiniz. Fakat problemi çözmek için yapay zekâ kullandığınızda işler farklı ilerliyor. Ona problemi nasıl çözeceğini söylemiyorsunuz, ona sadece amacı veriyorsunuz ve onun, amaca ulaşmak için deneme yanılma aracılığıyla kendisi çözmesi gerekiyor. Yapay zekânın bu problemi çözmek için gittiği yol şu şekilde görünüyor: kendisini bir kuleye monte ediyor, sonra düşüyor ve B noktasına iniş yapıyor. Bu, teknik olarak problemi çözüyor. Teknik olarak B noktasına gidiyor. Yapay zekânın tehlikesi aslında bizlere karşı ayaklanacağı değil, tam olarak yapmalarını istediğimiz şeyleri yapacak olmalarıdır. O zaman da yapay zekâyla çalışma hilesi şu hale geliyor: Problemi nasıl düzenleyelim ki gerçekten istediğimizi yapsın?
So this little robot here is being controlled by an AI. The AI came up with a design for the robot legs and then figured out how to use them to get past all these obstacles. But when David Ha set up this experiment, he had to set it up with very, very strict limits on how big the AI was allowed to make the legs, because otherwise ...
Bu küçük robot bir yapay zekâ tarafından kontrol ediliyor. Yapay zekâ robot bacakları için bir tasarım buldu ve sonra onları, bu engelleri aşmak için nasıl kullanacağını çözdü. Fakat David Ha bu deneyi oluşturduğunda yapay zekânın bacakları ne kadar büyük yapabileceğine dair çok, çok katı kısıtlamalarla oluşturmalıydı, çünkü, aksi takdirde...
(Laughter)
(Gülüşmeler)
And technically, it got to the end of that obstacle course. So you see how hard it is to get AI to do something as simple as just walk.
Teknik olarak bu engel rotasının sonuna varabildi. Bir yapay zekânın, yürümek gibi basit bir eylemi yapmasını sağlamak çok zor.
So seeing the AI do this, you may say, OK, no fair, you can't just be a tall tower and fall over, you have to actually, like, use legs to walk. And it turns out, that doesn't always work, either. This AI's job was to move fast. They didn't tell it that it had to run facing forward or that it couldn't use its arms. So this is what you get when you train AI to move fast, you get things like somersaulting and silly walks. It's really common. So is twitching along the floor in a heap.
Yapay zekânın bunu yaptığını görünce, bu haksızlık diyebilirsiniz, yüksek bir kule olup düşemezsiniz, yürümek için bacak kullanmanız gerek diyebilirsiniz. Görünen o ki, bu da her zaman işe yaramıyor. Yapay zekânın işi hızlı hareket etmek. Ona ileri doğru koşması gerektiğini veya kollarını kullanamayacağını söylemediler. Yapay zekâya hızlı hareket etmeyi öğrettiğiniz zaman olan şey budur, takla atmak veya şaşkınca yürüyüşler gibi şeylerle karşılaşırsınız. Bu gerçekten yaygın. Yerde sürünmek de yaygın.
(Laughter)
(Gülüşmeler)
So in my opinion, you know what should have been a whole lot weirder is the "Terminator" robots. Hacking "The Matrix" is another thing that AI will do if you give it a chance. So if you train an AI in a simulation, it will learn how to do things like hack into the simulation's math errors and harvest them for energy. Or it will figure out how to move faster by glitching repeatedly into the floor. When you're working with AI, it's less like working with another human and a lot more like working with some kind of weird force of nature. And it's really easy to accidentally give AI the wrong problem to solve, and often we don't realize that until something has actually gone wrong.
Bana göre, bundan çok daha garip olan şey, "Terminatör" robotları. Ona bir şans verirseniz, yapay zekanın yapacağı diğer şey "Matrix"e girmektir. Bir simülasyonda yapay zekâyı eğitirseniz, simülasyonun matematik hatalarına girmek ve onları enerji için saklamak gibi şeyleri yapmayı öğrenir. Sürekli yerde sürünerek hızlı hareket etmeyi de çözebilir. Bir yapay zekâyla çalışırken bu diğer bir insanla çalışmaktan ziyade, daha çok doğanın garip bir gücüyle çalışmaya benziyor. Yapay zekâya çözmesi için kazara yanlış problemi vermek de çok kolay ve bir şeyler yanlış gidene dek bunu genelde fark etmeyiz.
So here's an experiment I did, where I wanted the AI to copy paint colors, to invent new paint colors, given the list like the ones here on the left. And here's what the AI actually came up with.
Yaptığım bir deneyde yapay zekâdan boya renklerini kopyalamasını ve yeni boya renkleri yaratmasını istedim, bu soldaki listedekiler gibi bir liste verdim. Yapay zekânın önerdikleri ise şunlar.
[Sindis Poop, Turdly, Suffer, Gray Pubic]
[Sindi Kakası, Gübremsi, Acı, Gri Kasık]
(Laughter)
(Gülüşmeler)
So technically, it did what I asked it to. I thought I was asking it for, like, nice paint color names, but what I was actually asking it to do was just imitate the kinds of letter combinations that it had seen in the original. And I didn't tell it anything about what words mean, or that there are maybe some words that it should avoid using in these paint colors. So its entire world is the data that I gave it. Like with the ice cream flavors, it doesn't know about anything else.
Teknik olarak istediğimi yaptı. Ben güzel boya renkleri isimleri istediğimi düşünmüştüm, fakat aslında yapmasını istediğim şey orijinalinde gördüğü harf kombinasyonları türlerini taklit etmesiydi. Kelimelerin ne anlama geldiğine dair veya isimleri bulurken kullanmaması gereken bazı kelimeler olabileceğine dair hiçbir şey söylemedim. Yani onun tüm dünyası, benim ona sağladığım veri. Dondurma tatları gibi, başka hiçbir şey bilmiyor.
So it is through the data that we often accidentally tell AI to do the wrong thing. This is a fish called a tench. And there was a group of researchers who trained an AI to identify this tench in pictures. But then when they asked it what part of the picture it was actually using to identify the fish, here's what it highlighted. Yes, those are human fingers. Why would it be looking for human fingers if it's trying to identify a fish? Well, it turns out that the tench is a trophy fish, and so in a lot of pictures that the AI had seen of this fish during training, the fish looked like this.
Yani genelde veri aracılığıyla yapay zekâya kazara yanlış şeyi yapmasını söylüyoruz. Bu, karabalık adlı bir balık. Bir grup araştırmacı da yapay zekâyı resimlerde karabalığı saptaması için eğitmişti. fakat ona, balığı saptamak için resmin hangi kısmını kullandığını sorduklarında, işte bunu vurguladı. Evet, bunlar insan elinin parmakları. Bir balığı saptamayı deniyorsa, neden insan elinin parmaklarını arıyor? Görünen o ki bu karabalık bir ödül balığı ve eğitimi sırasında yapay zekânın gördüğü birçok resimde, balık böyle görünüyordu.
(Laughter)
(Gülüşmeler)
And it didn't know that the fingers aren't part of the fish.
Parmakların, balığın bir parçası olmadığını bilmiyordu.
So you see why it is so hard to design an AI that actually can understand what it's looking at. And this is why designing the image recognition in self-driving cars is so hard, and why so many self-driving car failures are because the AI got confused. I want to talk about an example from 2016. There was a fatal accident when somebody was using Tesla's autopilot AI, but instead of using it on the highway like it was designed for, they used it on city streets. And what happened was, a truck drove out in front of the car and the car failed to brake. Now, the AI definitely was trained to recognize trucks in pictures. But what it looks like happened is the AI was trained to recognize trucks on highway driving, where you would expect to see trucks from behind. Trucks on the side is not supposed to happen on a highway, and so when the AI saw this truck, it looks like the AI recognized it as most likely to be a road sign and therefore, safe to drive underneath.
Baktığı şeyi gerçekten anlayabilecek bir yapay zekâ tasarlamanın neden çok zor olduğunu görüyorsunuz. Ayrıca sürücüsüz arabalarda görüntü tanımayı tasarlamanın zor olmasının nedeni de bu ve sürücüsüz arabalardaki birçok başarısızlık da yapay zekânın şaşırması nedenlidir. 2016'dan bir örnek vermek istiyorum. Birisi Tesla'nın oto-pilot yapay zekasını kullanırken ölümcül bir kaza oldu, fakat tasarlandığı üzere otoyolda kullanmak yerine, şehrin sokaklarında kullandılar. Olan şey de şuydu; bir kamyon, arabanın önüne sürdü ve araba fren yapamadı. Yapay zekâ kesinlikle resimlerde kamyonları saptamak üzere eğitilmişti. Fakat olan şey şu gibi görünüyor, yapay zekâ otoyolda giden kamyonları saptamayı öğrenmişti, yani kamyonları arkadan göreceğimiz bir şekilde öğrenmişti. Yanı görünen kamyonların otoyolda olmaları beklenmez ve yapay zekâ bu kamyonu gördüğünde, büyük olasılıkla bir yol işareti olarak algıladı ve altından geçmenin güvenli olduğunu düşündü.
Here's an AI misstep from a different field. Amazon recently had to give up on a résumé-sorting algorithm that they were working on when they discovered that the algorithm had learned to discriminate against women. What happened is they had trained it on example résumés of people who they had hired in the past. And from these examples, the AI learned to avoid the résumés of people who had gone to women's colleges or who had the word "women" somewhere in their resume, as in, "women's soccer team" or "Society of Women Engineers." The AI didn't know that it wasn't supposed to copy this particular thing that it had seen the humans do. And technically, it did what they asked it to do. They just accidentally asked it to do the wrong thing.
Yapay zekânın başka alanda attığı yanlış bir adım daha. Amazon, algoritmanın kadınlara karşı ayrımcılık yapmayı öğrendiğini keşfettiği zaman, bir özgeçmiş-sıralama algoritmasından vazgeçmek zorunda kaldı. Olan şey şuydu, yapay zekâyı geçmişte işe aldıkları insanlara ait örnek özgeçmişlerle eğittiler. Yapay zekâ da bu örneklerden, kadın okullarına gitmiş olan veya özgeçmişinin herhangi bir yerinde "kadın" kelimesi geçen, -- "kadın futbol takımı" veya "Kadın Mühendisler Derneği" gibi -- özgeçmişlerden kaçınmayı öğrendi. Yapay zekâ, insanların yaptığını gördüğü bu şeyi kopyalaması gerekmediğini bilmiyordu. Teknik olarak da yapmasını istedikleri şeyi yaptı. Sadece, yanlış şeyi yapmasını istediler.
And this happens all the time with AI. AI can be really destructive and not know it. So the AIs that recommend new content in Facebook, in YouTube, they're optimized to increase the number of clicks and views. And unfortunately, one way that they have found of doing this is to recommend the content of conspiracy theories or bigotry. The AIs themselves don't have any concept of what this content actually is, and they don't have any concept of what the consequences might be of recommending this content.
Yapay zekâyla bu her zaman olur. Yapay zeka çok zararlı olabilir ve bunu bilmeyebilir. Facebook, YouTube'da yeni içerik öneren yapay zekâlar, tıklama ve görüntüleme sayısını yükseltmek üzere optimize edilmiştir. Ne yazık ki bunu yapmak için buldukları bir yol da, komplo teorisi veya fanatiklik içerikleri önermek. Yapay zekâların, bu içeriklere dair herhangi bir fikirleri yok ve bu içeriği önerdikleri zaman sonucun ne olacağına dair de herhangi bir fikirleri yok.
So, when we're working with AI, it's up to us to avoid problems. And avoiding things going wrong, that may come down to the age-old problem of communication, where we as humans have to learn how to communicate with AI. We have to learn what AI is capable of doing and what it's not, and to understand that, with its tiny little worm brain, AI doesn't really understand what we're trying to ask it to do. So in other words, we have to be prepared to work with AI that's not the super-competent, all-knowing AI of science fiction. We have to be prepared to work with an AI that's the one that we actually have in the present day. And present-day AI is plenty weird enough.
Yani, yapay zekâyla çalışırken problemlerden kaçınmak bize bağlıdır. Yanlış giden şeylerden kaçınmak da öyle, bu çok eski iletişim problemine kadar da inebilir, insanlar yapay zekâyla nasıl iletişim kuracağını öğrenmelidir. Yapay zekânın ne yapabildiğini ve ne yapamadığını öğrenmeliyiz ve yapay zekânın, çok küçük solucan beyniyle, ondan yapmasını istediğimiz şeyi aslında anlamadığını anlamalıyız. Yani, süper-yetkili, her şeyi bilen bilim kurgu yapay zekâlarına benzemeyen yapay zekâ ile çalışmaya hazırlıklı olmalıyız. Şimdiki zamanda sahip olduğumuz tek yapay zekâyla çalışmaya hazırlıklı olmalıyız. Günümüzün yapay zekâsı da yeterince garip.
Thank you.
Teşekkürler.
(Applause)
(Alkış)