So, artificial intelligence is known for disrupting all kinds of industries. What about ice cream? What kind of mind-blowing new flavors could we generate with the power of an advanced artificial intelligence? So I teamed up with a group of coders from Kealing Middle School to find out the answer to this question. They collected over 1,600 existing ice cream flavors, and together, we fed them to an algorithm to see what it would generate. And here are some of the flavors that the AI came up with.
Deci, inteligența artificială e cunoscută pentru perturbarea multor tipurilor de industrii. Dar cum rămâne cu înghețata? Ce fel de arome năucitoare noi am putea să generăm cu puterea unei inteligențe artificiale avansate? Am făcut echipă cu un grup de programatori de la Kealing Middle School pentru a afla răspunsul la această întrebare. Au colectat peste 1.600 de arome existente de înghețată, pe care le-am introdus într-un algoritm pentru a vedea ce va genera. Iată câteva dintre aromele pe care le-a generat IA.
[Pumpkin Trash Break]
[Gunoi de Dovleac Crăpat]
(Laughter)
(Râsete)
[Peanut Butter Slime]
[Mocirlă de Unt de Arahide]
[Strawberry Cream Disease]
[Boală de Cremă de Căpșuni]
(Laughter)
(Râsete)
These flavors are not delicious, as we might have hoped they would be. So the question is: What happened? What went wrong? Is the AI trying to kill us? Or is it trying to do what we asked, and there was a problem?
Aceste arome nu sunt delicioase, așa cum am fi sperat că vor fi. Deci, întrebarea e: ce s-a întâmplat? Ce a mers rău? Încearcă IA să ne omoare? Sau încearcă să facă ceea ce i-am cerut, dar a existat o problemă?
In movies, when something goes wrong with AI, it's usually because the AI has decided that it doesn't want to obey the humans anymore, and it's got its own goals, thank you very much. In real life, though, the AI that we actually have is not nearly smart enough for that. It has the approximate computing power of an earthworm, or maybe at most a single honeybee, and actually, probably maybe less. Like, we're constantly learning new things about brains that make it clear how much our AIs don't measure up to real brains. So today's AI can do a task like identify a pedestrian in a picture, but it doesn't have a concept of what the pedestrian is beyond that it's a collection of lines and textures and things. It doesn't know what a human actually is. So will today's AI do what we ask it to do? It will if it can, but it might not do what we actually want.
În filme, când ceva nu merge bine cu IA, este de obicei pentru că IA a decis că nu mai vrea să se supună oamenilor, și are propriile ei obiective, mulțumesc foarte mult. În viața reală însă, IA pe care o avem de fapt nu este destul de inteligentă pentru asta. Are puterea de calcul aproximativă cu a unui vierme de pământ, sau poate cel mult cu a unei singure albine, și de fapt, probabil poate mai puțin. Învățăm constant lucruri noi despre creier care clarifică faptul că IA nu poate concura cu creierele reale. IA curentă poate realiza identificarea unui pieton dintr-o imagine, dar nu are un concept despre ce este pietonul dincolo de faptul că este o colecție de linii, texturi și lucruri. Nu știe ce este de fapt un om. Deci, IA din zilele noastre va face ceea ce îi cerem să facă? O va face dacă va putea, dar s-ar putea să nu facă ceea ce ne dorim de fapt.
So let's say that you were trying to get an AI to take this collection of robot parts and assemble them into some kind of robot to get from Point A to Point B. Now, if you were going to try and solve this problem by writing a traditional-style computer program, you would give the program step-by-step instructions on how to take these parts, how to assemble them into a robot with legs and then how to use those legs to walk to Point B. But when you're using AI to solve the problem, it goes differently. You don't tell it how to solve the problem, you just give it the goal, and it has to figure out for itself via trial and error how to reach that goal. And it turns out that the way AI tends to solve this particular problem is by doing this: it assembles itself into a tower and then falls over and lands at Point B. And technically, this solves the problem. Technically, it got to Point B. The danger of AI is not that it's going to rebel against us, it's that it's going to do exactly what we ask it to do. So then the trick of working with AI becomes: How do we set up the problem so that it actually does what we want?
Deci, să spunem că încercați să faceți IA să ia aceste părți ale unui robot și să le asambleze într-un fel de robot pentru a merge din punctul A în punctul B. Dacă ați încerca să rezolvați această problemă prin scrierea unui program în stil tradițional, îi veți da programului instrucțiuni pas cu pas, despre cum să ia aceste părți, cum să le asambleze într-un robot cu picioare și apoi cum să folosească acele picioare pentru a merge până în punctul B. Dar când utilizați IA pentru a rezolva problema, e diferit. Nu îi spuneți cum să rezolve problema, îi dați doar obiectivul, și trebuie să-și dea seama singură prin încercări și greșeli cum să atingă acel obiectiv. Și se dovedește că modul în care IA tinde să rezolve această problemă specifică este făcând astfel: le asamblează într-un turn care apoi cade și aterizează în punctul B. Și practic, asta rezolvă problema. Practic, a ajuns în punctul B. Pericolul IA nu este că se va revolta împotriva noastră, ci că va face exact ceea ce îi cerem să facă. Atunci întrebarea devine: cum să formulăm problema astfel încât să facă exact ce ne dorim?
So this little robot here is being controlled by an AI. The AI came up with a design for the robot legs and then figured out how to use them to get past all these obstacles. But when David Ha set up this experiment, he had to set it up with very, very strict limits on how big the AI was allowed to make the legs, because otherwise ...
Deci, acest mic robot de aici este controlat de IA. IA a creat un design pentru picioarele robotului și apoi a înțeles cum să le folosească pentru a trece peste toate obstacolele. Dar când David Ha a creat acest experiment, a trebuit să-l stabilească cu limite foarte, foarte stricte despre cât de mari i-a fost permis IA să facă picioarele, pentru că altfel...
(Laughter)
(Râsete)
And technically, it got to the end of that obstacle course. So you see how hard it is to get AI to do something as simple as just walk.
Și tehnic vorbind, a ajuns la sfârșitul acelei curse cu obstacole. Vedeți cât de greu e să faceți IA să facă ceva simplu ca mersul.
So seeing the AI do this, you may say, OK, no fair, you can't just be a tall tower and fall over, you have to actually, like, use legs to walk. And it turns out, that doesn't always work, either. This AI's job was to move fast. They didn't tell it that it had to run facing forward or that it couldn't use its arms. So this is what you get when you train AI to move fast, you get things like somersaulting and silly walks. It's really common. So is twitching along the floor in a heap.
Deci, văzând că IA face asta, e posibil să spuneți: bine, dar nu e corect. Nu poate fi înalt cât un turn și doar să cadă, trebuie să-și folosească picioarele pentru a merge. Și se pare că nici asta nu funcționează întotdeauna. Scopul acestei IA a fost să se miște repede. Nu i-au spus că trebuie să meargă înainte sau că nu-și putea folosi brațele. Asta obțineți atunci când antrenați IA pentru a se deplasa rapid, obțineți tumbe sau mers ciudat. Este ceva foarte comun. La fel e și târâirea de-a lungul podelei.
(Laughter)
(Râsete)
So in my opinion, you know what should have been a whole lot weirder is the "Terminator" robots. Hacking "The Matrix" is another thing that AI will do if you give it a chance. So if you train an AI in a simulation, it will learn how to do things like hack into the simulation's math errors and harvest them for energy. Or it will figure out how to move faster by glitching repeatedly into the floor. When you're working with AI, it's less like working with another human and a lot more like working with some kind of weird force of nature. And it's really easy to accidentally give AI the wrong problem to solve, and often we don't realize that until something has actually gone wrong.
În opinia mea, ce ar putea fi mult mai ciudat sunt roboții „Terminator”. Spargerea „Matrix-ului” e un alt lucru pe care IA îl va face dacă-i dați șansa. Deci, dacă antrenați o IA într-o simulare, va învăța să facă lucruri precum folosirea erorilor matematice ale simulării și să le recolteze pentru energie. Sau va învăța cum să se miște mai repede aruncându-se în mod repetat pe podea. Când lucrați cu IA, e mai puțin ca și cum ați lucra cu alt om și mai mult ca și cum ați lucra cu un fel de forță ciudată a naturii. Și e foarte ușor să-i dați IA problema greșită spre rezolvare, și de multe ori nu ne dăm seama de asta până când ceva nu a mers greșit.
So here's an experiment I did, where I wanted the AI to copy paint colors, to invent new paint colors, given the list like the ones here on the left. And here's what the AI actually came up with.
Iată un experiment pe care l-am făcut, unde am vrut ca IA să copieze culorile, și să inventeze noi culori, având în vedere o listă precum cea din stânga. Și iată cu ce a venit IA.
[Sindis Poop, Turdly, Suffer, Gray Pubic]
[Sindis Poop, Turdly, Suffer, Grey Pubic]
(Laughter)
(Râsete)
So technically, it did what I asked it to. I thought I was asking it for, like, nice paint color names, but what I was actually asking it to do was just imitate the kinds of letter combinations that it had seen in the original. And I didn't tell it anything about what words mean, or that there are maybe some words that it should avoid using in these paint colors. So its entire world is the data that I gave it. Like with the ice cream flavors, it doesn't know about anything else.
Deci tehnic, a făcut ceea ce i-am cerut. Am crezut că i-am cerut, nume frumoase de culori, dar ceea ce i-am cerut de fapt a fost doar să imite tipurile de combinații de litere pe care le văzuse în original. Și nu i-am spus nimic despre ce înseamnă acele cuvinte, sau că există poate câteva cuvinte cărora ar trebui să le evite utilizarea în aceste culori. Deci întreaga ei lume sunt datele pe care i le-am dat. Ca și în cazul aromelor de înghețată, nu știe nimic altceva.
So it is through the data that we often accidentally tell AI to do the wrong thing. This is a fish called a tench. And there was a group of researchers who trained an AI to identify this tench in pictures. But then when they asked it what part of the picture it was actually using to identify the fish, here's what it highlighted. Yes, those are human fingers. Why would it be looking for human fingers if it's trying to identify a fish? Well, it turns out that the tench is a trophy fish, and so in a lot of pictures that the AI had seen of this fish during training, the fish looked like this.
Deci, prin intermediul datelor deseori îi spunem accidental IA să facă un lucru greșit. Acesta este un pește numit lin. Și a existat un grup de cercetători care au instruit IA pentru a identifica acest lin în imagini. Dar atunci când au întrebat-o ce parte a imaginii folosea pentru identificarea peștilor, iată ce a răspuns. Da, acestea sunt degete umane. De ce ar fi căutat degete umane dacă încearcă să identifice un pește? Ei bine, s-a descoperit că lin-ul este un pește trofeu, și astfel, într-o mulțime de poze pe care IA le-a văzut cu acest pește în timpul antrenamentului, peștele arăta așa.
(Laughter)
(Râsete)
And it didn't know that the fingers aren't part of the fish.
Și nu știa că degetele nu fac parte din pește.
So you see why it is so hard to design an AI that actually can understand what it's looking at. And this is why designing the image recognition in self-driving cars is so hard, and why so many self-driving car failures are because the AI got confused. I want to talk about an example from 2016. There was a fatal accident when somebody was using Tesla's autopilot AI, but instead of using it on the highway like it was designed for, they used it on city streets. And what happened was, a truck drove out in front of the car and the car failed to brake. Now, the AI definitely was trained to recognize trucks in pictures. But what it looks like happened is the AI was trained to recognize trucks on highway driving, where you would expect to see trucks from behind. Trucks on the side is not supposed to happen on a highway, and so when the AI saw this truck, it looks like the AI recognized it as most likely to be a road sign and therefore, safe to drive underneath.
Așa că vedeți de ce e atât de greu să construiești o IA care poate înțelege ce privește. De asta realizarea recunoașterii imaginilor în mașinile fără șofer e atât de grea, și de ce atâtea defecțiuni ale autovehiculului au loc pentru că IA s-a zăpăcit. Vreau să vorbesc despre un exemplu din 2016. A avut loc un accident mortal când cineva a folosit o Tesla pilotată de o IA, dar în loc să o folosească pe autostradă așa cum a fost proiectată, au folosit-o pe străzile orașului. Și ce s-a întâmplat a fost că un camion a trecut prin fața mașinii, iar mașina nu a frânat. IA a fost cu siguranță instruită să recunoască camioanele în imagini. Dar ceea ce pare să se fi întâmplat e că IA a fost instruită să recunoască camioanele pe autostradă, unde te-ai aștepta să vezi camioanele din spate. Venirea camioanelor din lateral nu e de așteptat pe o autostradă, și atunci când IA a văzut acest camion, l-a recunoscut ca fiind cel mai probabil un semn rutier și, prin urmare, în regulă să treci pe sub el.
Here's an AI misstep from a different field. Amazon recently had to give up on a résumé-sorting algorithm that they were working on when they discovered that the algorithm had learned to discriminate against women. What happened is they had trained it on example résumés of people who they had hired in the past. And from these examples, the AI learned to avoid the résumés of people who had gone to women's colleges or who had the word "women" somewhere in their resume, as in, "women's soccer team" or "Society of Women Engineers." The AI didn't know that it wasn't supposed to copy this particular thing that it had seen the humans do. And technically, it did what they asked it to do. They just accidentally asked it to do the wrong thing.
Iată o greșeală a IA dintr-un alt domeniu. Recent Amazon a trebuit să renunțe la un algoritm de sortare a CV-urilor cu care lucrau când au descoperit că algoritmul învățase să discrimineze femeile. Ceea ce s-a întâmplat a fost că au instruit-o pe exemple de CV-uri ale oamenilor pe care îi angajaseră în trecut. Și din aceste exemple, IA a învățat să evite CV-urile persoanelor care au învățat în licee de fete sau cele care aveau cuvântul „femeie” undeva în CV-ul lor, ca în „echipa de fotbal feminin” sau „Societatea Femeilor Inginer.” IA nu știa că nu trebuia să copieze acest lucru așa cum i-a văzut pe oameni că fac. Și tehnic, a făcut ce i-au cerut să facă. I-au cerut din greșeală să facă un lucru greșit.
And this happens all the time with AI. AI can be really destructive and not know it. So the AIs that recommend new content in Facebook, in YouTube, they're optimized to increase the number of clicks and views. And unfortunately, one way that they have found of doing this is to recommend the content of conspiracy theories or bigotry. The AIs themselves don't have any concept of what this content actually is, and they don't have any concept of what the consequences might be of recommending this content.
Și acest lucru se întâmplă tot timpul cu IA. IA poate fi cu adevărat distructivă fără să știe. Deci, IA care recomandă conținut nou pe Facebook, pe YouTube, e optimizată pentru a crește numărul de clicuri și vizualizări. Și, din păcate, un mod prin care fac asta e prin recomandarea unui conținut conspiraționist sau bigot. IA în sine nu înțelege ce e acest conținut, și nu, nu înțelege nici care ar putea fi consecințele recomandării acestui tip de conținut.
So, when we're working with AI, it's up to us to avoid problems. And avoiding things going wrong, that may come down to the age-old problem of communication, where we as humans have to learn how to communicate with AI. We have to learn what AI is capable of doing and what it's not, and to understand that, with its tiny little worm brain, AI doesn't really understand what we're trying to ask it to do. So in other words, we have to be prepared to work with AI that's not the super-competent, all-knowing AI of science fiction. We have to be prepared to work with an AI that's the one that we actually have in the present day. And present-day AI is plenty weird enough.
Deci, atunci când lucrăm cu IA, depinde de noi să evităm probleme. Și evitând ca lucrurile să nu meargă bine, asta ar putea să ne ducă la vechea problemă de comunicare, unde noi, ca oameni, trebuie să învățăm cum să comunicăm cu IA. Trebuie să învățăm ce e capabilă să facă IA și ce nu e, și să înțelegem că având un creier mic de vierme, IA nu înțelege cu adevărat ce încercăm să-i cerem să facă. Deci, cu alte cuvinte, trebuie să fim pregătiți să lucrăm cu IA care nu e acea IA super competentă, atotștiutoare a științifico-fantasticului. Trebuie să ne pregătim să lucrăm cu IA pe care o avem de fapt în zilele noastre. Iar IA actuală este destul de ciudată.
Thank you.
Vă mulțumesc!
(Applause)
(Aplauze)