So, artificial intelligence is known for disrupting all kinds of industries. What about ice cream? What kind of mind-blowing new flavors could we generate with the power of an advanced artificial intelligence? So I teamed up with a group of coders from Kealing Middle School to find out the answer to this question. They collected over 1,600 existing ice cream flavors, and together, we fed them to an algorithm to see what it would generate. And here are some of the flavors that the AI came up with.
A Inteligência Artificial! é conhecida por perturbar todos os tipos de indústrias. Por exemplo, a dos gelados. Que tipo de estonteantes sabores podemos criar com o poder da inteligência artificial avançada? Associei-me a um grupo de programadores da escola secundária de Kealing, para descobrir a resposta a esta pergunta. Eles reuniram mais de 1600 sabores de gelados já existentes, e fornecemos-lhes um algoritmo para verificar o que ele poderia gerar. Estes são alguns dos sabores que a IA criou
[Pumpkin Trash Break]
[Quebra de Lixo de Abóbora]
(Laughter)
(Risos)
[Peanut Butter Slime]
[Baba de Manteiga de Amendoim]
[Strawberry Cream Disease]
[Doença de Creme de Morango]
(Laughter)
(Risos)
These flavors are not delicious, as we might have hoped they would be. So the question is: What happened? What went wrong? Is the AI trying to kill us? Or is it trying to do what we asked, and there was a problem?
Estes sabores não são tão deliciosos quanto esperávamos Logo, a pergunta é: O que aconteceu? O que correu mal? A IA está a tentar matar-nos? Ou está a tentar fazer o que pedimos e ocorreu um problema?
In movies, when something goes wrong with AI, it's usually because the AI has decided that it doesn't want to obey the humans anymore, and it's got its own goals, thank you very much. In real life, though, the AI that we actually have is not nearly smart enough for that. It has the approximate computing power of an earthworm, or maybe at most a single honeybee, and actually, probably maybe less. Like, we're constantly learning new things about brains that make it clear how much our AIs don't measure up to real brains. So today's AI can do a task like identify a pedestrian in a picture, but it doesn't have a concept of what the pedestrian is beyond that it's a collection of lines and textures and things. It doesn't know what a human actually is. So will today's AI do what we ask it to do? It will if it can, but it might not do what we actually want.
Nos filmes, quando algo corre mal com a IA, é geralmente porque a IA decidiu que não quer continuar a obedecer aos seres humanos e tem os seus próprios objetivos, muito obrigado! Porém, na vida real, a IA que temos não tem inteligência suficiente para isso. Tem uma capacidade de processamento aproximada à de uma minhoca, ou talvez no máximo, a de uma simples abelha e de facto, talvez ainda menos. Por exemplo, estamos sempre a aprender coisas novas sobre o cérebro o que deixa claro o quanto a nossa IA não se compara com o nosso cérebro. A IA de hoje consegue identificar um peão numa imagem, mas não tem o conceito do que é um peão, para além de um conjunto de linhas, de texturas e de elementos. Não sabe o que é um ser humano. Então, a IA de hoje irá fazer o que pedimos? Sim, fará se puder, mas pode não fazer o que desejamos.
So let's say that you were trying to get an AI to take this collection of robot parts and assemble them into some kind of robot to get from Point A to Point B. Now, if you were going to try and solve this problem by writing a traditional-style computer program, you would give the program step-by-step instructions on how to take these parts, how to assemble them into a robot with legs and then how to use those legs to walk to Point B. But when you're using AI to solve the problem, it goes differently. You don't tell it how to solve the problem, you just give it the goal, and it has to figure out for itself via trial and error how to reach that goal. And it turns out that the way AI tends to solve this particular problem is by doing this: it assembles itself into a tower and then falls over and lands at Point B. And technically, this solves the problem. Technically, it got to Point B. The danger of AI is not that it's going to rebel against us, it's that it's going to do exactly what we ask it to do. So then the trick of working with AI becomes: How do we set up the problem so that it actually does what we want?
Digamos que estamos a tentar que a IA pegue neste conjunto de partes de um robô e as monte num tipo de robô que vá do Ponto A ao Ponto B. Se formos tentar resolver este problema escrevendo um programa de computador ao estilo tradicional, daríamos ao programa instruções passo a passo de como agarrar nessas partes e como as montar num robô com pernas, e depois como usar essas pernas para andar até ao Ponto B. Mas quando usamos a IA para resolver o problema, as coisas funcionam de outro modo. Não lhe dizemos como resolver o problema apenas lhe damos o objetivo, e ela terá de descobrir por si mesma, através de tentativas e erros, como alcançar esse objetivo. Acontece que a IA tem tendência a resolver este problema específico fazendo o seguinte: monta uma torre que depois cai, aterrando no Ponto B. Tecnicamente, isso resolve o problema. Tecnicamente, ela chega ao Ponto B. O perigo da IA não é que se vá revoltar contra nós, mas que vai fazer exatamente o que lhe pedimos para fazer. Logo, o segredo de trabalhar com IA passa a ser: Como configuramos o problema para a IA fazer exatamente o que queremos?
So this little robot here is being controlled by an AI. The AI came up with a design for the robot legs and then figured out how to use them to get past all these obstacles. But when David Ha set up this experiment, he had to set it up with very, very strict limits on how big the AI was allowed to make the legs, because otherwise ...
Vejamos, este robô aqui, está a ser controlado por uma IA. A IA desenvolveu um modelo paras as pernas do robô, e depois descobriu como usá-las para ultrapassar todos os obstáculos. Mas quando o David Ha realizou esta experiência, teve de configurá-la com limites muito estritos em relação à dimensão que a IA teria para fazer as pernas, porque senão...
(Laughter)
(Risos)
And technically, it got to the end of that obstacle course. So you see how hard it is to get AI to do something as simple as just walk.
Tecnicamente, chegou ao fim daquela corrida de obstáculos. Vemos como é difícil conseguir que a IA faça algo tão simples como andar.
So seeing the AI do this, you may say, OK, no fair, you can't just be a tall tower and fall over, you have to actually, like, use legs to walk. And it turns out, that doesn't always work, either. This AI's job was to move fast. They didn't tell it that it had to run facing forward or that it couldn't use its arms. So this is what you get when you train AI to move fast, you get things like somersaulting and silly walks. It's really common. So is twitching along the floor in a heap.
Ao vermos a IA fazer isto, podemos dizer: "Ok, não é justo, não podes ser uma torre alta e cair, "tens de usar as pernas para andar". Acontece que isso também nem sempre funciona. A tarefa desta IA era avançar depressa. Não lhe disseram que tinha de avançar ou que não podia usar os braços. Logo, isto é o que acontece quando treinamos a IA para andar depressa, obtemos movimentos como cambalhotas e caminhadas ridículas. É muito comum. Tal como contorcer-se no chão.
(Laughter)
(Risos)
So in my opinion, you know what should have been a whole lot weirder is the "Terminator" robots. Hacking "The Matrix" is another thing that AI will do if you give it a chance. So if you train an AI in a simulation, it will learn how to do things like hack into the simulation's math errors and harvest them for energy. Or it will figure out how to move faster by glitching repeatedly into the floor. When you're working with AI, it's less like working with another human and a lot more like working with some kind of weird force of nature. And it's really easy to accidentally give AI the wrong problem to solve, and often we don't realize that until something has actually gone wrong.
Na minha opinião, sabem o que seria ainda mais estranho? É o robô "Exterminador". Invadir o "Matrix" é outra coisa que a IA fará, se lhe dermos essa oportunidade. Se treinarmos a IA num simulador, ela irá aprender a copiar os erros matemáticos do simulador e colhê-los para obter energia. Ou irá descobrir como andar mais depressa, falhando repetidamente aquela anomalia no chão. Quando se trabalha com a IA, é menos como trabalhar com outro ser humano e mais como trabalhar com uma estranha força da natureza. É muito fácil dar, acidentalmente, à IA o problema errado para resolver, e, geralmente, não damos por isso senão quando qualquer coisa corre mal.
So here's an experiment I did, where I wanted the AI to copy paint colors, to invent new paint colors, given the list like the ones here on the left. And here's what the AI actually came up with.
Esta é uma experiência que fiz em que eu queria que a IA copiasse as cores das tintas, para inventar novas cores de tintas, de acordo com uma lista como a que se encontra aqui à esquerda. E aqui está o que a IA sugeriu.
[Sindis Poop, Turdly, Suffer, Gray Pubic]
[Cocó Sindis , Cocó, Sofrimento, Púbico Cinza]
(Laughter)
(Risos)
So technically, it did what I asked it to. I thought I was asking it for, like, nice paint color names, but what I was actually asking it to do was just imitate the kinds of letter combinations that it had seen in the original. And I didn't tell it anything about what words mean, or that there are maybe some words that it should avoid using in these paint colors. So its entire world is the data that I gave it. Like with the ice cream flavors, it doesn't know about anything else.
Tecnicamente, fez o que eu pedi que fizesse. Eu pensei que estava a pedir nomes simpáticos para tintas, mas o que tinha pedido era apenas para imitar o tipo de combinações de letras que ela tinha visto no original. E eu nada disse em relação ao significado das palavras, ou que talvez houvesse algumas palavras que devia evitar usar nessas cores de tintas. Portanto, todo o mundo dela eram os dados que lhe fornecera. Tal como com os sabores dos gelados, ela não sabe mais nada.
So it is through the data that we often accidentally tell AI to do the wrong thing. This is a fish called a tench. And there was a group of researchers who trained an AI to identify this tench in pictures. But then when they asked it what part of the picture it was actually using to identify the fish, here's what it highlighted. Yes, those are human fingers. Why would it be looking for human fingers if it's trying to identify a fish? Well, it turns out that the tench is a trophy fish, and so in a lot of pictures that the AI had seen of this fish during training, the fish looked like this.
É geralmente através dos dados que acidentalmente dizemos à IA que faça as coisas erradas. Este é um peixe chamado tenca. Houve um grupo de investigadores que treinaram uma IA para identificar esta tenca em imagens. Mas quando lhe perguntaram que parte da imagem utilizava para identificar o peixe, eis o que ela salientou. Sim, são dedos humanos. Porque é que ela procurou dedos humanos se estava a tentar identificar um peixe? Bem, acontece que a tenca é um peixe-troféu, por isso, em muitas das imagens que a IA viu deste peixe, durante o treino, o peixe aparecia assim.
(Laughter)
(Risos)
And it didn't know that the fingers aren't part of the fish.
A IA não sabia que os dedos não faziam parte do peixe.
So you see why it is so hard to design an AI that actually can understand what it's looking at. And this is why designing the image recognition in self-driving cars is so hard, and why so many self-driving car failures are because the AI got confused. I want to talk about an example from 2016. There was a fatal accident when somebody was using Tesla's autopilot AI, but instead of using it on the highway like it was designed for, they used it on city streets. And what happened was, a truck drove out in front of the car and the car failed to brake. Now, the AI definitely was trained to recognize trucks in pictures. But what it looks like happened is the AI was trained to recognize trucks on highway driving, where you would expect to see trucks from behind. Trucks on the side is not supposed to happen on a highway, and so when the AI saw this truck, it looks like the AI recognized it as most likely to be a road sign and therefore, safe to drive underneath.
Assim, vemos porque é tão difícil configurar uma IA que consiga perceber o que procura. Isto é o motivo por que criar o reconhecimento de imagem num veículo autónomo é super difícil, e o motivo do fracasso de tantos veículos autónomos foi porque a IA ficou confusa. Vou falar sobre um exemplo que aconteceu em 2016. Houve um acidente fatal quando alguém usou o piloto automático da Tesla IA. Em vez de usá-lo na autoestrada, como tinha sido desenvolvido, usaram-no nas ruas da cidade. Aconteceu que um camião atravessou-se em frente do carro e o carro não travou. A IA fora treinada para reconhecer o camião nas imagens. Mas o que parece ter acontecido foi que a IA foi treinada para reconhecer os camiões na autoestrada onde esperamos ver os camiões por detrás. Na autoestrada, os camiões não aparecem pelos lados. Portanto, quando a IA viu o camião parece tê-lo reconhecido como um sinal de trânsito e portanto, seria seguro passar por baixo dele.
Here's an AI misstep from a different field. Amazon recently had to give up on a résumé-sorting algorithm that they were working on when they discovered that the algorithm had learned to discriminate against women. What happened is they had trained it on example résumés of people who they had hired in the past. And from these examples, the AI learned to avoid the résumés of people who had gone to women's colleges or who had the word "women" somewhere in their resume, as in, "women's soccer team" or "Society of Women Engineers." The AI didn't know that it wasn't supposed to copy this particular thing that it had seen the humans do. And technically, it did what they asked it to do. They just accidentally asked it to do the wrong thing.
Aqui podem ver um erro da IA num setor diferente. A Amazon teve de desistir de um algoritmo de seleção de currículos em que estava a trabalhar, quando descobriram que o algoritmo aprendera a discriminar as mulheres. Aconteceu que testaram a IA com base em exemplos de currículos de pessoas que tinham sido contratadas no passado. Com base nesses exemplos, a IA aprendeu a evitar currículos de pessoas que tinham frequentado colégios femininos ou que tinham a palavra "feminina" algures no currículo, como "equipa de futebol feminina" ou "Sociedade Feminina de Engenheiras". A IA não sabia que não devia copiar estes aspetos específicos que via os seres humanos fazerem. Tecnicamente, o programa fez o que lhe pediram para fazer. Só que eles pediram, sem querer, para fazer a coisa errada.
And this happens all the time with AI. AI can be really destructive and not know it. So the AIs that recommend new content in Facebook, in YouTube, they're optimized to increase the number of clicks and views. And unfortunately, one way that they have found of doing this is to recommend the content of conspiracy theories or bigotry. The AIs themselves don't have any concept of what this content actually is, and they don't have any concept of what the consequences might be of recommending this content.
Isto está sempre a acontecer com a IA. A IA pode ser destrutiva sem saber. Por isso, as IA que recomendam novos conteúdos no Facebook e no YouTube, estão otimizadas para aumentar o número de cliques e visualizações. Infelizmente, uma das formas que encontraram para fazer isso é recomendar os conteúdos de teorias de conspiração ou o fanatismo. A IA, por si só, não tem qualquer conceito do que este conteúdo representa, nem tem nenhum conceito das possíveis consequências de recomendar esses conteúdos.
So, when we're working with AI, it's up to us to avoid problems. And avoiding things going wrong, that may come down to the age-old problem of communication, where we as humans have to learn how to communicate with AI. We have to learn what AI is capable of doing and what it's not, and to understand that, with its tiny little worm brain, AI doesn't really understand what we're trying to ask it to do. So in other words, we have to be prepared to work with AI that's not the super-competent, all-knowing AI of science fiction. We have to be prepared to work with an AI that's the one that we actually have in the present day. And present-day AI is plenty weird enough.
Logo, quando trabalhamos com a IA, cabe-nos a nós evitar os problemas. Evitar que algo corra mal pode resumir-se ao velho problema da comunicação, em que nós, enquanto humanos, temos de aprender a comunicar com a IA. Temos de aprender o que a IA é capaz de fazer ou não e perceber que, com o seu minúsculo cérebro de minhoca, a IA não percebe o que estamos a tentar pedir-lhe para fazer. Por outras palavras, temos de estar preparados para trabalhar com uma IA que não seja a super competente ou a omnisciente IA da ficção científica. Temos de nos preparar para trabalhar com uma IA que seja a que atualmente temos. E a IA atual é suficientemente estranha.
Thank you.
Obrigada.
(Applause)
(Aplausos)