In the coming years, artificial intelligence is probably going to change your life, and likely the entire world. But people have a hard time agreeing on exactly how. The following are excerpts from a World Economic Forum interview where renowned computer science professor and AI expert Stuart Russell helps separate the sense from the nonsense.
Nos próximos anos, a inteligência artificial provavelmente vai mudar sua vida, e o mundo inteiro. Mas as pessoas tem dificuldade em concordar sobre como exatamente. A seguir, trechos de uma entrevista onde Stuart Russell, renomado professor de ciência da computação e especialista em IA, ajuda a separar o sentido do absurdo.
There’s a big difference between asking a human to do something and giving that as the objective to an AI system. When you ask a human to get you a cup of coffee, you don’t mean this should be their life’s mission, and nothing else in the universe matters. Even if they have to kill everybody else in Starbucks to get you the coffee before it closes— they should do that. No, that’s not what you mean. All the other things that we mutually care about, they should factor into your behavior as well.
Há uma grande diferença entre pedir que um humano faça algo, e dar isso como o objetivo para um sistema de IA. Quando você pede para um humano trazer uma xícara de café, não quer dizer que essa deve ser a missão da vida dele e nada mais no universo importa. Mesmo que precise matar todos os outros no Starbucks para pegar o seu café antes que feche, ele deve fazer isso. Não é isso que quer dizer. Quer dizer que todas as coisas que nos importam mutuamente devem influenciar seu comportamento também.
And the problem with the way we build AI systems now is we give them a fixed objective. The algorithms require us to specify everything in the objective. And if you say, can we fix the acidification of the oceans? Yeah, you could have a catalytic reaction that does that extremely efficiently, but it consumes a quarter of the oxygen in the atmosphere, which would apparently cause us to die fairly slowly and unpleasantly over the course of several hours.
O problema com o jeito que construímos sistemas de IA agora, é que damos a eles um objetivo fixo. Os algoritmos requerem que especifiquemos tudo no objetivo. E se você disser: “Podemos consertar a acidificação dos oceanos?” Sim, pode ter uma reação catalítica que faz isso de forma extremamente eficiente, mas consome um quarto do oxigênio na atmosfera, o que aparentemente causaria nossa morte de forma lenta e desagradável ao longo de várias horas.
So, how do we avoid this problem? You might say, okay, well, just be more careful about specifying the objective— don’t forget the atmospheric oxygen. And then, of course, some side effect of the reaction in the ocean poisons all the fish. Okay, well I meant don’t kill the fish either. And then, well, what about the seaweed? Don’t do anything that’s going to cause all the seaweed to die. And on and on and on.
Então, como evitamos esse problema? Você pode dizer: “Bem, só tenha mais cuidado ao especificar o objetivo, certo? Não se esqueça do oxigênio atmosférico.” Mas então, é claro, alguns efeitos colaterais da reação no oceano envenena todos os peixes. “Bem, quis dizer não matar os peixes também” E as algas marinhas? “Não faça nada que cause a morte de todas as algas marinhas.” E continua assim.
And the reason that we don’t have to do that with humans is that humans often know that they don’t know all the things that we care about. If you ask a human to get you a cup of coffee, and you happen to be in the Hotel George Sand in Paris, where the coffee is 13 euros a cup, it’s entirely reasonable to come back and say, well, it’s 13 euros, are you sure you want it, or I could go next door and get one? And it’s a perfectly normal thing for a person to do. To ask, I’m going to repaint your house— is it okay if I take off the drainpipes and then put them back? We don't think of this as a terribly sophisticated capability, but AI systems don’t have it because the way we build them now, they have to know the full objective. If we build systems that know that they don’t know what the objective is, then they start to exhibit these behaviors, like asking permission before getting rid of all the oxygen in the atmosphere.
E a razão pela qual não temos que fazer isso com humanos é que os humanos costumam saber que eles não sabem de todas as coisas que importam para nós. Se você pedir para um humano trazer uma xícara de café, e por acaso você está no Hotel George Sand em Paris, onde uma xícara de café custa 13 euros, é totalmente razoável voltar e dizer: “Bem, são 13 euros, tem certeza que quer, ou posso ir pegar um aqui do lado?” E é perfeitamente normal uma pessoa fazer isso. Perguntar: “Eu vou repintar a sua casa, tudo bem se eu tirar os canos de drenagem e depois colocá-los de volta?” Não pensamos nisso como uma capacidade terrivelmente sofisticada, mas sistemas de IA não tem isso, pois da forma que os construímos agora, precisam saber o objetivo completo. Se construirmos sistemas que sabem que eles não sabem qual é o objetivo, então eles começam a exibir esses comportamentos, como pedir permissão antes de se livrar de todo o oxigênio na atmosfera.
In all these senses, control over the AI system comes from the machine’s uncertainty about what the true objective is. And it’s when you build machines that believe with certainty that they have the objective, that’s when you get this sort of psychopathic behavior. And I think we see the same thing in humans.
Em todos esses sentidos, controle sobre o sistema de IA vem da incerteza da máquina sobre qual é o verdadeiro objetivo. Quando você constrói máquinas que acreditam com certeza que elas tem o objetivo, é quando você recebe esse tipo de comportamento psicopático. E acho que vemos a mesma coisa nos humanos.
What happens when general purpose AI hits the real economy? How do things change? Can we adapt? This is a very old point. Amazingly, Aristotle actually has a passage where he says, look, if we had fully automated weaving machines and plectrums that could pluck the lyre and produce music without any humans, then we wouldn’t need any workers.
O que acontece quando a IA de propósito geral atinge a economia real? Como as coisas mudam? Podemos nos adaptar? Esse é um ponto muito antigo. Surpreendentemente, Aristóteles tem uma passagem onde ele diz, olha, se tivéssemos máquinas de tecelagem totalmente automatizadas e palhetas que pudessem dedilhar a lira e produzir música sem nenhum humano, então não precisaríamos de trabalhadores.
That idea, which I think it was Keynes who called it technological unemployment in 1930, is very obvious to people. They think, yeah, of course, if the machine does the work, then I'm going to be unemployed.
Essa ideia, que acho que foi Keynes que chamou de desemprego tecnológico em 1930, é muito óbvia para as pessoas, certo? Elas pensam, “Sim, é claro, se a máquina faz o trabalho, vou ficar desempregado.”
You can think about the warehouses that companies are currently operating for e-commerce, they are half automated. The way it works is that an old warehouse— where you’ve got tons of stuff piled up all over the place and humans go and rummage around and then bring it back and send it off— there’s a robot who goes and gets the shelving unit that contains the thing that you need, but the human has to pick the object out of the bin or off the shelf, because that’s still too difficult. But, at the same time, would you make a robot that is accurate enough to be able to pick pretty much any object within a very wide variety of objects that you can buy? That would, at a stroke, eliminate 3 or 4 million jobs?
Se você pensar nos armazéns que as empresas estão operando atualmente para comércio eletrônico, eles são meio automatizados. A forma como funciona é que um armazém antigo, onde há toneladas de coisas empilhadas em todo o lugar, e humanos vão lá mexer e depois trazem de volta e enviam, há um robô que vai e pega a estante que contém a coisa que você precisa, mas o humano tem que tirar o objeto do compartimento ou da estante, porque isso ainda é muito difícil. Mas, ao mesmo tempo, você faria um robô que é preciso o suficiente para ser capaz de pegar praticamente qualquer objeto dentro de uma ampla variedade de objetos que você pode comprar, que iria, de uma vez só, eliminar 3 ou 4 milhões de empregos?
There's an interesting story that E.M. Forster wrote, where everyone is entirely machine dependent. The story is really about the fact that if you hand over the management of your civilization to machines, you then lose the incentive to understand it yourself or to teach the next generation how to understand it. You can see “WALL-E” actually as a modern version, where everyone is enfeebled and infantilized by the machine, and that hasn’t been possible up to now.
Há uma história interessante que E. M. Forster escreveu, onde todos são totalmente dependentes de máquinas. A história é na verdade sobre o fato de que se você entregar a gestão da nossa civilização para máquinas, então você perde o incentivo de entendê-la sozinho ou de ensinar a próxima geração como entendê-la. Você pode ver WALL-E como uma versão moderna, onde todos são debilitados e infantilizados pela máquina, e isso não foi possível até agora, certo?
We put a lot of our civilization into books, but the books can’t run it for us. And so we always have to teach the next generation. If you work it out, it’s about a trillion person years of teaching and learning and an unbroken chain that goes back tens of thousands of generations. What happens if that chain breaks?
Colocamos muito da nossa civilização em livros, mas eles não podem comandá-la por nós, então sempre temos que ensinar a próxima geração. Se você resolver, é cerca de um trilhão de anos de pessoas, de ensino e aprendizagem, e uma corrente ininterrupta que volta dezenas de milhares de gerações. O que acontece se essa corrente quebrar?
I think that’s something we have to understand as AI moves forward. The actual date of arrival of general purpose AI— you’re not going to be able to pinpoint, it isn’t a single day. It’s also not the case that it’s all or nothing. The impact is going to be increasing. So with every advance in AI, it significantly expands the range of tasks.
Acho que isso é algo que temos que entender à medida que a IA avança. A data real da chegada da IA de propósito geral, você não conseguirá localizar, não é um único dia. Também não é o caso de tudo ou nada. O impacto será crescente, então cada avanço da IA expande significativamente o leque de tarefas. Então, nesse sentido, acho que a maioria dos especialistas dizem
So in that sense, I think most experts say by the end of the century, we’re very, very likely to have general purpose AI. The median is something around 2045. I'm a little more on the conservative side. I think the problem is harder than we think.
que até o fim do século é muito provável que tenhamos IA de propósito geral. A mediana é algo em torno de 2045. Estou um pouco mais no lado conservador, acho que o problema é mais difícil do que pensamos.
I like what John McAfee, he was one of the founders of AI, when he was asked this question, he said, somewhere between five and 500 years. And we're going to need, I think, several Einsteins to make it happen.
Eu gosto que John McAfee, ele foi um dos criadores da IA, quando lhe fizeram essa pergunta, ele disse algum lugar entre 5 e 500 anos, e acho que vamos precisar de vários Einsteins para fazer acontecer.