In the coming years, artificial intelligence is probably going to change your life, and likely the entire world. But people have a hard time agreeing on exactly how. The following are excerpts from a World Economic Forum interview where renowned computer science professor and AI expert Stuart Russell helps separate the sense from the nonsense.
Dans les prochaines années, l’intelligence artificielle (IA) va sûrement changer nos vies et probablement le monde entier. Mais, on se sait pas encore de quelle manière. Ce qui suit est tiré d’un entretien du Forum économique mondial accordé par le professeur d’informatique et expert en IA, Stuart Russel, qui nous aide démêler le vrai du faux à propos des IA.
There’s a big difference between asking a human to do something and giving that as the objective to an AI system. When you ask a human to get you a cup of coffee, you don’t mean this should be their life’s mission, and nothing else in the universe matters. Even if they have to kill everybody else in Starbucks to get you the coffee before it closes— they should do that. No, that’s not what you mean. All the other things that we mutually care about, they should factor into your behavior as well.
Demander à un humain de faire une tâche et donner le même objectif à une IA sont deux choses très différentes. Quand on demande à une personne d’aller acheter un café, ce n’est pas la mission de sa vie, la seule chose au monde qui compte, l’objectif à atteindre même s’il fallait tuer tous les clients du Starbucks pour avoir son café avant la fermeture. Non, on ne veut pas dire cela. Tout ce qui est important pour nous influence aussi notre comportement.
And the problem with the way we build AI systems now is we give them a fixed objective. The algorithms require us to specify everything in the objective. And if you say, can we fix the acidification of the oceans? Yeah, you could have a catalytic reaction that does that extremely efficiently, but it consumes a quarter of the oxygen in the atmosphere, which would apparently cause us to die fairly slowly and unpleasantly over the course of several hours.
Le problème, c’est que nous construisons les systèmes d’IA en leur donnant un objectif précis. Il faut préciser toutes les variables de l’objectif. Par exemple, pouvons-nous lutter contre l’acidification des océans ? Oui, une réaction catalytique serait très efficace, mais un quart de l’oxygène de l’atmosphère serait consommé, ce qui nous tuerait lentement et dans la douleur en l’espace de quelques heures.
So, how do we avoid this problem? You might say, okay, well, just be more careful about specifying the objective— don’t forget the atmospheric oxygen. And then, of course, some side effect of the reaction in the ocean poisons all the fish. Okay, well I meant don’t kill the fish either. And then, well, what about the seaweed? Don’t do anything that’s going to cause all the seaweed to die. And on and on and on.
Comment éviter ce problème ? Il faut peut-être être plus attentif en définissant l’objectif et tenir compte de l’oxygène dans l’atmosphère. Mais, la réaction catalytique aurait des effets secondaires dans l’océan, et empoisonnerait les poissons. Bien, on précise aussi de ne pas tuer les poissons. Et ensuite, il faut penser aux algues, et ne rien faire qui leur soit nocif. Et ainsi de suite…
And the reason that we don’t have to do that with humans is that humans often know that they don’t know all the things that we care about. If you ask a human to get you a cup of coffee, and you happen to be in the Hotel George Sand in Paris, where the coffee is 13 euros a cup, it’s entirely reasonable to come back and say, well, it’s 13 euros, are you sure you want it, or I could go next door and get one? And it’s a perfectly normal thing for a person to do. To ask, I’m going to repaint your house— is it okay if I take off the drainpipes and then put them back? We don't think of this as a terribly sophisticated capability, but AI systems don’t have it because the way we build them now, they have to know the full objective. If we build systems that know that they don’t know what the objective is, then they start to exhibit these behaviors, like asking permission before getting rid of all the oxygen in the atmosphere.
Le même processus n’est pas nécessaire avec les êtres humains, car sans en être conscients, ils savent ce qui compte vraiment, Si vous demandez à quelqu’un d’aller vous chercher un café et que vous êtes à Paris, à l’Hôtel George V, où le café coûte 13 euros, on s’attend à ce qu’il revienne et dise : « Il coûte 13 €, tu es sûr de le vouloir ? Je peux aller ailleurs sinon. » C’est une réaction parfaitement humaine. Quand on repeind une maison, on demande si on peut enlever les gouttières et les remettre ensuite. Cela ne nous semble pas sorcier, mais les IA n’en sont pas capables. Elles doivent obligatoirement connaitre l’objectif dans sa totalité. Si on construit des IA conscientes qu’elles ne connaissent pas l’objectif, elles vont commencer à adopter ce type de comportements, comme demander la permission avant de supprimer l’oxygène de l’atmosphère.
In all these senses, control over the AI system comes from the machine’s uncertainty about what the true objective is. And it’s when you build machines that believe with certainty that they have the objective, that’s when you get this sort of psychopathic behavior. And I think we see the same thing in humans.
Ainsi, contrôler un système d’IA est possible puisque l’IA ne connaît pas l’objectif réel. Et quand on construit des IA qui ont la certitude de connaître l’objectif réel, on obtient ces comportement psychopathes. Je pense que c’est pareil pour les êtres humains.
What happens when general purpose AI hits the real economy? How do things change? Can we adapt? This is a very old point. Amazingly, Aristotle actually has a passage where he says, look, if we had fully automated weaving machines and plectrums that could pluck the lyre and produce music without any humans, then we wouldn’t need any workers.
Que se passe-t-il quand on confronte l’IA générale et l’économie ? Comment les choses changent-elles ? Pouvons-nous nous adapter ? Ce sujet est très ancien. Étonnamment, Aristote dit, dans l’un de ses écrits : « Si nous avions des métiers à tisser entièrement automatisées, des plectres capables de pincer la lyre et produire de la musique sans humains, il n’y aurait plus besoin de travailleurs. »
That idea, which I think it was Keynes who called it technological unemployment in 1930, is very obvious to people. They think, yeah, of course, if the machine does the work, then I'm going to be unemployed.
Cette idée, que Keynes a appelée « chômage technologique » en 1930, est bien connue du grand public. Les gens pensent que si la machine fait leur travail, alors ils perdent leur emploi.
You can think about the warehouses that companies are currently operating for e-commerce, they are half automated. The way it works is that an old warehouse— where you’ve got tons of stuff piled up all over the place and humans go and rummage around and then bring it back and send it off— there’s a robot who goes and gets the shelving unit that contains the thing that you need, but the human has to pick the object out of the bin or off the shelf, because that’s still too difficult. But, at the same time, would you make a robot that is accurate enough to be able to pick pretty much any object within a very wide variety of objects that you can buy? That would, at a stroke, eliminate 3 or 4 million jobs?
Pensez aux entrepôts des entreprises du e-commerce, qui sont semi-automatisés. Dans un entrepôt traditionnel, il y a des marchandises empilées partout et les humains fouillent, ramènent les marchandises et les envoient. Maintenant, c’est un robot qui récupère les étagères contenant les marchandises nécessaires, mais les humains doivent sortir les objets de l’étagère car c’est encore difficile pour les robots. On peut se demander s’il faut créer des robots suffisamment précis pour récupérer n’importe quel objet qu’il est possible de commercialiser ? Cela supprimerait immédiatement 3 ou 4 millions de postes.
There's an interesting story that E.M. Forster wrote, where everyone is entirely machine dependent. The story is really about the fact that if you hand over the management of your civilization to machines, you then lose the incentive to understand it yourself or to teach the next generation how to understand it. You can see “WALL-E” actually as a modern version, where everyone is enfeebled and infantilized by the machine, and that hasn’t been possible up to now.
E. M. Foster a écrit une histoire fascinante, dans laquelle les humains dépendent des robots. L’histoire montre que, en laissant les robots contrôler notre société, nous perdons la capacité de le faire et de l’apprendre à la génération d’après. On peut voir WALL-E comme une version moderne de cette histoire : toutes les personnes sont diminuées et infantilisées par les robots, ce qui n’avait pas été possible avant aujourd’hui.
We put a lot of our civilization into books, but the books can’t run it for us. And so we always have to teach the next generation. If you work it out, it’s about a trillion person years of teaching and learning and an unbroken chain that goes back tens of thousands of generations. What happens if that chain breaks?
Les livres gardent tout en mémoire, mais ils ne peuvent pas gouverner. Il faut montrer l’exemple aux générations suivantes. Cela fait des milliards d’années d’apprentissage et d’enseignement, une chaîne interrompue qui remonte à des dizaines de milliers de générations. Que se passerait-il si on brise la chaîne ?
I think that’s something we have to understand as AI moves forward. The actual date of arrival of general purpose AI— you’re not going to be able to pinpoint, it isn’t a single day. It’s also not the case that it’s all or nothing. The impact is going to be increasing. So with every advance in AI, it significantly expands the range of tasks.
Il faut y réfléchir en développant les IA. On ne peut pas prévoir la date d’arrivée des IA générales : on ne les développera pas du jour au lendemain. Ce n’est pas du tout ou rien. Leur impact sur nos sociétés sera croissant. Chaque avancée en matière d’IA agrandit significativement la palette des tâches connues.
So in that sense, I think most experts say by the end of the century, we’re very, very likely to have general purpose AI. The median is something around 2045. I'm a little more on the conservative side. I think the problem is harder than we think.
C’est pourquoi la plupart des experts estiment que, d’ici la fin du siècle, il est extrêmement probable que nous ayons développé des IA générales. On estime leur arrivée à environ 2045. Je suis un peu plus mitigé. Je pense que nous sous-estimons le problème.
I like what John McAfee, he was one of the founders of AI, when he was asked this question, he said, somewhere between five and 500 years. And we're going to need, I think, several Einsteins to make it happen.
J’aime la réponse de John McAfee, l’un des fondateurs de l’IA, pour qui l’IA générale existerait à une date comprise entre 5 et 500 ans. A mon avis, nous aurons besoin de nombreux Einstein pour y parvenir.