In den nächsten Jahren wird künstliche Intelligenz wohl unser Leben und die ganze Welt verändern. Doch weiß man nicht genau wie. Hier Auszüge eines Interviews, in dem der renommierte Informatikprofessor und KI-Experte Stuart Russell Sinn und Unsinn voneinander trennt.
In the coming years, artificial intelligence is probably going to change your life, and likely the entire world. But people have a hard time agreeing on exactly how. The following are excerpts from a World Economic Forum interview where renowned computer science professor and AI expert Stuart Russell helps separate the sense from the nonsense.
Es ist ein großer Unterschied, einen Menschen um etwas zu bitten und dasselbe Ziel einem KI-System zu setzen. Bittet man einen Menschen um eine Tasse Kaffee, ist das für ihn nicht die Aufgabe seines Lebens, als ob es nichts anderes gäbe. Selbst wenn er dafür bei Starbucks vor Geschäftsschluss alle anderen töten müsste, sollte er es tun. Das wollen Sie sicher nicht. Alles andere, was uns gemeinsam wichtig ist, sollte unser Verhalten beeinflussen.
There’s a big difference between asking a human to do something and giving that as the objective to an AI system. When you ask a human to get you a cup of coffee, you don’t mean this should be their life’s mission, and nothing else in the universe matters. Even if they have to kill everybody else in Starbucks to get you the coffee before it closes— they should do that. No, that’s not what you mean. All the other things that we mutually care about, they should factor into your behavior as well.
Das Problem der heutigen KI-Systeme: Wir geben ihnen ein festes Ziel. Algorithmen benötigen eine detaillierte Bestimmung des Ziels. Können wir zum Beispiel die Übersäuerung der Ozeane beheben? Ja, mit einer extrem effizienten katalytischen Reaktion -- sie verbraucht aber ein Viertel des Sauerstoffs der Atmosphäre, was offenbar unseren Stunden dauernden, langsamen und qualvollen Tod zur Folge hätte.
And the problem with the way we build AI systems now is we give them a fixed objective. The algorithms require us to specify everything in the objective. And if you say, can we fix the acidification of the oceans? Yeah, you could have a catalytic reaction that does that extremely efficiently, but it consumes a quarter of the oxygen in the atmosphere, which would apparently cause us to die fairly slowly and unpleasantly over the course of several hours.
Wie lässt sich dieses Problem vermeiden? Nun, vielleicht sollten wir das Ziel sorgfältiger definieren -- denken Sie an den Sauerstoff im All. Noch dazu vergiften Nebeneffekte der Reaktion im Ozean natürlich alle Fische. Die sollten wir natürlich auch nicht töten. Und was ist mit dem Seetang? Auch den sollten wir nicht sterben lassen. Und so weiter.
So, how do we avoid this problem? You might say, okay, well, just be more careful about specifying the objective— don’t forget the atmospheric oxygen. And then, of course, some side effect of the reaction in the ocean poisons all the fish. Okay, well I meant don’t kill the fish either. And then, well, what about the seaweed? Don’t do anything that’s going to cause all the seaweed to die. And on and on and on.
Warum müssen wir das den Menschen nicht erklären? Sie wissen oft, dass sie nicht alles wissen, was uns wichtig ist. Bittet man einen Menschen um eine Tasse Kaffee und zwar zufällig im Hotel George Sand in Paris, wo eine Tasse Kaffee 13 Euro kostet, ist es völlig vernünftig, zu sagen: “Nun, sie kostet 13 Euro -- wollen Sie sie wirklich oder hole ich eine von nebenan?” Das ist für einen Menschen eine ganz normale Sache. Oder: “Ich streiche Ihr Haus neu -- kann ich die Dachrinnen abnehmen und dann wieder anmontieren?” Wir halten das für keine besondere Fähigkeit, doch KI-Systemen fehlt sie, denn in ihrer heutigen Form brauchen sie ein Gesamtziel. Erst Systeme, die wissen, dass sie nicht wissen, was das Ziel ist, sind zu solchem Verhalten fähig, wie etwa nachzufragen, bevor sie den Sauerstoff in der Atmosphäre beseitigen.
And the reason that we don’t have to do that with humans is that humans often know that they don’t know all the things that we care about. If you ask a human to get you a cup of coffee, and you happen to be in the Hotel George Sand in Paris, where the coffee is 13 euros a cup, it’s entirely reasonable to come back and say, well, it’s 13 euros, are you sure you want it, or I could go next door and get one? And it’s a perfectly normal thing for a person to do. To ask, I’m going to repaint your house— is it okay if I take off the drainpipes and then put them back? We don't think of this as a terribly sophisticated capability, but AI systems don’t have it because the way we build them now, they have to know the full objective. If we build systems that know that they don’t know what the objective is, then they start to exhibit these behaviors, like asking permission before getting rid of all the oxygen in the atmosphere.
In diesem Sinne wird das KI-System von der Unsicherheit der Maschine über das wahre Ziel gesteuert. Baut man Maschinen, die mit Sicherheit glauben, das Ziel zu kennen, dann kommt es zu solch psychopathischem Verhalten. Das Gleiche gilt wohl beim Menschen.
In all these senses, control over the AI system comes from the machine’s uncertainty about what the true objective is. And it’s when you build machines that believe with certainty that they have the objective, that’s when you get this sort of psychopathic behavior. And I think we see the same thing in humans.
Was passiert, wenn universelle KI auf die Realwirtschaft trifft? Was ändert sich? Können wir uns anpassen? Das ist ein uraltes Thema. Erstaunlicherweise sagt Aristoteles irgendwo: “Hätten wir vollautomatische Webstühle, und Plektrons, die die Leier spielen und Musik ohne den Menschen machen, dann bräuchten wir keine Arbeiter.”
What happens when general purpose AI hits the real economy? How do things change? Can we adapt? This is a very old point. Amazingly, Aristotle actually has a passage where he says, look, if we had fully automated weaving machines and plectrums that could pluck the lyre and produce music without any humans, then we wouldn’t need any workers.
Diese Idee, die Keynes 1930 “technologische Arbeitslosigkeit” nannte, ist für die Menschen völlig klar. Sie denken: “Wenn die Maschine die Arbeit macht, bin ich natürlich arbeitslos.”
That idea, which I think it was Keynes who called it technological unemployment in 1930, is very obvious to people. They think, yeah, of course, if the machine does the work, then I'm going to be unemployed.
Denken Sie an die heutigen Lagerhallen einiger Firmen für den E-Commerce: Sie arbeiten halbautomatisch. In einer alten Lagerhalle, wo sich tonnenweise Waren stapeln und Menschen überall herumlaufen, um Dinge zu holen und wegzuschicken, geht jetzt ein Roboter zur Regaleinheit, wo das gesuchte Ding liegt. Aber ein Mensch muss es aus dem Behälter oder vom Regal nehmen, denn das ist noch zu schwierig. Doch würden wir einen Roboter bauen, der so exakt ist, dass er fast jedes erdenkliche Objekt auswählen könnte, das man kaufen kann? Das würde auf einen Schlag 3 oder 4 Millionen Arbeitsplätze kosten.
You can think about the warehouses that companies are currently operating for e-commerce, they are half automated. The way it works is that an old warehouse— where you’ve got tons of stuff piled up all over the place and humans go and rummage around and then bring it back and send it off— there’s a robot who goes and gets the shelving unit that contains the thing that you need, but the human has to pick the object out of the bin or off the shelf, because that’s still too difficult. But, at the same time, would you make a robot that is accurate enough to be able to pick pretty much any object within a very wide variety of objects that you can buy? That would, at a stroke, eliminate 3 or 4 million jobs?
E. M. Forster hat eine interessante Geschichte geschrieben, in der die Menschen völlig von Maschinen abhängig sind. Ihr Hauptthema: Überlässt man Maschinen die Steuerung der Zivilisation, dann verliert man den Anreiz, sie zu verstehen oder kommenden Generationen zu vermitteln. Als moderne Version dessen lässt sich “WALL·E” betrachten, wo eine Maschine alle Menschen schwächt und bevormundet -- was bisher noch nicht möglich war.
There's an interesting story that E.M. Forster wrote, where everyone is entirely machine dependent. The story is really about the fact that if you hand over the management of your civilization to machines, you then lose the incentive to understand it yourself or to teach the next generation how to understand it. You can see “WALL-E” actually as a modern version, where everyone is enfeebled and infantilized by the machine, and that hasn’t been possible up to now.
Vieles unserer Zivilisation steht in Büchern, doch die können sie nicht managen. Also müssen wir die nächste Generation lehren. Insgesamt sind das etwa eine Billion Menschenjahre des Lehrens und Lernens und eine ununterbrochene Kette seit Zehntausenden Generationen. Was, wenn diese Kette bricht?
We put a lot of our civilization into books, but the books can’t run it for us. And so we always have to teach the next generation. If you work it out, it’s about a trillion person years of teaching and learning and an unbroken chain that goes back tens of thousands of generations. What happens if that chain breaks?
Das sollten wir nicht vergessen, während sich die KI entwickelt. Das genaue Ankunftsdatum der universellen KI lässt sich nicht auf einen einzigen Tag festlegen. Es geht hier auch nicht um alles oder nichts. Ihr Einfluss wird immer stärker. Mit jedem Fortschritt erweitert die KI wesentlich ihre Aufgabenbereiche.
I think that’s something we have to understand as AI moves forward. The actual date of arrival of general purpose AI— you’re not going to be able to pinpoint, it isn’t a single day. It’s also not the case that it’s all or nothing. The impact is going to be increasing. So with every advance in AI, it significantly expands the range of tasks.
Die meisten Experten sind sich relativ einig, dass es Ende des Jahrhunderts sehr wahrscheinlich universelle KI gibt. Etwa um 2045 sind wir wohl auf halber Strecke. Ich bin da etwas konservativer. Das Problem ist wohl größer als vermutet.
So in that sense, I think most experts say by the end of the century, we’re very, very likely to have general purpose AI. The median is something around 2045. I'm a little more on the conservative side. I think the problem is harder than we think.
Mir gefällt John McAfees Antwort darauf -- er war einer der KI-Gründer. Er sagte: “Irgendetwas zwischen 5 und 500 Jahren.” Um das zu schaffen, werden wir wohl einige Einsteins brauchen
I like what John McAfee, he was one of the founders of AI, when he was asked this question, he said, somewhere between five and 500 years. And we're going to need, I think, several Einsteins to make it happen.