In the coming years, artificial intelligence is probably going to change your life, and likely the entire world. But people have a hard time agreeing on exactly how. The following are excerpts from a World Economic Forum interview where renowned computer science professor and AI expert Stuart Russell helps separate the sense from the nonsense.
W nadchodzących latach sztuczna inteligencja najprawdopodobniej zmieni zarówno wasze życie, jak i cały świat. Nikt jednak nie wie, jak dokładnie miałoby się to wydarzyć. Fragment wywiadu ze Stuartem Rusellem, ekspertem w dziedzinie informatyki i sztucznej inteligencji, udzielonego dla Światowego Forum Ekonomicznego, pomaga ustalić, co jest prawdą, a co nie.
There’s a big difference between asking a human to do something and giving that as the objective to an AI system. When you ask a human to get you a cup of coffee, you don’t mean this should be their life’s mission, and nothing else in the universe matters. Even if they have to kill everybody else in Starbucks to get you the coffee before it closes— they should do that. No, that’s not what you mean. All the other things that we mutually care about, they should factor into your behavior as well.
Istnieje ogromna różnica między poproszeniem o coś człowieka, a zleceniem tego jako cel systemowi AI. Kiedy prosimy kogoś o przyniesienie nam kawy, nie chcemy, żeby stało się to jego życiową misją, nic innego nie powinno się liczyć i nawet gdyby oznaczało to zabicie wszystkich w Starbucksie, żeby zdążyć przed zamknięciem kawiarni, ten ktoś musi to zrobić. Nie o to chodzi. Na zachowanie człowieka powinno wpływać wiele innych rzeczy ważnych dla nas wszystkich.
And the problem with the way we build AI systems now is we give them a fixed objective. The algorithms require us to specify everything in the objective. And if you say, can we fix the acidification of the oceans? Yeah, you could have a catalytic reaction that does that extremely efficiently, but it consumes a quarter of the oxygen in the atmosphere, which would apparently cause us to die fairly slowly and unpleasantly over the course of several hours.
Problem w tym, że systemy AI dostają od nas stałe cele. Algorytmy wymagają od nas sprecyzowania wszystkiego w tym celu. Jeśli spytalibyście, czy możemy coś zrobić z zakwaszeniem oceanów, to tak, można użyć katalizy, która zadziałałaby bardzo skutecznie, ale za to pochłania jedną czwartą tlenu z atmosfery, co skutkowałoby powolną i nieprzyjemną śmiercią wszystkich w kilka godzin.
So, how do we avoid this problem? You might say, okay, well, just be more careful about specifying the objective— don’t forget the atmospheric oxygen. And then, of course, some side effect of the reaction in the ocean poisons all the fish. Okay, well I meant don’t kill the fish either. And then, well, what about the seaweed? Don’t do anything that’s going to cause all the seaweed to die. And on and on and on.
Jak więc uniknąć tego problemu? Możecie powiedzieć, że wystarczy uważać przy określaniu celów, choćby nie zapominając o tlenie. Kolejnym skutkiem ubocznym katalizy w oceanie jest zatrucie wszystkich ryb. Chodzi mi o to, żeby ich też nie zabijać. A co z wodorostami? Nie róbmy nic, co doprowadzi do ich zniknięcia. I tak dalej.
And the reason that we don’t have to do that with humans is that humans often know that they don’t know all the things that we care about. If you ask a human to get you a cup of coffee, and you happen to be in the Hotel George Sand in Paris, where the coffee is 13 euros a cup, it’s entirely reasonable to come back and say, well, it’s 13 euros, are you sure you want it, or I could go next door and get one? And it’s a perfectly normal thing for a person to do. To ask, I’m going to repaint your house— is it okay if I take off the drainpipes and then put them back? We don't think of this as a terribly sophisticated capability, but AI systems don’t have it because the way we build them now, they have to know the full objective. If we build systems that know that they don’t know what the objective is, then they start to exhibit these behaviors, like asking permission before getting rid of all the oxygen in the atmosphere.
Nie musimy tak postępować z ludźmi, bo ludzie rozumieją, że nie wiedzą wszystkiego, o co nam chodzi. Kiedy poprosimy kogoś o przyniesienie nam kawy, będąc w hotelu George Sand w Paryżu, gdzie kawa kosztuje 13 euro, ten ktoś mógłby całkowicie słusznie wrócić i powiedzieć, że to aż 13 euro, i może lepiej byłoby kupić ją gdzieś indziej. Takie zachowanie jest zupełnie normalne dla człowieka. Gdybym postanowił pomalować wasz dom, czy chcielibyście, żebym zdjął rury, po czym zamontował je z powrotem? Nie uważamy tego za jakąś szczególnie wybitną cechę, ale systemy AI tak nie potrafią, bo budujemy je tak, że muszą znać pełen zakres obowiązku. Jeśli zaczęlibyśmy budować te systemy tak, żeby nie wiedziały, jaki jest cel, rozwinęłyby one takie zachowania, jak pytanie o zgodę przed pozbyciem się całego tlenu z atmosfery.
In all these senses, control over the AI system comes from the machine’s uncertainty about what the true objective is. And it’s when you build machines that believe with certainty that they have the objective, that’s when you get this sort of psychopathic behavior. And I think we see the same thing in humans.
W tych wszystkich przypadkach kontrola nad systemami AI jest skutkiem niepewności maszyny co do tego, jaki jest prawdziwy cel. Kiedy jednak zaczynamy budować maszyny, które są przekonane, że znają ten cel, wtedy pojawia się szalone zachowanie. Myślę, że tak samo jest z ludźmi.
What happens when general purpose AI hits the real economy? How do things change? Can we adapt? This is a very old point. Amazingly, Aristotle actually has a passage where he says, look, if we had fully automated weaving machines and plectrums that could pluck the lyre and produce music without any humans, then we wouldn’t need any workers.
Co się dzieje, gdy sztuczna inteligencja zetknie się z gospodarką? Co się zmienia? Jak się przyzwyczaić? To bardzo stare zagadnienie. Co ciekawe, Arystoteles wspomina o tym w swojej twórczości, mówiąc, że gdybyśmy mieli automatyczne maszyny do szycia i samogrające kostki gitarowe tworzące muzykę bez człowieka, nie potrzebowalibyśmy jakichkolwiek robotników.
That idea, which I think it was Keynes who called it technological unemployment in 1930, is very obvious to people. They think, yeah, of course, if the machine does the work, then I'm going to be unemployed.
Ta idea, którą, jak sądzę, wygłosił Keyne w 1930 roku, mówiąca o technologicznym bezrobociu jest dla ludzi oczywista. Myślą oni, że gdyby maszyny wykonywałyby pracę za nich, straciliby pracę.
You can think about the warehouses that companies are currently operating for e-commerce, they are half automated. The way it works is that an old warehouse— where you’ve got tons of stuff piled up all over the place and humans go and rummage around and then bring it back and send it off— there’s a robot who goes and gets the shelving unit that contains the thing that you need, but the human has to pick the object out of the bin or off the shelf, because that’s still too difficult. But, at the same time, would you make a robot that is accurate enough to be able to pick pretty much any object within a very wide variety of objects that you can buy? That would, at a stroke, eliminate 3 or 4 million jobs?
Pomyślcie o magazynach różnych firm zajmujących się e-commerce, które są w połowie zautomatyzowane. Działa to tak, że stary magazyn, w którym są tony przeróżnych rzeczy i mnóstwo plątających się ludzi, którzy zajmują się tymi rzeczami, jest wyposażony w maszyny, które obsługują regały czy półki, na których znajdują się potrzebne rzeczy, ale to człowiek musi je wyjąć i przenieść, bo to wciąż zbyt trudne dla AI. Czy jednak stworzylibyście robota, który zastąpiłby w tym człowieka i jednocześnie pozbawiłby pracy 3 czy 4 miliony osób?
There's an interesting story that E.M. Forster wrote, where everyone is entirely machine dependent. The story is really about the fact that if you hand over the management of your civilization to machines, you then lose the incentive to understand it yourself or to teach the next generation how to understand it. You can see “WALL-E” actually as a modern version, where everyone is enfeebled and infantilized by the machine, and that hasn’t been possible up to now.
E.M. Forster napisał ciekawą opowieść, w której wszyscy są całkowicie zależni od maszyn. Tak naprawdę w tej opowieści chodzi o to, że gdy funkcjonowanie cywilizacji zostanie zawierzone maszynom, ta cywilizacja traci wtedy chęć do rozumienia tych maszyn i chęć do uczenia tego młodych pokoleń. Dobrze obrazuje to “WALL-E”, gdzie każdy jest rozpieszczony i rozleniwiony przez maszyny, co nie było jak dotąd możliwe.
We put a lot of our civilization into books, but the books can’t run it for us. And so we always have to teach the next generation. If you work it out, it’s about a trillion person years of teaching and learning and an unbroken chain that goes back tens of thousands of generations. What happens if that chain breaks?
Zapisujemy dokonania cywilizacji w książkach, ale książki nie wyręczą nas we wszystkim. Musimy więc przekazywać tę wiedzę. Mowa tu o około bilionie lat nauczania i o nienaruszonej więzi sięgającej tysięcy pokoleń wstecz. Co się stanie, gdy taka więź się zerwie?
I think that’s something we have to understand as AI moves forward. The actual date of arrival of general purpose AI— you’re not going to be able to pinpoint, it isn’t a single day. It’s also not the case that it’s all or nothing. The impact is going to be increasing. So with every advance in AI, it significantly expands the range of tasks.
Myślę, że musimy to zrozumieć, biorąc pod uwagę rozwój AI. Nie istnieje dokładny dzień pojawienia się tej sztucznej inteligencji. Nie da się tego określić. Nie jest to też takie zerojedynkowe. Wpływ AI będzie się zwiększać. Każdy postęp w rozwoju AI znacznie poszerza zakres zadań.
So in that sense, I think most experts say by the end of the century, we’re very, very likely to have general purpose AI. The median is something around 2045. I'm a little more on the conservative side. I think the problem is harder than we think.
Odwołując się do większości ekspertów, myślę, że pod koniec tego wieku możliwe jest, że będziemy mieć wyręczającą nas sztuczną inteligencję. Mediana to około 2045 rok. Jestem pod tym względem trochę bardziej konserwatywny. Myślę, że problem jest większy, niż nam się wydaje.
I like what John McAfee, he was one of the founders of AI, when he was asked this question, he said, somewhere between five and 500 years. And we're going to need, I think, several Einsteins to make it happen.
Spodobało mi się to, co powiedział John McAfee, jeden z twórców AI. Według niego ten czas to od 5 do 500 lat. I będziemy potrzebowali paru Einsteinów, żeby się to udało.