In the coming years, artificial intelligence is probably going to change your life, and likely the entire world. But people have a hard time agreeing on exactly how. The following are excerpts from a World Economic Forum interview where renowned computer science professor and AI expert Stuart Russell helps separate the sense from the nonsense.
Болашақта жасанды интелект Сіздің өміріңізді және бүкіл әлемді өзгертуі мүмкін Бірақ бұл қалай болатындығы туралы келіспеушіліктер көп. Атақты информатика профессоры және ЖИ сарапшысы Стюарт Расселдің сұхбатынан үзінді келтіреміз, ол ненің дұрыс-бұрыс екенін түсінуге көмектеседі.
There’s a big difference between asking a human to do something and giving that as the objective to an AI system. When you ask a human to get you a cup of coffee, you don’t mean this should be their life’s mission, and nothing else in the universe matters. Even if they have to kill everybody else in Starbucks to get you the coffee before it closes— they should do that. No, that’s not what you mean. All the other things that we mutually care about, they should factor into your behavior as well.
Адамнан бірнәрсе жасауын сұрау мен фасадны интеллектке команда берудің арасында үлкен айырмашылық бар. Адамнан кофе алып беруін сұрағанда оны өмірлік миссиясына айналдырсын және одан маңызды ешнәрсе жоқ дегенді білдірмейді. Старбакстағы барлық адамды сізге кофе алу үшін өлтіруі керек болса да оны жасауы керек. Жоқ, сіз мұны айтқыңыз келген жоқ. Бізді алаңдататын басқа да нәрселер іс-әрекетіңізге қатысты болуы керек
And the problem with the way we build AI systems now is we give them a fixed objective. The algorithms require us to specify everything in the objective. And if you say, can we fix the acidification of the oceans? Yeah, you could have a catalytic reaction that does that extremely efficiently, but it consumes a quarter of the oxygen in the atmosphere, which would apparently cause us to die fairly slowly and unpleasantly over the course of several hours.
ЖИ-ді қазір жасап жатқан тәсілдің минусы біз оларға нақты мақсат береміз. Алгоритмде мақсаттың әр қадамын көрсету керек. Мұхиттың қышқылдануын тоқтата аламыз ба? деп сұраңызшы. Иә, сіз өте тиімді каталитикалық реакцияны айтуыңыз мүмкін, бірақ ол атмосферадағы оттегінің 1/4-ін қолданады және біздің бірнеше сағат бойы баяу өлуімізге себеп болады.
So, how do we avoid this problem? You might say, okay, well, just be more careful about specifying the objective— don’t forget the atmospheric oxygen. And then, of course, some side effect of the reaction in the ocean poisons all the fish. Okay, well I meant don’t kill the fish either. And then, well, what about the seaweed? Don’t do anything that’s going to cause all the seaweed to die. And on and on and on.
Енді, бұл мәселені қалай шешеміз? Мақсатты айқындауда абай болуды ұмытпаңыз деуіңіз мүмкін — атмосфералық оттегін ұмытпаңыз. Және, әрине, мұхитқа жасалған әрекет әсері барлық балықты улайды. Жақсы, бірақ мен балықты өлтіруге бұйрық бермедім ғой. Сонан соң теңіз балдырлары ше? Балдырды жоятын ештеңе істеме т.с.с
And the reason that we don’t have to do that with humans is that humans often know that they don’t know all the things that we care about. If you ask a human to get you a cup of coffee, and you happen to be in the Hotel George Sand in Paris, where the coffee is 13 euros a cup, it’s entirely reasonable to come back and say, well, it’s 13 euros, are you sure you want it, or I could go next door and get one? And it’s a perfectly normal thing for a person to do. To ask, I’m going to repaint your house— is it okay if I take off the drainpipes and then put them back? We don't think of this as a terribly sophisticated capability, but AI systems don’t have it because the way we build them now, they have to know the full objective. If we build systems that know that they don’t know what the objective is, then they start to exhibit these behaviors, like asking permission before getting rid of all the oxygen in the atmosphere.
Және мұны істеудің қажеті жоқ екенінің себебі мынада: адамдар көбінесе бізді қызықтыратын нәрселерді өздерінің білмейтінін біледі. Адамнан кофе әкелуін сұрасаңыз және Париждегі George Sand отельінде болсаңыз, онда кофе 13 евро тұрады, ол қайтып келіп, кофе 13 евро екен “алайын ба әлде келесісіне барайын ба?” деп сұрайды. Бұл адамдар үшін қалыпты жағдай. Егер үйіңізді бояп жатсам, “су құбырларын алып, кейін қайта салсам бола ма?” деп сұраймын. Мұны өте қиын қабілет деп санамаймыз. Бірақ ЖИ жүйесінде ол жоқ, себебі оны жасау тәселінде олар мақсатты түгел білуі керек. Егер мақсатты білмейтінін білетін жүйе құрсақ олар сол әрекеттерге барады, ауадағы барлық оттегіден құтылуға рұқсат сұраған секілді.
In all these senses, control over the AI system comes from the machine’s uncertainty about what the true objective is. And it’s when you build machines that believe with certainty that they have the objective, that’s when you get this sort of psychopathic behavior. And I think we see the same thing in humans.
ЖИ-ді бақылау қажеттігі машинаның дұрыс мақсатты білмеуінен туындайды. Мақсаты бар екеніне сенімді машиналар жасағанда осы секілді ақылға сыйымсыз әрекет жасалады. Осыны адамдарда да көреміз деп ойлаймын.
What happens when general purpose AI hits the real economy? How do things change? Can we adapt? This is a very old point. Amazingly, Aristotle actually has a passage where he says, look, if we had fully automated weaving machines and plectrums that could pluck the lyre and produce music without any humans, then we wouldn’t need any workers.
Егер ЖИ экономикаға зиян әкелсе ше? Не өзгереді? Біз оны икемдей аламыз ба? Бұл бұрыннан кете жатқан мәселе. Таңғаларлығы Аристотель бір еңбегінде былай жазған: егер бізде толық автоматтандырылған тоқыма құрылғылары және адамсыз музыка шығаратын плектумдар болса бізге ешқандай жұмысшы керек емес.
That idea, which I think it was Keynes who called it technological unemployment in 1930, is very obvious to people. They think, yeah, of course, if the machine does the work, then I'm going to be unemployed.
Бұл идея Кейнестікі ол мұны 1930-дағы технологиялық жұмыссыздық деп атады, адамдар мұны анық біледі. Адамдар машина жұмыс жасайды, ал мен жұмыссыз қаламын деп ойлайды.
You can think about the warehouses that companies are currently operating for e-commerce, they are half automated. The way it works is that an old warehouse— where you’ve got tons of stuff piled up all over the place and humans go and rummage around and then bring it back and send it off— there’s a robot who goes and gets the shelving unit that contains the thing that you need, but the human has to pick the object out of the bin or off the shelf, because that’s still too difficult. But, at the same time, would you make a robot that is accurate enough to be able to pick pretty much any object within a very wide variety of objects that you can buy? That would, at a stroke, eliminate 3 or 4 million jobs?
Қазір компаниялар қолданысындағы эл.қызметке арналған жартылай автоматтандырылған қойманы қарасаңыз болады. Жұмыс жасау тәртібі: барлық жерінде тонналап зат тұратын ескі қоймадан адамдар заттарды алып, басқа жерге жөнелтеді. ондағы робот сізге қажет зат бар сөрені тауып, затты көрсетіп береді Бірақ адам сөредегі не жәшіктегі затты алуы керек. Себебі мұны жасау әлі өте қиын. Бірақ сонымен бірге сіз сатып алатын затты өте көп зат арасынан таба алатын робот жасайтын ба едіңіз? Бұл 3-4 милион жұмыс орнын азайтатын еді.
There's an interesting story that E.M. Forster wrote, where everyone is entirely machine dependent. The story is really about the fact that if you hand over the management of your civilization to machines, you then lose the incentive to understand it yourself or to teach the next generation how to understand it. You can see “WALL-E” actually as a modern version, where everyone is enfeebled and infantilized by the machine, and that hasn’t been possible up to now.
E.M.Froster-дің жазған қызық оқиғасы бар, онда барлығы машинаға тәуелді. Бұл оқиғада, егер халықты басқаруды машиналардың қолына берсеңіз оны өзіңіз түсінуге және келер ұрпаққа үйретуге деген ниетіңізді жоғалтатыңыз туралы айтылады. Заманауи үлгі ретінде “WALL-E”ні алсақ Онда бәрі әлсіз және машиналар бәрін жасайды, бүгінге дейін бұл мүмкін болмаған еді.
We put a lot of our civilization into books, but the books can’t run it for us. And so we always have to teach the next generation. If you work it out, it’s about a trillion person years of teaching and learning and an unbroken chain that goes back tens of thousands of generations. What happens if that chain breaks?
Кітаптарға өркениетімізді енгіздік, бірақ олар оны біз үшін жүргізе алмайды. Сондықтан біз әрқашан келер ұрпақты үйретуіміз керек. Бұл трилиондаған жылдар бойы келе жатқан үйрету мен үйрену, бұл он мыңдаған ұрпақ бойы жалғасқан тізбек. Бұл тізбекті бұзсақ не болмақ?
I think that’s something we have to understand as AI moves forward. The actual date of arrival of general purpose AI— you’re not going to be able to pinpoint, it isn’t a single day. It’s also not the case that it’s all or nothing. The impact is going to be increasing. So with every advance in AI, it significantly expands the range of tasks.
ЖИ дамуымен бірнәрсені түсінуіміз керек ЖИ-дің пайда болуының мақсатын анықтай алмайсыз. Бұл бір күндік жұмыс емес. Сондай-ақ бәрі не ештеңе деген таңдау да емес. Бұл әсер көбейе түседі. ЖИ-дағы әр жаңалық тапсырманы кәдімгідей көбейтеді.
So in that sense, I think most experts say by the end of the century, we’re very, very likely to have general purpose AI. The median is something around 2045. I'm a little more on the conservative side. I think the problem is harder than we think.
Сондықтан көптеген сарапшылар осы ғасырдың аяғында ЖИ-дің жалпы мақсатына жетуіміз мүмкін дейді. Ортасы, 2045 жылдың айналасында мен көбіне консервативті жағын қолдаймын. Мәселе біз ойлағаннан да қиын сияқты.
I like what John McAfee, he was one of the founders of AI, when he was asked this question, he said, somewhere between five and 500 years. And we're going to need, I think, several Einsteins to make it happen.
ЖИ негізін салушылардың бірі Жон McAfee-дің осы сұраққа жауабы: “Шамамен 5-500 жыл аралығында. Мұны жүзеге асыру үшін бізге бірнеше Айнштайн керек.