In the coming years, artificial intelligence is probably going to change your life, and likely the entire world. But people have a hard time agreeing on exactly how. The following are excerpts from a World Economic Forum interview where renowned computer science professor and AI expert Stuart Russell helps separate the sense from the nonsense.
У найближчі роки штучний інтелект, ймовірно, змінить ваше життя, а ймовірно, і весь світ. Але людям важко вирішити, як саме. Далі ми покажемо уривки з інтерв’ю Всесвітнього економічного форуму, де відомий професор інформатики та експерт зі штучного інтелекту Стюарт Рассел допомагає відокремити сенс від нісенітниці.
There’s a big difference between asking a human to do something and giving that as the objective to an AI system. When you ask a human to get you a cup of coffee, you don’t mean this should be their life’s mission, and nothing else in the universe matters. Even if they have to kill everybody else in Starbucks to get you the coffee before it closes— they should do that. No, that’s not what you mean. All the other things that we mutually care about, they should factor into your behavior as well.
Існує велика різниця між тим, щоб попросити людину щось зробити та поставити це завданням системі ШІ. Коли ви просите людину принести вам чашку кави, ви не маєте на увазі, що це має бути місією усього їхного життя, і ніщо інше у світі не має значення. Навіть якщо їй потрібно вбити всіх людей у Старбакс, щоб купити вам каву до закриття — вона мусить це зробити. Ні, ви не це маєте на увазі. Як і усі інші чинники, які нам не байдужі, вона також має враховувати вашу поведінку.
And the problem with the way we build AI systems now is we give them a fixed objective. The algorithms require us to specify everything in the objective. And if you say, can we fix the acidification of the oceans? Yeah, you could have a catalytic reaction that does that extremely efficiently, but it consumes a quarter of the oxygen in the atmosphere, which would apparently cause us to die fairly slowly and unpleasantly over the course of several hours.
І проблема у створенні сучасної системи ШІ полягає в тому, що ми ставимо перед нею фіксовану ціль. Алгоритми вимагають, щоб ми формулювали все бажане. І якщо ви запитаєте: чи можемо ми зупинити окиснення океанів? Так, каталітична реакція, вирішить все надзвичайно ефективно, але вона споживатиме чверть кисню в атмосфері, що, очевидно, призведе до того, що ми помиратимемо досить повільно та неприємно впродовж наступних кількох годин.
So, how do we avoid this problem? You might say, okay, well, just be more careful about specifying the objective— don’t forget the atmospheric oxygen. And then, of course, some side effect of the reaction in the ocean poisons all the fish. Okay, well I meant don’t kill the fish either. And then, well, what about the seaweed? Don’t do anything that’s going to cause all the seaweed to die. And on and on and on.
Отже, як нам уникнути цієї проблеми? Ви можете сказати: гаразд, просто будьте обережнішимив описі цілі — не забудьте згадати про атмосферний кисень. І тоді, безперечно, якийсь побічний ефект цієї реакції в океані отруює всю рибу. Гаразд, я також не хотів вбивати рибу. Ну, а як щодо водоростей? Не роби те, що спричинить загибель усіх водоростей. І так далі, і далі, і далі.
And the reason that we don’t have to do that with humans is that humans often know that they don’t know all the things that we care about. If you ask a human to get you a cup of coffee, and you happen to be in the Hotel George Sand in Paris, where the coffee is 13 euros a cup, it’s entirely reasonable to come back and say, well, it’s 13 euros, are you sure you want it, or I could go next door and get one? And it’s a perfectly normal thing for a person to do. To ask, I’m going to repaint your house— is it okay if I take off the drainpipes and then put them back? We don't think of this as a terribly sophisticated capability, but AI systems don’t have it because the way we build them now, they have to know the full objective. If we build systems that know that they don’t know what the objective is, then they start to exhibit these behaviors, like asking permission before getting rid of all the oxygen in the atmosphere.
І причина, чому нам не потрібно пояснювати це людям, полягає в тому, що самі люди знають, що вони не знають усього, про що потрібно хвилюватись. Якщо ви попросите людину принести вам чашку кави, і ви, наприклад, знаходитесь в готелі Жорж Санд у Парижі, де кава коштує 13 євро, буде цілком логічно повернутись і сказати: ем, кава коштує 13 євро, ти точно хочеш саме цю каву, чи взяти дешевше тут недалеко? І це абсолютно нормальна річ для людини. Як і перепитати, наприклад, я фарбуватиму ваш будинок — нічого, якщо я для цього зніму ринви, а потім поставлю їх назад? Ми не вбачаємо в цьому чогось надзвичайно складного, проте системи ШІ на це не спроможні, тому що ми їх створюємо такими, щоб вони сприймали ціль у повному обсязі. Якщо ми створюємо системи, які знають, що вони не знають свою ціль, тоді вони починають демонструвати таку поведінку як, наприклад, запитувати дозвіл перед тим, як позбутися всього кисню в атмосфері.
In all these senses, control over the AI system comes from the machine’s uncertainty about what the true objective is. And it’s when you build machines that believe with certainty that they have the objective, that’s when you get this sort of psychopathic behavior. And I think we see the same thing in humans.
У всіх цих сенсах контроль над системою ШІ походить від невпевненості машини щодо справжньої цілі. І коли ви створюєте машини, які з упевненістю вірять, що вони мають ціль, саме тоді ви отримуєте таку психопатичну поведінку. І я думаю, що ми бачимо те саме в людях.
What happens when general purpose AI hits the real economy? How do things change? Can we adapt? This is a very old point. Amazingly, Aristotle actually has a passage where he says, look, if we had fully automated weaving machines and plectrums that could pluck the lyre and produce music without any humans, then we wouldn’t need any workers.
Що відбувається, коли ШІ загального призначення потрапляє в реальну економіку? Як змінюється ситуація? Чи можемо ми адаптуватися? Ця теза вже існує дуже давно. Як не дивно, але в Аристотеля насправді є уривок, де він каже, дивіться, якби у нас були повністю автоматизовані ткацькі верстати та медіатори, що защипували б струни ліри та створювали музику без допомоги людини, то нам би не потрібні були працівники.
That idea, which I think it was Keynes who called it technological unemployment in 1930, is very obvious to people. They think, yeah, of course, if the machine does the work, then I'm going to be unemployed.
Ця ідея, я думаю, що це був Кейнс, який у 1930 році назвав це технологічним безробіттям, для людей є дуже очевидною. Люди думають: так, звичайно, якщо машина виконуватиме всю роботу, тоді я залишуся без роботи.
You can think about the warehouses that companies are currently operating for e-commerce, they are half automated. The way it works is that an old warehouse— where you’ve got tons of stuff piled up all over the place and humans go and rummage around and then bring it back and send it off— there’s a robot who goes and gets the shelving unit that contains the thing that you need, but the human has to pick the object out of the bin or off the shelf, because that’s still too difficult. But, at the same time, would you make a robot that is accurate enough to be able to pick pretty much any object within a very wide variety of objects that you can buy? That would, at a stroke, eliminate 3 or 4 million jobs?
Ви можете подумати про склади, якими зараз керують компанії для інтернет-торгівлі, що вони наполовину автоматизовані. Це працює так: це старий склад, де нагромаджено купу речей, де люди ходять і порпаються навколо, потім повертаються з товаром і відправляють. А є ще робот, який дістає стелажний блок, в якому знаходиться те, що вам потрібно, Але саме працівник дістає товар з блоку чи з полиці, тому що для робота це все ще важко. Та, водночас, чи створили би ви робота, який був би достатньо точним, щоб мати можливість вибирати майже будь-який предмет із дуже широкого вибору предметів, які ви хочете купити? Який миттєво ліквідує 3-4 мільйони робочих місць?
There's an interesting story that E.M. Forster wrote, where everyone is entirely machine dependent. The story is really about the fact that if you hand over the management of your civilization to machines, you then lose the incentive to understand it yourself or to teach the next generation how to understand it. You can see “WALL-E” actually as a modern version, where everyone is enfeebled and infantilized by the machine, and that hasn’t been possible up to now.
У Едварда Форстера є цікава повість, в якій люди повністю залежать від машин. Ця історія насправді про те, що якщо ви передаєте машинам управління цивілізацією, то ви втрачаєте стимул вивчати цю цивілізацію самостійно або навчати наступне покоління її розуміти. Власне, мультфільм «ВОЛЛ-І» - це сучасна версія цієї історії, де всі ослаблені та зіпсовані впливом машин; те, що здавалося неможливим — цілком реальне.
We put a lot of our civilization into books, but the books can’t run it for us. And so we always have to teach the next generation. If you work it out, it’s about a trillion person years of teaching and learning and an unbroken chain that goes back tens of thousands of generations. What happens if that chain breaks?
Ми фіксуємо знання про нашу цивілізацію в книгах, але книги не можуть керувати нею. І тому саме ми завжди маємо навчати наступне покоління. Якщо розібратися, це приблизно трильйон людино-років викладання та навчання, та безперервний ланцюг, який тягнеться десятки тисяч поколінь. Що буде, якщо цей ланцюжок розірветься?
I think that’s something we have to understand as AI moves forward. The actual date of arrival of general purpose AI— you’re not going to be able to pinpoint, it isn’t a single day. It’s also not the case that it’s all or nothing. The impact is going to be increasing. So with every advance in AI, it significantly expands the range of tasks.
Я думаю, що ми мусимо розуміти це в ході розвитку ШІ. Справжню дату появи ШІ загального призначення точно не знатиме ніхто, це відбудеться не за один день. Це також не той випадок, коли все або нічого. Цей вплив буде зростати. Тож із кожним поліпшенням, ШІ значно розширюватиме спектр завдань, які він зможе виконувати.
So in that sense, I think most experts say by the end of the century, we’re very, very likely to have general purpose AI. The median is something around 2045. I'm a little more on the conservative side. I think the problem is harder than we think.
Тож у цьому сенсі, я думаю більшість експертів погодяться, що до кінця століття ми швидше за все матимемо ШІ загального призначення. 2045 рік стане медіаною його розвитку. Я все ж більш консервативнивної думки. Я думаю, що це завдання складніше, ніж ми уявляємо.
I like what John McAfee, he was one of the founders of AI, when he was asked this question, he said, somewhere between five and 500 years. And we're going to need, I think, several Einsteins to make it happen.
Мені подобається відповідь Джона Макафі, одного із засновників ШІ, на це ж запитання; він сказав, що це займе від 5 до 500 років. І нам знадобиться, напевно, кілька Ейнштейнів, щоб це сталося.