In the coming years, artificial intelligence is probably going to change your life, and likely the entire world. But people have a hard time agreeing on exactly how. The following are excerpts from a World Economic Forum interview where renowned computer science professor and AI expert Stuart Russell helps separate the sense from the nonsense.
בשנים הקרובות, בינה מלאכותית תשנה כנראה את חייכם, וכנראה את העולם כולו. אבל לאנשים קשה להסכים על איך בדיוק. להלן קטעים מתוך ראיון של הפורום הכלכלי העולמי שבו פרופסור ידוע למדעי המחשב ומומחה הבינה המלאכותית סטיוארט ראסל עוזר להפריד את ההגיוני מהשטותי.
There’s a big difference between asking a human to do something and giving that as the objective to an AI system. When you ask a human to get you a cup of coffee, you don’t mean this should be their life’s mission, and nothing else in the universe matters. Even if they have to kill everybody else in Starbucks to get you the coffee before it closes— they should do that. No, that’s not what you mean. All the other things that we mutually care about, they should factor into your behavior as well.
יש הבדל גדול בין לבקש בן אדם לעשות משהו ולתת את זה כמטרה למערכת AI. כשאתה מבקש מאדם לתת לך כוס קפה, אתה לא מתכוון שזה צריך להיות משימת חייו, ושום דבר אחר ביקום לא משנה. גם אם הם יצטרכו להרוג את כל האחרים בסטארבקס להביא לך את הקפה לפני שהוא נסגר- הם צריכים לעשות את זה. לא, לא לזה אתה מתכוון. כל שאר הדברים שאכפת לנו מהם באופן הדדי, הם צריכים לקחת בחשבון גם את ההתנהגות שלך.
And the problem with the way we build AI systems now is we give them a fixed objective. The algorithms require us to specify everything in the objective. And if you say, can we fix the acidification of the oceans? Yeah, you could have a catalytic reaction that does that extremely efficiently, but it consumes a quarter of the oxygen in the atmosphere, which would apparently cause us to die fairly slowly and unpleasantly over the course of several hours.
והבעיה עם הדרך שאנחנו בונים מערכות בינה מלאכותית עכשיו היא שאנו נותנים להם מטרה קבועה. האלגוריתמים דורשים מאיתנו לציין הכל במטרה. ואם אתם שואלים, האם נוכל לתקן את החמצת האוקיינוסים? כן, יכולה להיות לכם תגובה קטליטית שעושה את זה ביעילות רבה, אבל זה צורך רבע של החמצן באטמוספירה, מה שכנראה יגרום לנו למות די לאט ובאופן לא נעים במהלך מספר שעות.
So, how do we avoid this problem? You might say, okay, well, just be more careful about specifying the objective— don’t forget the atmospheric oxygen. And then, of course, some side effect of the reaction in the ocean poisons all the fish. Okay, well I meant don’t kill the fish either. And then, well, what about the seaweed? Don’t do anything that’s going to cause all the seaweed to die. And on and on and on.
אז איך נמנעים מבעיה זו? אתם יכולים להגיד, בסדר, טוב, פשוט תהיו יותר זהירים בהקפדה לציין את המטרה-- אל תשכחו את החמצן האטמוספרי. ואז, כמובן, תופעות לוואי אחדות של התגובה באוקיינוס מרעילה את כל הדגים. אוקיי, טוב התכוונתי שלא תהרגו את הדגים גם כן. ואז, נו, מה לגבי האצות? אל תעשו שום דבר שהולך לגרום לכל האצות למות. ועוד ועוד ועוד ועוד.
And the reason that we don’t have to do that with humans is that humans often know that they don’t know all the things that we care about. If you ask a human to get you a cup of coffee, and you happen to be in the Hotel George Sand in Paris, where the coffee is 13 euros a cup, it’s entirely reasonable to come back and say, well, it’s 13 euros, are you sure you want it, or I could go next door and get one? And it’s a perfectly normal thing for a person to do. To ask, I’m going to repaint your house— is it okay if I take off the drainpipes and then put them back? We don't think of this as a terribly sophisticated capability, but AI systems don’t have it because the way we build them now, they have to know the full objective. If we build systems that know that they don’t know what the objective is, then they start to exhibit these behaviors, like asking permission before getting rid of all the oxygen in the atmosphere.
והסיבה שאנחנו לא צריכים לעשות את זה עם בני אדם היא שבני אדם יודעים לעתים קרובות שהם לא יודעים את כל הדברים שאכפת לנו מהם. אם תבקשו מאדם להשיג לכם כוס קפה, ואתם במקרה במלון ג‘ורג’ סנד בפריז, שבו מחיר הקפה הוא 13 יורו לספל, זה לגמרי הגיוני לחזור ולומר, ובכן, זה 13 יורו, אתם בטוחים שאתם רוצים את זה, או שאוכל ללכת ולקבל אחד ליד הבית ? וזה דבר נורמלי לחלוטין לאדם לעשות. לשאול, אני הולך לצבוע מחדש את הבית שלכם- זה בסדר אם אני אוריד את צינורות הניקוז ואז אחזיר אותם? אנחנו לא חושבים על זה כעל יכולת מתוחכמת נורא, אבל למערכות AI אין את זה כי איך שאנחנו בונים אותן עכשיו, הן צריכות לדעת את המטרה המלאה. אם נבנה מערכות שיודעות שהן לא יודעות מה המטרה, אז הן מתחילות להציג התנהגויות אלו, כמו לבקש רשות לפני שנפטרים מכל החמצן באטמוספרה.
In all these senses, control over the AI system comes from the machine’s uncertainty about what the true objective is. And it’s when you build machines that believe with certainty that they have the objective, that’s when you get this sort of psychopathic behavior. And I think we see the same thing in humans.
בכל המובנים האלה, שליטה על מערכת הבינה המלאכותית נובעת מאי הוודאות של המכונה מה המטרה האמיתית. וכשאתם בונים מכונות שמאמינות בוודאות שיש להן את המטרה, אז אתם מקבלים סוג זה של התנהגות פסיכופתית. ואני חושב שאנחנו רואים אותו דבר בבני אדם.
What happens when general purpose AI hits the real economy? How do things change? Can we adapt? This is a very old point. Amazingly, Aristotle actually has a passage where he says, look, if we had fully automated weaving machines and plectrums that could pluck the lyre and produce music without any humans, then we wouldn’t need any workers.
מה קורה כאשר AI למטרה כללית פוגע בכלכלה האמיתית? איך דברים משתנים? האם נוכל להסתגל? זו נקודה ישנה מאוד. למרבה הפלא, לאריסטו למעשה יש קטע שבו הוא אומר, תראו, אם היו לנו מכונות אריגה אוטומטיות לחלוטין ומפרטים שיכולים לפרוט על הלירה ולהפיק מוזיקה ללא בני אדם, אז לא נצטרך שום עובדים.
That idea, which I think it was Keynes who called it technological unemployment in 1930, is very obvious to people. They think, yeah, of course, if the machine does the work, then I'm going to be unemployed.
הרעיון הזה, שלדעתי זה היה קיינס שקרא לזה אבטלה טכנולוגית בשנת 1930, ברור מאוד לאנשים. הם חושבים, כן, כמובן, אם המכונה עושה את העבודה, אז אני הולך להיות מובטל.
You can think about the warehouses that companies are currently operating for e-commerce, they are half automated. The way it works is that an old warehouse— where you’ve got tons of stuff piled up all over the place and humans go and rummage around and then bring it back and send it off— there’s a robot who goes and gets the shelving unit that contains the thing that you need, but the human has to pick the object out of the bin or off the shelf, because that’s still too difficult. But, at the same time, would you make a robot that is accurate enough to be able to pick pretty much any object within a very wide variety of objects that you can buy? That would, at a stroke, eliminate 3 or 4 million jobs?
אפשר לחשוב על המחסנים שחברות מפעילות כיום עבור מסחר אלקטרוני, הם חצי אוטומטיים. הדרך שבה זה עובד היא שמחסן ישן- שבו יש לכם טונות של דברים שנערמו סביב כל המקום ובני אדם הולכים ומפשפשים ואז מחזירים אותם ושולחים אותם - יש רובוט שהולך ומקבל את יחידת המדפים שמכילים את הדבר שאתה צריך, אבל האדם צריך לבחור את החפץ החוצה מהתא או המדף כי זה עדיין קשה מדי. אבל באותו זמן, האם הייתם מייצרים רובוט מדויק מספיק כדי להיות מסוגל לבחור כמעט כל אובייקט בתוך מגוון חפצים רחב מאוד שאתם יכולים לקנות? שיחסל בבת אחת, 3 או 4 מיליון מקומות עבודה?
There's an interesting story that E.M. Forster wrote, where everyone is entirely machine dependent. The story is really about the fact that if you hand over the management of your civilization to machines, you then lose the incentive to understand it yourself or to teach the next generation how to understand it. You can see “WALL-E” actually as a modern version, where everyone is enfeebled and infantilized by the machine, and that hasn’t been possible up to now.
יש סיפור מעניין שכתב א.מ. פורסטר, שבו כולם תלויים לגמרי במכונה. הסיפור הוא באמת על המצב שאם אתם מוסרים את ניהול הציוויליזציה שלכם למכונות, אתם מאבדים את התמריץ להבין את זה בעצמכם או ללמד את הדור הבא איך להבין את זה. אתם יכולים לראות את “וול-E” למעשה כגרסה מודרנית, שבה כולם מוחלשים ונעשים תלותיים על ידי המכונה, וזה לא היה אפשרי עד עכשיו.
We put a lot of our civilization into books, but the books can’t run it for us. And so we always have to teach the next generation. If you work it out, it’s about a trillion person years of teaching and learning and an unbroken chain that goes back tens of thousands of generations. What happens if that chain breaks?
אנחנו מכניסים הרבה מהציוויליזציה שלנו לתוך ספרים, אבל הם לא יכולים להפעיל את זה עבורנו. ולכן עלינו תמיד ללמד את הדור הבא. אם תחשבו את זה, זה בערך טריליון שנות אדם של הוראה ולמידה ושרשרת שלא נשברת שחוזרת לאחור עשרות אלפי דורות. מה יקרה אם השרשרת הזו נשברת?
I think that’s something we have to understand as AI moves forward. The actual date of arrival of general purpose AI— you’re not going to be able to pinpoint, it isn’t a single day. It’s also not the case that it’s all or nothing. The impact is going to be increasing. So with every advance in AI, it significantly expands the range of tasks.
אני חושב שזה משהו שעלינו להבין כשה-AI מתקדמת. את תאריך ההגעה בפועל של AI למטרות כלליות— לא תצליחו לזהות, זה לא יום אחד. זה גם לא המקרה שזה הכל או כלום. ההשפעה הולכת לגדול. אז עם כל התקדמות ב-AI, זה מרחיב בצורה משמעותית את מגוון המשימות.
So in that sense, I think most experts say by the end of the century, we’re very, very likely to have general purpose AI. The median is something around 2045. I'm a little more on the conservative side. I think the problem is harder than we think.
אז במובן הזה, אני חושב שרוב המומחים אומרים שעד סוף המאה, סביר מאוד מאוד שתהיה לנו AI למטרות כלליות. החציון הוא משהו בסביבות 2045. אני קצת יותר על הצד השמרני. אני חושב שהבעיה קשה יותר ממה שאנחנו חושבים.
I like what John McAfee, he was one of the founders of AI, when he was asked this question, he said, somewhere between five and 500 years. And we're going to need, I think, several Einsteins to make it happen.
אני אוהב את מה שג’ון מקאפי, שהיה אחד ממייסדי הבינה המלאכותית, כששאלו אותו את השאלה הזו הוא אמר איפוא שהוא בין חמש ל-500 שנים. ונצטרך, אני חושב, כמה איינשטיינים כדי לגרום לזה לקרות.