Today, artificial intelligence helps doctors diagnose patients, pilots fly commercial aircraft, and city planners predict traffic. But no matter what these AIs are doing, the computer scientists who designed them likely don’t know exactly how they’re doing it. This is because artificial intelligence is often self-taught, working off a simple set of instructions to create a unique array of rules and strategies. So how exactly does a machine learn?
היום, בינה מלאכותית עוזרת לרופאים לאבחן מטופלים, לטייסים להטיס מטוסים מסחריים, ולמתכנני ערים לחזות תנועה. אבל לא משנה מה הב“מ האלה עושות, מדעני המחשב שתכננו אותן כנראה לא בדיוק יודעים איך הן עושות את זה. זה בגלל שבינה מלאכותית הרבה פעמים מלמדת את עצמה, כשהיא עובדת מסט פשוט של הוראות כדי ליצור מערך ייחודי של חוקים ואסטרטגיות. אז איך בדיוק מכונה לומדת?
There are many different ways to build self-teaching programs. But they all rely on the three basic types of machine learning: unsupervised learning, supervised learning, and reinforcement learning. To see these in action, let’s imagine researchers are trying to pull information from a set of medical data containing thousands of patient profiles.
יש הרבה דרכים שונות לבנות תוכנות שמלמדות את עצמן. אבל כולן מסתמכות על שלושה סוגים בסיסיים של למידת מכונה: לימוד לא מפוקח, לימוד מפוקח, ולימוד עם חיזוקים. כדי לראות אותן בפעולה, בואו נדמיין חוקרים שמנסים למצות מידע מסט של מידע רפואי שמכיל אלפי פרופילים של מטופלים.
First up, unsupervised learning. This approach would be ideal for analyzing all the profiles to find general similarities and useful patterns. Maybe certain patients have similar disease presentations, or perhaps a treatment produces specific sets of side effects. This broad pattern-seeking approach can be used to identify similarities between patient profiles and find emerging patterns, all without human guidance.
ראשית, למידה לא מפוקחת. הגישה הזו תהיה אידיאלית לניתוח כל הפרופילים כדי לגלות נקודות דמיון כלליות ותבניות שימושיות. אולי מטופלים מסוימים מציגים מחלות דומה, או אולי טיפול מייצר סט ספציפי של תופעות לוואי. הגישה הרחבה לחיפוש תבניות יכולה לשמש לגלות נקודות דמיון בין פרופילי מטופלים ולגלות תבניות, הכול בלי הדרכה של אנשים.
But let's imagine doctors are looking for something more specific. These physicians want to create an algorithm for diagnosing a particular condition. They begin by collecting two sets of data— medical images and test results from both healthy patients and those diagnosed with the condition. Then, they input this data into a program designed to identify features shared by the sick patients but not the healthy patients. Based on how frequently it sees certain features, the program will assign values to those features’ diagnostic significance, generating an algorithm for diagnosing future patients. However, unlike unsupervised learning, doctors and computer scientists have an active role in what happens next. Doctors will make the final diagnosis and check the accuracy of the algorithm’s prediction. Then computer scientists can use the updated datasets to adjust the program’s parameters and improve its accuracy. This hands-on approach is called supervised learning.
אבל בואו נדמיין שהרופאים מחפשים משהו ספציפי יותר. הרופאים האלה רוצים ליצור אלגוריתם כדי לאבחן מצב מסוים. הם מתחילים על ידי איסוף שני סטים של מידע - דימויים רפואיים ותוצאות בדיקות של מטופלים בריאים ושל אלו שמאובחנים עם המחלה. אז, הם מכניסים את הנתונים לתוכנה שמיועדת לזהות תכונות משותפות לחולים אבל לא אצל הבריאים. בהתבסס על התכיפות שבה היא מזהה תכונות מסוימות, התוכנה תשייך ערכים למשמעות האבחונית של תכונות האלו, ותייצר אלגוריתם לאבחון חולים בעתיד. עם זאת, בניגוד ללימוד לא מפוקח, לרופאים ולמדעני מחשב יש תפקיד פעיל במה שקורה הלאה. רופאים יעשו אבחון סופי ויבדקו את דיוק התחזיות של האלגוריתם. אז מדעני מחשב יכולים להשתמש במאגר המידע המעודכן כדי לכוונן את הפרמטרים של האלגוריתם ולשפר את הדיוק שלו. הגישה המעורבת הזו נקראת למידה מפוקחת.
Now, let’s say these doctors want to design another algorithm to recommend treatment plans. Since these plans will be implemented in stages, and they may change depending on each individual's response to treatments, the doctors decide to use reinforcement learning. This program uses an iterative approach to gather feedback about which medications, dosages and treatments are most effective. Then, it compares that data against each patient’s profile to create their unique, optimal treatment plan. As the treatments progress and the program receives more feedback, it can constantly update the plan for each patient. None of these three techniques are inherently smarter than any other. While some require more or less human intervention, they all have their own strengths and weaknesses which makes them best suited for certain tasks. However, by using them together, researchers can build complex AI systems, where individual programs can supervise and teach each other. For example, when our unsupervised learning program finds groups of patients that are similar, it could send that data to a connected supervised learning program. That program could then incorporate this information into its predictions. Or perhaps dozens of reinforcement learning programs might simulate potential patient outcomes to collect feedback about different treatment plans.
עכשיו בואו נגיד שהרופאים האלה רוצים לעצב אלגוריתם אחר כדי להמליץ על תוכנית טיפול. מאחר שהתוכניות האלו ייושמו בשלבים, והן אולי ישתנו לפי התגובה של כל מטופל לטיפול, הרופאים מחליטים להשתמש בלמידה מחוזקת. התוכנה הזו משתמשת בתהליך מחזורי כדי לאסוף משוב על איזה תרופות, מינונים וטיפולים הכי אפקטיביים. אז, היא משווה את המידע מול פרופיל של כל מטופל כדי ליצור תוכנית טיפול ייחודית ואופטימלית. כשהטיפול מתקדם והתוכנית מקבלת עוד משוב, היא יכולה לעדכן את התוכנית כל הזמן לכל חולה. אף אחת משלוש השיטות האלו לא חכמה יותר בבסיסה מהאחרות. בעוד שכמה מהן דורשות יותר או פחות התערבות אנושית, לכולן יש החוזקות והחולשות שהופכות אותן למתאימות ביותר למקרים מסוימים. עם זאת, על ידי שימוש בכולן יחד, חוקרים יכולים לבנות מערכות ב“מ מורכבות, שם תוכנות בודדות יכולות לפקח וללמד אחת את השנייה. לדוגמה, כשתוכנות הלמידה הלא מפוקחות שלנו מוצאות קבוצה של מטופלים דומים, היא יכולה לשלוח את המידע הזה לתוכנת למידה מפוקחת שמחוברת אליה. התוכנה יכולה לשלב את המידע בתחזיות שלה. או אולי עשרות תוכנות למידה מחזקת יוכלו לדמות תוצאות פוטנציאליות של מטופלים כדי לאסוף משוב בנוגע לתוכניות טיפול שונות.
There are numerous ways to create these machine-learning systems, and perhaps the most promising models are those that mimic the relationship between neurons in the brain. These artificial neural networks can use millions of connections to tackle difficult tasks like image recognition, speech recognition, and even language translation. However, the more self-directed these models become, the harder it is for computer scientists to determine how these self-taught algorithms arrive at their solution. Researchers are already looking at ways to make machine learning more transparent. But as AI becomes more involved in our everyday lives, these enigmatic decisions have increasingly large impacts on our work, health, and safety. So as machines continue learning to investigate, negotiate and communicate, we must also consider how to teach them to teach each other to operate ethically.
יש אין סוף דרכים ליצור את מערכות למידת המכונה האלו, ואולי המודלים הכי מבטיחים הם אלו שמחקים את היחסים בין נוירונים במוח. רשתות עצביות מלאכותיות יכולות להשתמש במיליוני חיבורים כדי להתמודד עם משימות מורכבות כמו זיהוי תמונות, זיהוי דיבור, ואפילו תרגום שפות. עם זאת, ככל שהמודלים האלה הופכים להיות מוכוונים עצמית, קשה יותר למדעני מחשב לקבוע איך אלגוריתמי הלמידה העצמית האלה מגיעים לפתרון. חוקרים כבר מחפשים דרכים להפוך למידת מכונה לשקופה יותר. אבל כשב“מ הופכת למעורבת יותר בחיינו היום-יומיים, להחלטות האניגמטיות האלו יש השפעה גדלה על העבודה, הבריאות והבטיחות שלנו. אז כשמכונות ממשיכות ללמוד איך לחקור, לעבד ולתקשר, אנחנו חייבים גם לחשוב איך ללמד אותן ללמד אחת את השניה לפעול בצורה אתית.