Today, artificial intelligence helps doctors diagnose patients, pilots fly commercial aircraft, and city planners predict traffic. But no matter what these AIs are doing, the computer scientists who designed them likely don’t know exactly how they’re doing it. This is because artificial intelligence is often self-taught, working off a simple set of instructions to create a unique array of rules and strategies. So how exactly does a machine learn?
امروزه، هوش مصنوعی به پزشکان در تشخیص بیماران، به خلبانان در پرواز هواپیماهای تجاری و به طراحانشهری در پیشبینی ترافیک کمک میکند. اما فارغ از اینکه هوشمصنوعی چه میکنند، دانشمندانی که آنها را طراحی کردهاند احتمالا دقیقا نمیدانند چطور این کار را انجام میدهند به این دلیل است که هوش مصنوعی غالبا خودآموخته هستند، بر پایه یکسری دستورالعملهای ساده برای ایجاد مجموعهای منحصر به فرد از قوانین و استراتژیها، کار میکنند. بنابراین چطور یک ماشین یاد میگیرد؟
There are many different ways to build self-teaching programs. But they all rely on the three basic types of machine learning: unsupervised learning, supervised learning, and reinforcement learning. To see these in action, let’s imagine researchers are trying to pull information from a set of medical data containing thousands of patient profiles.
روشهای زیادی برای ساخت برنامههای خودفراگیر وجود دارد. اما همه آنها بر پایه سه نوع بنیادین از یادگیری ماشین مبتنی هستند: یادگیری بدون ناظر، یادگیری با نظارت، و یادگیری تقویتی. برای دیدن این ها در عمل، بیایید تصور کنیم که پژوهشگران در تلاش برای بیرون کشیدن اطلاعات از مجموعهای از دادههای پزشکی حاوی هزاران پروفایل بیمار هستند.
First up, unsupervised learning. This approach would be ideal for analyzing all the profiles to find general similarities and useful patterns. Maybe certain patients have similar disease presentations, or perhaps a treatment produces specific sets of side effects. This broad pattern-seeking approach can be used to identify similarities between patient profiles and find emerging patterns, all without human guidance.
اول، یادگیری بدون ناظر. این رویکرد برای تحلیل تمام پروفایلها برای یافتن شباهتهای عمومی و الگوهای مفید، ایدهآل خواهد بود. شاید برخی بیماران خاص دارای علایم مشابه بیماری باشند، یا شاید یک درمان خاص، یکسری اثرات جانبی خاصی داشته باشد. این رویکرد درجستجوی-الگوی گسترده میتواند برای شناسایی تشابهات بین پروفایل بیماران و یافتن الگوهای نوظهور، بدون راهنمایی انسانی به کار رود.
But let's imagine doctors are looking for something more specific. These physicians want to create an algorithm for diagnosing a particular condition. They begin by collecting two sets of data— medical images and test results from both healthy patients and those diagnosed with the condition. Then, they input this data into a program designed to identify features shared by the sick patients but not the healthy patients. Based on how frequently it sees certain features, the program will assign values to those features’ diagnostic significance, generating an algorithm for diagnosing future patients. However, unlike unsupervised learning, doctors and computer scientists have an active role in what happens next. Doctors will make the final diagnosis and check the accuracy of the algorithm’s prediction. Then computer scientists can use the updated datasets to adjust the program’s parameters and improve its accuracy. This hands-on approach is called supervised learning.
ولی بیایید تصور کنیم پزشکان به دنبال اطلاعات خاصتری هستند. این پزشکان میخواهند الگوریتمی برای تشخیص وضعیتی خاص ایجاد کنند. آنها با جمعآوری دو سری اطلاعات آغاز به کار میکنند تصاویر پزشکی و نتایج آزمایش هم از بیماران سالم و هم بیماران مبتلا به آن وضعیت خاص. سپس آنها این اطلاعات را در برنامهای که جهت شناساییِ ویژگیهای بیماران بیمار طراحی شده است و نه بیماران سالم، وارد میکنند. براساس تعداد دفعاتی که این ویژگیهای خاص مشاهده شود، این برنامه مقادیر را به آن ویژگیهای تشخیصی تخصیص میدهد، و یک الگوریتم برای تشخیص بیماران آینده ایجاد میکند. با این حال، برخلاف یادگیری بدون نظارت، پزشکان و دانشمندان رایانه در اتفاقات آتی نقش فعالی دارند. پزشکان تشخیص نهایی را خواهند داد و دقت پیشبینیهای الگوریتم را کنترل و بررسی خواهند نمود. سپس دانشمندان میتوانند از مجموعه دادههای بهروزآوری شده برای تنظیم پارامترهای برنامه و بهبود دقت آن استفاده کنند. این رویکرد عملی را یادگیری تحت نظارت مینامند.
Now, let’s say these doctors want to design another algorithm to recommend treatment plans. Since these plans will be implemented in stages, and they may change depending on each individual's response to treatments, the doctors decide to use reinforcement learning. This program uses an iterative approach to gather feedback about which medications, dosages and treatments are most effective. Then, it compares that data against each patient’s profile to create their unique, optimal treatment plan. As the treatments progress and the program receives more feedback, it can constantly update the plan for each patient. None of these three techniques are inherently smarter than any other. While some require more or less human intervention, they all have their own strengths and weaknesses which makes them best suited for certain tasks. However, by using them together, researchers can build complex AI systems, where individual programs can supervise and teach each other. For example, when our unsupervised learning program finds groups of patients that are similar, it could send that data to a connected supervised learning program. That program could then incorporate this information into its predictions. Or perhaps dozens of reinforcement learning programs might simulate potential patient outcomes to collect feedback about different treatment plans.
حال بیایید بگوییم این پزشکان قصد دارند الگوریتم دیگری را جهت توصیه برنامههای درمانی، طراحی کنند. از آنجا که این برنامهها در چند مرحله اجرا میشوند، و ممکن است بسته به واکنش هر فرد به درمان تغییر کند، پزشکان تصمیم میگیرند از یادگیری تقویتی استفاده کنند. این برنامه از رویکردی تکرارشونده برای جمعآوری بازخورد درمورد اینکه موثرترین داروها، دوزها و درمانها کدام هستند، استفاده میکند. سپس این دادهها را با مشخصات هر بیمار برای ایجاد برنامه درمانی ویژه و بهینه آنها مقایسه میکند. همین که درمان پیشرفت میکند و برنامه بازخورد بیشتری دریافت میکند، میتواند به طور مداوم برنامه را برای هر بیمار بهروز کند. هیچیک از این سه تکنیک ذاتا هوشمندتر از بقیه نیست. درحالی که برخی کم و بیش نیاز به مداخله انسانی دارند، همگی نقاط قوت و ضعف خاص خود را دارند که باعث میشود برای بعضی کارها مناسبتر باشند. درهرصورت با بهکارگیری آنها باهم، پژوهشگران قادرند سیستمهای پیجیده هوش مصنوعی بسازند، که برنامههای جداگانه بتوانند برهم نظارت و یکدیگر را آموزش دهند. به عنوان مثال، هنگامی که برنامه یادگیری بدون ناظر ما گروههای بیمارن مشابه را مییابد، بتواند آن داده ها را به یک برنامه یادگیری با نظارت ارسال کند. آنگاه این برنامه میتوان این اطلاعات را در پیشبینیهای خود بگنجاند. یا شاید دهها برنامه یادگیری تقویتی ممکن است نتایج بالقوه بیماران را برای جمع کردن بازخورد درباره طرحهای درمانی مختلف شبیهسازی کند
There are numerous ways to create these machine-learning systems, and perhaps the most promising models are those that mimic the relationship between neurons in the brain. These artificial neural networks can use millions of connections to tackle difficult tasks like image recognition, speech recognition, and even language translation. However, the more self-directed these models become, the harder it is for computer scientists to determine how these self-taught algorithms arrive at their solution. Researchers are already looking at ways to make machine learning more transparent. But as AI becomes more involved in our everyday lives, these enigmatic decisions have increasingly large impacts on our work, health, and safety. So as machines continue learning to investigate, negotiate and communicate, we must also consider how to teach them to teach each other to operate ethically.
روشهای بیشماری جهت ایجاد این سیستمهای یادگیری ماشین وجود دارد، و شاید امیدبخشترین مدل آنهایی هستند که رابطه بین نورونها را در مغز تقلید میکنند. این شبکههای عصبی مصنوعی قادرند از میلیون ها ارتباط جهت مواجهه با وظایف دشواری مانند تشخیص تصویر، بازشناسی گفتار و حتی ترجمه زبان استفاده کنند. با این اوصاف، هرچه بیشتر این مدلها خودهدایتگر شوند، برای دانشمندان رایانه دشوارتر خواهد بود تشخیص اینکه چطور این الگوریتمهای خود-آموخته به راهحلهایشان میرسند. پژوهشگران در حال حاضر به دنبال راههایی برای شفافتر کردن یادگیری ماشین هستند. اما هرچه هوشمصنوعی بیشتر با زندگی روزمره ما درگیر میشود، این تصمیمات مرموز تاثیرات فزایندهای بر روی کار، سلامت و امنیت ما میگذارد. بنابراین وقتی ماشینها به یادگیری بررسی، مذاکره و ارتباط ادامه میدهند، باید در نظر داشته باشیم که چطور به آنها بیاموزیم تا به هم عملکرد اخلاقی بیاموزند.