Today, artificial intelligence helps doctors diagnose patients, pilots fly commercial aircraft, and city planners predict traffic. But no matter what these AIs are doing, the computer scientists who designed them likely don’t know exactly how they’re doing it. This is because artificial intelligence is often self-taught, working off a simple set of instructions to create a unique array of rules and strategies. So how exactly does a machine learn?
오늘날 인공지능은 의사들의 환자 진찰, 조종사의 민간 비행기 조종, 도시 계획가들의 교통 예측을 돕습니다. 하지만 이 인공지능이 무엇을 하는지에 관계 없이 개발자인 컴퓨터 과학자들은 인공지능이 그것을 어떻게 하는지 잘 모릅니다. 인공지능이 보통 스스로 배우고 간단한 규칙들만으로 특이한 규칙과 전략들을 만들어내기 때문입니다. 그러면 컴퓨터는 정확히 어떻게 배울까요?
There are many different ways to build self-teaching programs. But they all rely on the three basic types of machine learning: unsupervised learning, supervised learning, and reinforcement learning. To see these in action, let’s imagine researchers are trying to pull information from a set of medical data containing thousands of patient profiles.
스스로 배우는 프로그램을 만드는 데에는 여러 가지 방법이 있습니다. 하지만 모두가 세 가지 기본적인 머신러닝 방법을 기초로 합니다. 비지도 학습, 지도 학습, 보강 학습입니다. 이것이 작동하는 방법을 보려면 수천 개의 환자 정보가 있는 의료 자료에서 연구가들이 어떤 정보를 찾는다고 상상해봅시다.
First up, unsupervised learning. This approach would be ideal for analyzing all the profiles to find general similarities and useful patterns. Maybe certain patients have similar disease presentations, or perhaps a treatment produces specific sets of side effects. This broad pattern-seeking approach can be used to identify similarities between patient profiles and find emerging patterns, all without human guidance.
먼저 비지도 학습입니다. 이 접근 방식은 공통점과 유익한 규칙을 찾기 위해 모든 정보를 분석하기에 알맞습니다. 아마 어떤 환자들은 비슷한 증상을 보이거나 혹은 어떤 치료법이 특정한 부작용을 불러일으킬 것입니다. 규칙을 찾는 이 방대한 접근법은 사람의 지도 없이 환자 정보 간 공통점과 규칙을 알아내는 데에 사용될 수 있습니다.
But let's imagine doctors are looking for something more specific. These physicians want to create an algorithm for diagnosing a particular condition. They begin by collecting two sets of data— medical images and test results from both healthy patients and those diagnosed with the condition. Then, they input this data into a program designed to identify features shared by the sick patients but not the healthy patients. Based on how frequently it sees certain features, the program will assign values to those features’ diagnostic significance, generating an algorithm for diagnosing future patients. However, unlike unsupervised learning, doctors and computer scientists have an active role in what happens next. Doctors will make the final diagnosis and check the accuracy of the algorithm’s prediction. Then computer scientists can use the updated datasets to adjust the program’s parameters and improve its accuracy. This hands-on approach is called supervised learning.
하지만 의사들이 더 구체적인 것을 찾는다고 가정해봅시다. 이 의사들은 어떤 상태를 진단하는 알고리즘을 만들어내고 싶어합니다. 그들은 두 가지 자료를 확보하는 것부터 시작합니다. 건강한 사람과 질병을 진단받은 환자의 의료 영상과 시험 결과입니다. 그 다음에 건강한 사람들에게는 없고 환자들만이 공유하는 요소를 알아내는 프로그램에 이 자료를 집어넣습니다. 특정한 요소를 얼마나 자주 발견하느냐에 따라 프로그램은 그 요소의 진단적 중요도에 값을 매기며 앞으로 환자들을 진찰하는 데에 유용한 알고리즘을 만들 것입니다. 그러나 비지도 학습과 다르게 의사들과 컴퓨터 과학자들은 그 다음 단계에 더 개입합니다. 의사들은 최종적인 진단을 내리고 알고리즘이 한 예측의 정확도를 확인할 겁니다. 그 다음 컴퓨터 과학자들은 새로운 자료들로 프로그램의 매개변수를 조정해 정확도를 높일 수 있습니다. 이렇게 개입하는 접근법이 지도 학습입니다.
Now, let’s say these doctors want to design another algorithm to recommend treatment plans. Since these plans will be implemented in stages, and they may change depending on each individual's response to treatments, the doctors decide to use reinforcement learning. This program uses an iterative approach to gather feedback about which medications, dosages and treatments are most effective. Then, it compares that data against each patient’s profile to create their unique, optimal treatment plan. As the treatments progress and the program receives more feedback, it can constantly update the plan for each patient. None of these three techniques are inherently smarter than any other. While some require more or less human intervention, they all have their own strengths and weaknesses which makes them best suited for certain tasks. However, by using them together, researchers can build complex AI systems, where individual programs can supervise and teach each other. For example, when our unsupervised learning program finds groups of patients that are similar, it could send that data to a connected supervised learning program. That program could then incorporate this information into its predictions. Or perhaps dozens of reinforcement learning programs might simulate potential patient outcomes to collect feedback about different treatment plans.
이제 이 의사들이 치료 계획을 제안하기 위해 다른 알고리즘을 만든다고 해봅시다. 이 계획들은 단계적으로 실행될 것이고 치료법에 대한 개개인의 반응에 따라 바뀔 수 있기 때문에 의사들은 보강 학습을 쓰기로 합니다. 이 프로그램은 어떤 약, 복용량, 치료가 가장 효과적인지에 대한 피드백을 받기 위해 반복 접근법을 사용합니다. 그 다음에는 각 환자의 최적 치료법을 만들기 위해 그 자료를 환자 정보와 비교합니다. 치료가 진행되고 더 많은 피드백을 받을수록 치료법은 지속적으로 갱신됩니다. 이 세 가지 기술 중 어떤 것이 다른 것보다 더 나은 것은 아닙니다. 어떤 기술은 인간의 개입을 어느 정도 필요로 하지만 그 기술 모두는 각자 강점과 약점이 있어 특정한 일에는 다른 것보다 더 적합합니다. 그 기술 모두를 같이 사용하면 연구자들이 복잡한 인공지능 시스템을 만들 수 있어 각각의 프로그램이 서로를 감독하고 가르칠 수 있습니다. 예를 들어 비지도 학습 프로그램이 비슷한 몇몇 환자 집단을 찾아내면 연결된 지도 학습 프로그램에 그 정보를 보낼 수 있습니다. 그러면 지도 학습 프로그램은 이 정보로 예측을 할 수 있습니다. 혹은 수십 개의 보강 학습 프로그램이 환자의 결과를 모의 실험해서 다양한 치료법에 대한 피드백을 얻을 수 있습니다.
There are numerous ways to create these machine-learning systems, and perhaps the most promising models are those that mimic the relationship between neurons in the brain. These artificial neural networks can use millions of connections to tackle difficult tasks like image recognition, speech recognition, and even language translation. However, the more self-directed these models become, the harder it is for computer scientists to determine how these self-taught algorithms arrive at their solution. Researchers are already looking at ways to make machine learning more transparent. But as AI becomes more involved in our everyday lives, these enigmatic decisions have increasingly large impacts on our work, health, and safety. So as machines continue learning to investigate, negotiate and communicate, we must also consider how to teach them to teach each other to operate ethically.
이 머신러닝 시스템을 만드는 데에는 많은 방법들이 있고 아마 가장 장래성 있는 모델은 뇌 신경세포들의 연계를 모방하는 것들일 것입니다. 이 인공 신경망은 수백만 개의 접속으로 사진 인식, 음성 인식, 심지어 언어 통역 같은 어려운 일을 해냅니다. 그런데 이 모델들이 더 독립적일수록 컴퓨터 과학자들이 이 스스로 가르치는 알고리즘이 어떻게 결론을 내는지를 알아내기가 더 어렵습니다. 연구자들은 이미 머신러닝을 더 투명하게 만드는 법을 찾고 있습니다. 하지만 인공지능이 일상생활에 더 스며들수록 이 수수께기 같은 결정들은 우리의 직업, 건강, 안전에 점점 더 큰 영향을 미치고 있습니다. 따라서 기계가 조사, 협상, 소통을 학습할수록 우리는 기계가 서로를 윤리적이 되도록 가르치게 하는 법을 생각해야 합니다.