Today, artificial intelligence helps doctors diagnose patients, pilots fly commercial aircraft, and city planners predict traffic. But no matter what these AIs are doing, the computer scientists who designed them likely don’t know exactly how they’re doing it. This is because artificial intelligence is often self-taught, working off a simple set of instructions to create a unique array of rules and strategies. So how exactly does a machine learn?
I dag hjelper kunstig intelligens leger med å diagnostisere pasienter, piloter med å fly kommersielle fly, og byplanleggere med å forutsi trafikk. Men uansett hva disse KI-ene gjør, så vet dataforskerne som designet dem mest sannsynlig ikke helt hvordan de gjør det. Det skyldes at kunstig intelligens ofte er selvlært, med utgangspunkt i et sett med instruksjoner for å skape en unik matrise av regler og strategier. Så, nøyaktig hvordan lærer en maskin?
There are many different ways to build self-teaching programs. But they all rely on the three basic types of machine learning: unsupervised learning, supervised learning, and reinforcement learning. To see these in action, let’s imagine researchers are trying to pull information from a set of medical data containing thousands of patient profiles.
Det er mange måter å bygge programmer for selvlæring. Men alle er avhengige av tre grunnleggende typer maskinlæring: ikke-overvåket læring, overvåket læring og forsterkningslæring. For å se disse i aksjon kan vi forestille oss at forskere forsøker å trekke informasjon ut fra et sett med medisinske data som inneholder tusenvis av pasientprofiler.
First up, unsupervised learning. This approach would be ideal for analyzing all the profiles to find general similarities and useful patterns. Maybe certain patients have similar disease presentations, or perhaps a treatment produces specific sets of side effects. This broad pattern-seeking approach can be used to identify similarities between patient profiles and find emerging patterns, all without human guidance.
Først ut, ikke-overvåket læring. Denne tilnærmingen vil være ideell for å analysere alle profilene for å finne generelle likheter og nyttige mønstre. Kanskje visse pasienter har lignende sykdomsbilder, eller kanskje en behandling fører med seg et spesifikt sett med bivirkninger. Denne brede, mønstersøkende tilnærmingen kan brukes til å identifisere likheter mellom pasientprofiler, og finne nye mønstre uten menneskelig veiledning.
But let's imagine doctors are looking for something more specific. These physicians want to create an algorithm for diagnosing a particular condition. They begin by collecting two sets of data— medical images and test results from both healthy patients and those diagnosed with the condition. Then, they input this data into a program designed to identify features shared by the sick patients but not the healthy patients. Based on how frequently it sees certain features, the program will assign values to those features’ diagnostic significance, generating an algorithm for diagnosing future patients. However, unlike unsupervised learning, doctors and computer scientists have an active role in what happens next. Doctors will make the final diagnosis and check the accuracy of the algorithm’s prediction. Then computer scientists can use the updated datasets to adjust the program’s parameters and improve its accuracy. This hands-on approach is called supervised learning.
Men la oss si at man ser etter noe mer spesifikt. Disse legene ønsker å lage en algoritme for å diagnostisere en bestemt tilstand. De begynner med å samle inn to datasett - medisinske bilder og testresultater fra både friske pasienter og de som har fått diagnosen. Deretter legger de inn disse dataene i et program designet for å identifisere kjennetegn som deles av de syke pasientene, men ikke de friske. Basert på hvor ofte programmet ser bestemte kjennetegn, vil det bli tildelt verdier til disse kjennetegnenes diagnostiske relevans, noe som genererer en algoritme for diagnostisering av fremtidige pasienter. I motsetning til ikke-overvåket læring har leger og dataforskere en rolle i hva som skjer videre. Leger stiller den endelige diagnosen, og kontrollerer nøyaktigheten av algoritmens beregning. Deretter kan dataforskerne benytte oppdaterte datasett til å justere parameterne og forbedre programmets nøyaktighet. Denne praktiske tilnærmingen kalles overvåket læring.
Now, let’s say these doctors want to design another algorithm to recommend treatment plans. Since these plans will be implemented in stages, and they may change depending on each individual's response to treatments, the doctors decide to use reinforcement learning. This program uses an iterative approach to gather feedback about which medications, dosages and treatments are most effective. Then, it compares that data against each patient’s profile to create their unique, optimal treatment plan. As the treatments progress and the program receives more feedback, it can constantly update the plan for each patient. None of these three techniques are inherently smarter than any other. While some require more or less human intervention, they all have their own strengths and weaknesses which makes them best suited for certain tasks. However, by using them together, researchers can build complex AI systems, where individual programs can supervise and teach each other. For example, when our unsupervised learning program finds groups of patients that are similar, it could send that data to a connected supervised learning program. That program could then incorporate this information into its predictions. Or perhaps dozens of reinforcement learning programs might simulate potential patient outcomes to collect feedback about different treatment plans.
La oss si at legene ønsker å designe enda en algoritme til å anbefale behandlingsplaner. Siden disse planene vil bli implementert i etapper, og de kan endres avhengig av den enkeltes respons på behandlingen, bestemmer legene seg for å bruke forsterkningslæring. Dette programmet bruker en iterativ metode for å høste erfaringer om hvilke medisiner, doser og behandlinger som er mest effektive. Deretter sammenlignes data med hver enkelt pasientprofil for å lage en unik, optimal behandlingsplan. Etter hvert som behandlingene utvikles og man får flere tilbakemeldinger, kan programmet kontinuerlig oppdatere planen for hver enkelt pasient. Ingen av disse tre teknikkene er i seg selv smartere enn de andre. Noen krever mer eller mindre menneskelig inngripen, og alle har sine egne styrker og svakheter som gjør dem best egnet til bestemte oppgaver. Men ved å bruke dem sammen, kan forskere bygge komplekse AI-systemer, der individuelle programmer kan overvåke og lære opp hverandre. For eksempel, når vårt ikke-overvåkede læringsprogram finner grupper av pasienter som er like, kan det sende disse dataene til et tilkoblet, overvåket læringsprogram. Dette programmet kan deretter bruke denne informasjonen i sine prognoser. Eller kanskje dusinvis av forsterkende læringsprogrammer kan simulere potensielle pasientutfall for å innhente erfaringer fra ulike behandlingsplaner.
There are numerous ways to create these machine-learning systems, and perhaps the most promising models are those that mimic the relationship between neurons in the brain. These artificial neural networks can use millions of connections to tackle difficult tasks like image recognition, speech recognition, and even language translation. However, the more self-directed these models become, the harder it is for computer scientists to determine how these self-taught algorithms arrive at their solution. Researchers are already looking at ways to make machine learning more transparent. But as AI becomes more involved in our everyday lives, these enigmatic decisions have increasingly large impacts on our work, health, and safety. So as machines continue learning to investigate, negotiate and communicate, we must also consider how to teach them to teach each other to operate ethically.
Det finnes mange måter å lage slike maskinlæringssystemer, og kanskje de mest lovende modellene er de som etterligner forholdet mellom nevroner i hjernen. Disse kunstige nevralnettverkene kan bruke millioner av koblinger til å løse vanskelige oppgaver som bildegjenkjenning, talegjenkjenning, og til og med språkoversettelse. Men jo mer selvstyrte disse modellene blir, desto vanskeligere blir det for dataforskere å finne ut hvordan disse selvlærte algoritmene kommer frem til løsningen. Forskere ser allerede på måter for å gjøre maskinlæring mer transparent. Men etter hvert som KI blir en større del av hverdagen vår, har disse gåtefulle beslutningene stadig større innvirkning på arbeid, helse og sikkerhet. Så mens maskinene fortsetter å lære å undersøke, forhandle og kommunisere, må vi også vurdere hvordan vi kan lære dem å lære hverandre å arbeide etisk.