It used to be that if you wanted to get a computer to do something new, you would have to program it. Now, programming, for those of you here that haven't done it yourself, requires laying out in excruciating detail every single step that you want the computer to do in order to achieve your goal. Now, if you want to do something that you don't know how to do yourself, then this is going to be a great challenge.
Als je vroeger een computer iets nieuws wilde laten doen, moest je hem programmeren. Voor wie het nooit zelf heeft gedaan: programmeren vereist dat je tot in het allerpijnlijkste detail elke stap uitschrijft van wat je wil dat de computer doet om je doel te bereiken. Als je iets wil doen, waarvan je zelf niet weet hoe je het moet doen, dan is dit een grote uitdaging.
So this was the challenge faced by this man, Arthur Samuel. In 1956, he wanted to get this computer to be able to beat him at checkers. How can you write a program, lay out in excruciating detail, how to be better than you at checkers? So he came up with an idea: he had the computer play against itself thousands of times and learn how to play checkers. And indeed it worked, and in fact, by 1962, this computer had beaten the Connecticut state champion.
Dat was de uitdaging voor deze man, Arthur Samuel. In 1956 wilde hij deze computer zover krijgen dat hij Samuel zelf kon verslaan bij het dammen. Hoe schrijf je een programma dat tot in het allerpijnlijkste detail, beter is in dammen dan je zelf bent? Hij kwam met een idee: hij liet de computer duizenden keren tegen zichzelf spelen en daarbij leren hoe te dammen. Het werkte en in 1962 versloeg deze computer de kampioen van de staat Connecticut.
So Arthur Samuel was the father of machine learning, and I have a great debt to him, because I am a machine learning practitioner. I was the president of Kaggle, a community of over 200,000 machine learning practictioners. Kaggle puts up competitions to try and get them to solve previously unsolved problems, and it's been successful hundreds of times. So from this vantage point, I was able to find out a lot about what machine learning can do in the past, can do today, and what it could do in the future. Perhaps the first big success of machine learning commercially was Google. Google showed that it is possible to find information by using a computer algorithm, and this algorithm is based on machine learning. Since that time, there have been many commercial successes of machine learning. Companies like Amazon and Netflix use machine learning to suggest products that you might like to buy, movies that you might like to watch. Sometimes, it's almost creepy. Companies like LinkedIn and Facebook sometimes will tell you about who your friends might be and you have no idea how it did it, and this is because it's using the power of machine learning. These are algorithms that have learned how to do this from data rather than being programmed by hand.
Zo werd Arthur Samuel de vader van het ‘machinaal leren’. Ik heb veel aan hem te danken, want ik doe aan machinaal leren. Ik was voorzitter van Kaggle, een gemeenschap van meer dan 200.000 machinaal-lerenbeoefenaars. Kaggle organiseert wedstrijden om eerder onopgeloste problemen op te lossen. Dat lukte al honderden keren. Daardoor kon ik heel wat te weten komen over wat machinaal leren kon doen in het verleden, vandaag, en wat het zou kunnen doen in de toekomst. Misschien is Google het eerste grote commerciële succes van machinaal leren. Google liet zien dat het mogelijk is om informatie te vinden met een computeralgoritme. Dit algoritme is gebaseerd op machinaal leren. Sinds die tijd heeft machinaal leren heel wat commerciële successen geboekt. Bedrijven als Amazon en Netflix gebruiken machinaal leren om producten te suggereren die je misschien wilt kopen, of films om naar te kijken. Soms is het bijna griezelig. Bedrijven zoals LinkedIn en Facebook kunnen je soms vertellen wie je vrienden zouden kunnen zijn en je hebt geen idee hoe dat in zijn werk ging. Dat is de kracht van machinaal leren. Deze algoritmen hebben dit uit gegevens geleerd te doen in plaats van door manueel programmeren.
This is also how IBM was successful in getting Watson to beat the two world champions at "Jeopardy," answering incredibly subtle and complex questions like this one. ["The ancient 'Lion of Nimrud' went missing from this city's national museum in 2003 (along with a lot of other stuff)"] This is also why we are now able to see the first self-driving cars. If you want to be able to tell the difference between, say, a tree and a pedestrian, well, that's pretty important. We don't know how to write those programs by hand, but with machine learning, this is now possible. And in fact, this car has driven over a million miles without any accidents on regular roads.
Daarom ook kon Watson van IBM de twee wereldkampioenen bij "Jeopardy" verslaan door heel subtiele en complexe vragen als deze te beantwoorden. ["O.a. de oude 'Leeuw van Nimrod' verdween hier in 2003 uit het nationaal museum."] Ook daarom kunnen we nu de eerste zelfsturende auto's zien. Het verschil zien tussen een boom en een voetganger is dan nogal belangrijk. We weten niet hoe we zulke programma's handmatig moeten schrijven, maar met machinaal leren kan het. Deze auto heeft er al meer dan een miljoen kilometer opzitten zonder ongevallen en op gewone wegen.
So we now know that computers can learn, and computers can learn to do things that we actually sometimes don't know how to do ourselves, or maybe can do them better than us. One of the most amazing examples I've seen of machine learning happened on a project that I ran at Kaggle where a team run by a guy called Geoffrey Hinton from the University of Toronto won a competition for automatic drug discovery. Now, what was extraordinary here is not just that they beat all of the algorithms developed by Merck or the international academic community, but nobody on the team had any background in chemistry or biology or life sciences, and they did it in two weeks. How did they do this? They used an extraordinary algorithm called deep learning. So important was this that in fact the success was covered in The New York Times in a front page article a few weeks later. This is Geoffrey Hinton here on the left-hand side. Deep learning is an algorithm inspired by how the human brain works, and as a result it's an algorithm which has no theoretical limitations on what it can do. The more data you give it and the more computation time you give it, the better it gets.
We weten nu dat computers kunnen leren, en computers dingen kunnen leren doen waarvan we eigenlijk soms niet weten hoe we ze zelf moeten doen, of kunnen ze misschien beter doen dan wij. Een van de meest verbazingwekkende voorbeelden van machinaal leren die ik heb gezien, zag ik op een project dat ik op Kaggle leidde. Een team geleid door Geoffrey Hinton van de Universiteit van Toronto won een wedstrijd in het geautomatiseerd ontdekken van geneesmiddelen. Het was al buitengewoon dat ze alle algoritmen van Merck en de internationale academische gemeenschap versloegen, maar daarbij had niemand in het team een achtergrond in scheikunde, biologie of levenswetenschappen, en ze deden het in twee weken. Hoe deden ze het? Ze gebruikten een buitengewoon algoritme: ‘deep learning’. Zo belangrijk was dat, dat het een paar weken later in The New York Times als voorpagina-artikel verscheen. Dit is Geoffrey Hinton hier links. Deep learning is een algoritme geïnspireerd op het menselijk brein. Daardoor is het een algoritme zonder theoretische beperkingen op wat het kan doen. Hoe meer gegevens en rekentijd je het geeft, hoe beter het wordt.
The New York Times also showed in this article another extraordinary result of deep learning which I'm going to show you now. It shows that computers can listen and understand.
De New York Times toonde in dit artikel ook een ander uitzonderlijk resultaat van deep learning. Ik ga het je nu laten zien. Het toont aan dat computers kunnen luisteren en begrijpen.
(Video) Richard Rashid: Now, the last step that I want to be able to take in this process is to actually speak to you in Chinese. Now the key thing there is, we've been able to take a large amount of information from many Chinese speakers and produce a text-to-speech system that takes Chinese text and converts it into Chinese language, and then we've taken an hour or so of my own voice and we've used that to modulate the standard text-to-speech system so that it would sound like me. Again, the result's not perfect. There are in fact quite a few errors. (In Chinese) (Applause) There's much work to be done in this area. (In Chinese) (Applause)
(Video) Richard Rashid: De laatste stap die ik in dit proces wil kunnen zetten, is om je daadwerkelijk in het Chinees aan te spreken. Het belangrijkste is dat we een grote hoeveelheid informatie van vele Chinese sprekers konden vergaren en een tekst-naar-spraaksysteem produceren dat Chinese tekst omzet naar Chinese spreektaal. Daarna hebben we een paar uren mijn eigen stem opgenomen en ze gebruikt om het standaard tekst-naar-spraak systeem te moduleren zodat het zou klinken zoals ik. Het resultaat is niet perfect. Er zitten nogal wat fouten in. (In het Chinees) (Applaus) Er is nog veel werk te doen op dit gebied. (In het Chinees) (Applaus)
Jeremy Howard: Well, that was at a machine learning conference in China. It's not often, actually, at academic conferences that you do hear spontaneous applause, although of course sometimes at TEDx conferences, feel free. Everything you saw there was happening with deep learning. (Applause) Thank you. The transcription in English was deep learning. The translation to Chinese and the text in the top right, deep learning, and the construction of the voice was deep learning as well.
Jeremy Howard: Dat was op een conferentie over machinaal leren in China. Op wetenschappelijke congressen hoor je niet vaak spontaan applaus, maar natuurlijk wel eens bij TEDx conferenties, het mag. Alles wat je zag, gebeurde met deep learning. (Applaus) Dank je. De transcriptie in het Engels was deep learning. Ook de vertaling naar Chinees en de tekst in de rechterbovenhoek is deep learning. De constructie van de stem, weer deep learning.
So deep learning is this extraordinary thing. It's a single algorithm that can seem to do almost anything, and I discovered that a year earlier, it had also learned to see. In this obscure competition from Germany called the German Traffic Sign Recognition Benchmark, deep learning had learned to recognize traffic signs like this one. Not only could it recognize the traffic signs better than any other algorithm, the leaderboard actually showed it was better than people, about twice as good as people. So by 2011, we had the first example of computers that can see better than people. Since that time, a lot has happened. In 2012, Google announced that they had a deep learning algorithm watch YouTube videos and crunched the data on 16,000 computers for a month, and the computer independently learned about concepts such as people and cats just by watching the videos. This is much like the way that humans learn. Humans don't learn by being told what they see, but by learning for themselves what these things are. Also in 2012, Geoffrey Hinton, who we saw earlier, won the very popular ImageNet competition, looking to try to figure out from one and a half million images what they're pictures of. As of 2014, we're now down to a six percent error rate in image recognition. This is better than people, again.
Deep learning is buitengewoon. Een enkel algoritme lijkt bijna alles te kunnen. Een jaar eerder ontdekte ik dat het systeem ook had leren zien. Bij een minder bekende wedstrijd in Duitsland, de German Traffic Sign Recognition Benchmark, heeft deep learning verkeersborden zoals deze leren herkennen. Niet alleen kan het verkeersborden beter dan enig ander algoritme herkennen, het scorebord liet zien dat het ook ongeveer twee keer beter was dan mensen. In 2011 hadden we dus het eerste voorbeeld van computers die beter kunnen zien dan mensen. Sinds die tijd is er veel gebeurd. In 2012 kondigde Google aan dat ze een deep learning-algoritme YouTube-video’s lieten bekijken. Het verwerkte een maand lang de gegevens op 16.000 computers, en de computer leerde zelfstandig over begrippen als mensen en katten gewoon door naar de video's te kijken. Net als de manier waarop mensen leren. Mensen leren niet doordat hen wordt verteld wat ze zien, maar door zichzelf deze dingen te leren. Ook in 2012, won Geoffrey Hinton, die we eerder zagen, de zeer populaire ImageNet-wedstrijd, door te kijken naar anderhalf miljoen afbeeldingen om erachter te komen wat ze voorstelden. Vanaf 2014 zitten we op een zes procent foutenpercentage bij beeldherkenning. Dit is alweer beter dan mensen.
So machines really are doing an extraordinarily good job of this, and it is now being used in industry. For example, Google announced last year that they had mapped every single location in France in two hours, and the way they did it was that they fed street view images into a deep learning algorithm to recognize and read street numbers. Imagine how long it would have taken before: dozens of people, many years. This is also happening in China. Baidu is kind of the Chinese Google, I guess, and what you see here in the top left is an example of a picture that I uploaded to Baidu's deep learning system, and underneath you can see that the system has understood what that picture is and found similar images. The similar images actually have similar backgrounds, similar directions of the faces, even some with their tongue out. This is not clearly looking at the text of a web page. All I uploaded was an image. So we now have computers which really understand what they see and can therefore search databases of hundreds of millions of images in real time.
Machines kunnen dit buitengewoon goed en het wordt nu gebruikt in de industrie. Vorig jaar kondigde Google bijvoorbeeld aan dat ze elke locatie in Frankrijk in twee uur tijd in kaart hadden gebracht, door Street View-beelden met een deep learning-algoritme te herkennen en de huisnummers te lezen. Stel je voor hoe lang het anders zou hebben geduurd: tientallen mensen, vele jaren. Dit gebeurt ook in China. Baidu is een soort Chinese Google, denk ik, en wat je hier ziet in de linkerbovenhoek, is een voorbeeld van een foto die ik heb geüpload naar Baidu’s deep learning-systeem. Daaronder kun je zien dat het systeem heeft begrepen wat dat beeld is en gelijkaardige beelden vond. De gelijkaardige beelden hebben gelijkaardige achtergronden, dezelfde richtingen van gezichten, sommige zelfs met hun tong uit. Dit is niet zomaar wat kijken naar de tekst van een webpagina. Alles wat ik uploadde, waren beelden. Dus hebben we nu computers die echt begrijpen wat ze zien en derhalve databases van honderden miljoenen beelden in real time doorzoeken.
So what does it mean now that computers can see? Well, it's not just that computers can see. In fact, deep learning has done more than that. Complex, nuanced sentences like this one are now understandable with deep learning algorithms. As you can see here, this Stanford-based system showing the red dot at the top has figured out that this sentence is expressing negative sentiment. Deep learning now in fact is near human performance at understanding what sentences are about and what it is saying about those things. Also, deep learning has been used to read Chinese, again at about native Chinese speaker level. This algorithm developed out of Switzerland by people, none of whom speak or understand any Chinese. As I say, using deep learning is about the best system in the world for this, even compared to native human understanding.
Wat betekent het nu dat computers kunnen zien? Computers kunnen niet alleen maar zien. Deep learning doet meer. Complexe, genuanceerde zinnen zoals deze zijn nu begrijpelijk met deep learning-algoritmen. Zoals je hier kunt zien, heeft dit systeem van Stanford met de rode stip bovenaan uitgeknobbeld dat deze zin een negatief sentiment weergeeft. Deep learning komt in de buurt van menselijke prestaties bij het begrijpen waar zinnen over gaan en wat ze zeggen over die dingen. Ook is deep learning gebruikt om Chinees te lezen, weer op ongeveer het niveau van Chinese moedertaalsprekers. Dit algoritme werd in Zwitserland ontwikkeld alweer door mensen die geen Chinees spreken of begrijpen. Zoals ik al zei, deep learning is zowat het beste systeem ter wereld hiervoor, zelfs in vergelijking met autochtoon menselijk begrijpen.
This is a system that we put together at my company which shows putting all this stuff together. These are pictures which have no text attached, and as I'm typing in here sentences, in real time it's understanding these pictures and figuring out what they're about and finding pictures that are similar to the text that I'm writing. So you can see, it's actually understanding my sentences and actually understanding these pictures. I know that you've seen something like this on Google, where you can type in things and it will show you pictures, but actually what it's doing is it's searching the webpage for the text. This is very different from actually understanding the images. This is something that computers have only been able to do for the first time in the last few months.
Het is een systeem dat we op mijn bedrijf hebben ontwikkeld door dit allemaal te combineren. Dit zijn foto’s zonder bijhorende tekst, en terwijl ik hier zinnen typ, begrijpt het deze foto’s in real time, zoekt uit waarover ze gaan en vindt foto’s die lijken op de tekst die ik schrijf. Zoals jullie kunnen zien, begrijpt het mijn zinnen en deze foto's echt. Dit heb je vast al gezien op Google, waar je woorden kunt intypen en het je afbeeldingen toont, maar eigenlijk doorzoekt het de webpagina op tekst. Dat is heel wat anders dan werkelijk begrijpen van de afbeeldingen. Dit kunnen computers alleen nog maar sinds de laatste paar maanden.
So we can see now that computers can not only see but they can also read, and, of course, we've shown that they can understand what they hear. Perhaps not surprising now that I'm going to tell you they can write. Here is some text that I generated using a deep learning algorithm yesterday. And here is some text that an algorithm out of Stanford generated. Each of these sentences was generated by a deep learning algorithm to describe each of those pictures. This algorithm before has never seen a man in a black shirt playing a guitar. It's seen a man before, it's seen black before, it's seen a guitar before, but it has independently generated this novel description of this picture. We're still not quite at human performance here, but we're close. In tests, humans prefer the computer-generated caption one out of four times. Now this system is now only two weeks old, so probably within the next year, the computer algorithm will be well past human performance at the rate things are going. So computers can also write.
Computers kunnen dus niet alleen zien, maar ook lezen, en, zoals we hebben aangetoond, ook begrijpen wat ze horen. Misschien niet zo verwonderlijk dat ik je vertel dat ze kunnen schrijven. Deze tekst genereerde ik gisteren met een deep learning-algoritme. En hier een stukje tekst dat een algoritme van Stanford genereerde. Elk van deze zinnen werd gegenereerd door een deep learning-algoritme om elk van deze foto's te beschrijven. Dit algoritme had nog nooit een man in een zwart shirt gitaar zien spelen. Het had al apart een man, zwart en een gitaar gezien, maar genereerde onafhankelijk de nieuwe beschrijving van dit beeld. We zijn nog niet zover als menselijke prestaties, maar we komen in de buurt. Bij tests geven mensen één op de vier keer de voorkeur aan het bijschrift van de computer. Dit systeem is nog maar twee weken oud, dus waarschijnlijk zal in de loop van volgend jaar, het computer-algoritme het beter doen dan mensen. Computers kunnen dus ook schrijven. Dit alles tezamen leidt tot zeer interessante mogelijkheden.
So we put all this together and it leads to very exciting opportunities. For example, in medicine, a team in Boston announced that they had discovered dozens of new clinically relevant features of tumors which help doctors make a prognosis of a cancer. Very similarly, in Stanford, a group there announced that, looking at tissues under magnification, they've developed a machine learning-based system which in fact is better than human pathologists at predicting survival rates for cancer sufferers. In both of these cases, not only were the predictions more accurate, but they generated new insightful science. In the radiology case, they were new clinical indicators that humans can understand. In this pathology case, the computer system actually discovered that the cells around the cancer are as important as the cancer cells themselves in making a diagnosis. This is the opposite of what pathologists had been taught for decades. In each of those two cases, they were systems developed by a combination of medical experts and machine learning experts, but as of last year, we're now beyond that too. This is an example of identifying cancerous areas of human tissue under a microscope. The system being shown here can identify those areas more accurately, or about as accurately, as human pathologists, but was built entirely with deep learning using no medical expertise by people who have no background in the field. Similarly, here, this neuron segmentation. We can now segment neurons about as accurately as humans can, but this system was developed with deep learning using people with no previous background in medicine.
In de geneeskunde heeft een team in Boston aangekondigd tientallen nieuwe klinisch relevante eigenschappen van tumoren te hebben ontdekt, wat artsen helpt bij het maken van prognoses voor kanker. Ook in Stanford maakte een groep bekend dat ze, kijkend naar weefsels onder vergroting, een op machinaal-leren gebaseerd systeem hebben ontwikkeld dat beter was dan menselijke pathologen in het voorspellen van overlevingskansen voor kankerpatiënten. In beide gevallen werden niet alleen de voorspellingen nauwkeuriger, maar ze genereerden nieuwe inzichtelijke wetenschap. Bij de radiologie waren dat nieuwe klinische indicatoren die mensen kunnen begrijpen. Bij de pathologie ontdekte het computersysteem dat de cellen rond de kanker even belangrijk zijn als de kankercellen zelf bij het maken van een diagnose. Dit is het tegenovergestelde van wat pathologen decennialang hadden geleerd. In beide gevallen werden systemen ontwikkeld door een combinatie van medische experts en machinaal-lerenexperts, maar dat was vorig jaar, nu staan we verder. Dit is een voorbeeld van identificatie van carcinomateuze gebieden van menselijk weefsel onder een microscoop. Het systeem dat hier wordt getoond, kan deze doelgebieden preciezer identificeren of ongeveer net zo precies als menselijke pathologen, maar werd geheel ontwikkeld met deep learning zonder medische expertise door mensen zonder achtergrond op dat gebied. Evenzo bij deze neuronen-segmentatie. We kunnen nu neuronen ongeveer net zo nauwkeurig onderscheiden als mensen het kunnen, maar dit systeem is ontwikkeld met deep learning
So myself, as somebody with no previous background in medicine, I seem to be entirely well qualified to start a new medical company, which I did. I was kind of terrified of doing it, but the theory seemed to suggest that it ought to be possible to do very useful medicine using just these data analytic techniques. And thankfully, the feedback has been fantastic, not just from the media but from the medical community, who have been very supportive. The theory is that we can take the middle part of the medical process and turn that into data analysis as much as possible, leaving doctors to do what they're best at. I want to give you an example. It now takes us about 15 minutes to generate a new medical diagnostic test and I'll show you that in real time now, but I've compressed it down to three minutes by cutting some pieces out. Rather than showing you creating a medical diagnostic test, I'm going to show you a diagnostic test of car images, because that's something we can all understand.
met mensen zonder eerdere achtergrond in de geneeskunde. Ikzelf, als iemand zonder eerdere achtergrond in de geneeskunde, lijk helemaal gekwalificeerd te zijn om een nieuw medisch bedrijf op te starten, wat ik dan ook deed. Ik was doodsbang om het te doen, maar de theorie leek te suggereren dat het mogelijk moet zijn om aan zeer bruikbare geneeskunde te doen met deze data-analyse technieken. Gelukkig is de feedback fantastisch geweest. Niet alleen van de media maar ook van de medische gemeenschap, die zeer positief reageerde. De theorie is dat wij het middelste deel van het medische proces kunnen overnemen en dat zoveel mogelijk in gegevensanalyse omzetten om artsen dat te laten doen waarin ze uitblinken. Ik geef een voorbeeld. Het kost ons nu ongeveer 15 minuten om een nieuwe medische diagnostische test te genereren. Ik toon het in real-time, maar comprimeerde het tot drie minuten door wat weg te laten. In plaats van het creëren van een medisch-diagnostische test te tonen, toon ik een diagnostische test van afbeeldingen van auto's, want dat begrijpen we allemaal.
So here we're starting with about 1.5 million car images, and I want to create something that can split them into the angle of the photo that's being taken. So these images are entirely unlabeled, so I have to start from scratch. With our deep learning algorithm, it can automatically identify areas of structure in these images. So the nice thing is that the human and the computer can now work together. So the human, as you can see here, is telling the computer about areas of interest which it wants the computer then to try and use to improve its algorithm. Now, these deep learning systems actually are in 16,000-dimensional space, so you can see here the computer rotating this through that space, trying to find new areas of structure. And when it does so successfully, the human who is driving it can then point out the areas that are interesting. So here, the computer has successfully found areas, for example, angles. So as we go through this process, we're gradually telling the computer more and more about the kinds of structures we're looking for. You can imagine in a diagnostic test this would be a pathologist identifying areas of pathosis, for example, or a radiologist indicating potentially troublesome nodules. And sometimes it can be difficult for the algorithm. In this case, it got kind of confused. The fronts and the backs of the cars are all mixed up. So here we have to be a bit more careful, manually selecting these fronts as opposed to the backs, then telling the computer that this is a type of group that we're interested in.
We beginnen hier met ongeveer 1,5 miljoen afbeeldingen van auto's, en ik wil iets maken dat hen kan sorteren volgens de hoek vanwaar de foto werd genomen. Deze beelden zijn ongelabeld, dus moet ik beginnen vanaf nul. Met ons deep learning-algoritme kan het automatisch structuurdelen identificeren in deze beelden. Het leuke is dat mens en computer nu kunnen samenwerken. De mens zoals hier te zien, wijst de computer op aandachtsgebieden waarvan hij wil dat de computer ze gebruikt om het algoritme te verbeteren. Deze deep learning-systemen zijn in feite in een 16.000-dimensionale ruimte. Je kunt de computer dit in die ruimte zien draaien, om nieuwe structuurgebieden te vinden. Als dat lukt, kan de mens dan wijzen op gebieden die interessant zijn. Hier heeft de computer goede gebieden gevonden, bijvoorbeeld hoeken. Bij het doorlopen van dit proces, vertellen we de computer geleidelijk aan meer en meer over de soorten structuren die we zoeken. Je kunt je voorstellen dat in een diagnostische test een patholoog zieke gebieden gaat identificeren of een radioloog potentieel gevaarlijke knobbeltjes aanwijst. Soms wordt het moeilijk voor het algoritme. Hier raakte het in de war. De voor- en achterkanten van de auto's worden door elkaar gehaald. Dus moeten we hier wat preciezer zijn, voor- en achterkanten handmatig selecteren en de computer vertellen dat dit een soort groep is waarin we geïnteresseerd zijn.
So we do that for a while, we skip over a little bit, and then we train the machine learning algorithm based on these couple of hundred things, and we hope that it's gotten a lot better. You can see, it's now started to fade some of these pictures out, showing us that it already is recognizing how to understand some of these itself. We can then use this concept of similar images, and using similar images, you can now see, the computer at this point is able to entirely find just the fronts of cars. So at this point, the human can tell the computer, okay, yes, you've done a good job of that.
Dat doen we even, we slaan even wat over, en trainen daarmee het machinaal-lerenalgoritme op basis van die paar honderd dingen, en hopen dat het dan veel beter gaat. Jullie zien, hij begint nu sommige van deze foto’s te vervagen, en laat daarmee zien dat het sommige ervan zelf begint te begrijpen. We kunnen dan gebruik maken van het concept van soortgelijke foto's, daarmee kun je nu zien dat de computer in staat is om alleen de voorkanten van auto’s te vinden. Nu kan de mens de computer vertellen: “Oké, dat heb je goed gedaan.”
Sometimes, of course, even at this point it's still difficult to separate out groups. In this case, even after we let the computer try to rotate this for a while, we still find that the left sides and the right sides pictures are all mixed up together. So we can again give the computer some hints, and we say, okay, try and find a projection that separates out the left sides and the right sides as much as possible using this deep learning algorithm. And giving it that hint -- ah, okay, it's been successful. It's managed to find a way of thinking about these objects that's separated out these together.
Maar zelfs op dit punt is het soms nog steeds moeilijk groepen te scheiden. Zelfs na de computer dit een tijdje te laten roteren, zien we nog steeds dat foto’s van de linker- en de rechterzijde door elkaar worden gehaald. We kunnen dan de computer weer enkele tips geven, en zeggen dat hij een projectie moet zoeken die de linker- en rechterkant zoveel mogelijk scheidt door middel van een deep learning-algoritme. En met die hint – ah, oké, het is gelukt. Hij vond een manier van denken over deze objecten dat ze van elkaar scheidde.
So you get the idea here. This is a case not where the human is being replaced by a computer, but where they're working together. What we're doing here is we're replacing something that used to take a team of five or six people about seven years and replacing it with something that takes 15 minutes for one person acting alone.
Je ziet het idee erachter. Hier werd de mens niet vervangen door een computer, maar ze werkten samen. Dit zou een team van vijf of zes personen zeven jaar hebben gekost. Dit duurt 15 minuten voor één enkele persoon.
So this process takes about four or five iterations. You can see we now have 62 percent of our 1.5 million images classified correctly. And at this point, we can start to quite quickly grab whole big sections, check through them to make sure that there's no mistakes. Where there are mistakes, we can let the computer know about them. And using this kind of process for each of the different groups, we are now up to an 80 percent success rate in classifying the 1.5 million images. And at this point, it's just a case of finding the small number that aren't classified correctly, and trying to understand why. And using that approach, by 15 minutes we get to 97 percent classification rates.
Dit proces neemt ongeveer vier of vijf iteraties in beslag. Je kunt zien dat we nu 62% van onze 1,5 miljoen beelden correct hebben geclassificeerd. Vanaf nu kunnen we vrij snel heel grote secties aanpakken en controleren of er geen fouten werden gemaakt. Waar fouten zijn, kunnen we de computer daarop wijzen. Met dit soort proces voor elk van de verschillende groepen, hebben we nu een 80% kans op succes bij het sorteren van de 1,5 miljoen afbeeldingen. Dan is het nog zaak het kleine aantal te vinden dat niet correct werd ingedeeld en proberen te begrijpen waarom. Met behulp van die aanpak krijgen we op 15 minuten tot 97% juiste classificatie. Dit soort techniek stelt ons in staat een groot probleem op te lossen,
So this kind of technique could allow us to fix a major problem, which is that there's a lack of medical expertise in the world. The World Economic Forum says that there's between a 10x and a 20x shortage of physicians in the developing world, and it would take about 300 years to train enough people to fix that problem. So imagine if we can help enhance their efficiency using these deep learning approaches?
namelijk het gebrek aan medische expertise in de wereld. Het Wereld Economisch Forum zegt dat er tussen de 10 en 20 keer te weinig artsen zijn in de derde wereld. Het zou ongeveer 300 jaar duren om voldoende mensen op te leiden om dat probleem op te lossen. Stel dat we hun efficiëntie kunnen verbeteren met behulp van deep learning?
So I'm very excited about the opportunities. I'm also concerned about the problems. The problem here is that every area in blue on this map is somewhere where services are over 80 percent of employment. What are services? These are services. These are also the exact things that computers have just learned how to do. So 80 percent of the world's employment in the developed world is stuff that computers have just learned how to do. What does that mean? Well, it'll be fine. They'll be replaced by other jobs. For example, there will be more jobs for data scientists. Well, not really. It doesn't take data scientists very long to build these things. For example, these four algorithms were all built by the same guy. So if you think, oh, it's all happened before, we've seen the results in the past of when new things come along and they get replaced by new jobs, what are these new jobs going to be? It's very hard for us to estimate this, because human performance grows at this gradual rate, but we now have a system, deep learning, that we know actually grows in capability exponentially. And we're here. So currently, we see the things around us and we say, "Oh, computers are still pretty dumb." Right? But in five years' time, computers will be off this chart. So we need to be starting to think about this capability right now.
Ik ben erg enthousiast over de mogelijkheden. Maar ik zie ook problemen. Het probleem hier is dat elk gebied in het blauw op deze kaart ergens is waar de dienstensector instaat voor meer dan 80% van de werkgelegenheid. Wat zijn diensten? Dit zijn diensten. Dit zijn ook exact die dingen die computers net hebben leren doen. Dus 80% van de werkgelegenheid in de ontwikkelde wereld zijn zaken die computers net hebben leren doen. Wat betekent dat? Het komt wel goed. Er komen wel andere banen. Bijvoorbeeld meer banen voor datawetenschappers. Nou, niet echt. Datawetenschappers kunnen deze dingen heel snel ontwikkelen. Zo werden deze vier algoritmes alle ontwikkeld door dezelfde man. Als je denkt: “Ach, het is allemaal al eerder gebeurd, we zagen wat er vroeger gebeurde als er nieuwe dingen kwamen, ze worden vervangen door nieuwe banen.” Maar wat zullen deze nieuwe banen zijn? Moeilijk in te schatten, omdat menselijk kunnen met dit geleidelijke tempo groeit, maar we hebben nu een deep learning-systeem dat eigenlijk exponentieel in mogelijkheden toeneemt. Hier zijn we. We kijken naar wat we hebben en zeggen: "Ach, computers zijn nog steeds behoorlijk dom." Ja? Maar in vijf jaar tijd zullen computers buiten deze grafiek vallen. Daar moeten we nu al beginnen over na te denken.
We have seen this once before, of course. In the Industrial Revolution, we saw a step change in capability thanks to engines. The thing is, though, that after a while, things flattened out. There was social disruption, but once engines were used to generate power in all the situations, things really settled down. The Machine Learning Revolution is going to be very different from the Industrial Revolution, because the Machine Learning Revolution, it never settles down. The better computers get at intellectual activities, the more they can build better computers to be better at intellectual capabilities, so this is going to be a kind of change that the world has actually never experienced before, so your previous understanding of what's possible is different.
Hebben we dit niet al eerder zien gebeuren? In de Industriële Revolutie deden we een grote stap in mogelijkheden dankzij machines. Maar na een tijdje vlakte het wat af. Er was maatschappelijke ontwrichting, maar zodra machines in alle situaties voor energie gingen zorgen, kalmeerde het weer. De Machinaal-Leren Revolutie zal heel wat anders zijn dan de Industriële Revolutie, omdat de Machinaal-Leren Revolutie nooit gaat stoppen. Hoe beter computers worden in intellectuele activiteiten, hoe meer ze betere computers kunnen bouwen om intellectuele vermogens te verbeteren. Dit gaat om een soort verandering die de wereld nog nooit eerder heeft meegemaakt. Je vorige idee van wat mogelijk is, schiet tekort.
This is already impacting us. In the last 25 years, as capital productivity has increased, labor productivity has been flat, in fact even a little bit down.
Dit beïnvloedt ons nu al. Terwijl in de afgelopen 25 jaar de kapitaalproductiviteit toenam, ging het voor de arbeidsproductiviteit zelfs een beetje omlaag.
So I want us to start having this discussion now. I know that when I often tell people about this situation, people can be quite dismissive. Well, computers can't really think, they don't emote, they don't understand poetry, we don't really understand how they work. So what? Computers right now can do the things that humans spend most of their time being paid to do, so now's the time to start thinking about how we're going to adjust our social structures and economic structures to be aware of this new reality. Thank you. (Applause)
Ik zou deze discussie nu willen opstarten. Ik weet dat wanneer ik mensen hierover vertel, ze vaak heel afwijzend zijn: "Computers kunnen toch niet echt denken, voelen, poëzie begrijpen. We begrijpen niet echt hoe ze werken." Dus? Computers kunnen nu dingen doen waarvoor mensen al hun hele leven betaald werden, dus is het nu tijd om te gaan nadenken hoe we onze sociale en economische structuren gaan aanpassen en ons bewust worden van deze nieuwe realiteit. Bedankt. (Applaus)