It used to be that if you wanted to get a computer to do something new, you would have to program it. Now, programming, for those of you here that haven't done it yourself, requires laying out in excruciating detail every single step that you want the computer to do in order to achieve your goal. Now, if you want to do something that you don't know how to do yourself, then this is going to be a great challenge.
Avant, si vous vouliez qu'un ordinateur fasse quelque chose de nouveau, vous deviez le programmer. La programmation, pour ceux d'entre vous qui n'en ont jamais fait, nécessite de décrire, à un niveau de détail effrayant, chaque étape que vous voulez que l'ordinateur fasse pour atteindre votre but. Mais si ce que vous voulez, vous ne savez pas le faire vous-même, la programmation devient un immense défi.
So this was the challenge faced by this man, Arthur Samuel. In 1956, he wanted to get this computer to be able to beat him at checkers. How can you write a program, lay out in excruciating detail, how to be better than you at checkers? So he came up with an idea: he had the computer play against itself thousands of times and learn how to play checkers. And indeed it worked, and in fact, by 1962, this computer had beaten the Connecticut state champion.
C'est à ce défi que se confronta cet homme, Arthur Samuel. En 1956, il voulut que cet ordinateur soit capable de le battre au jeu de dames. Comment écrire un programme, décrire, en d'effrayants détails, comment être meilleur que vous aux dames ? Il eut une idée : faire jouer l'ordinateur contre lui-même des milliers de fois et lui faire apprendre à jouer aux dames. Ça a si bien fonctionné que dès 1962 l'ordinateur avait battu le champion du Connecticut.
So Arthur Samuel was the father of machine learning, and I have a great debt to him, because I am a machine learning practitioner. I was the president of Kaggle, a community of over 200,000 machine learning practictioners. Kaggle puts up competitions to try and get them to solve previously unsolved problems, and it's been successful hundreds of times. So from this vantage point, I was able to find out a lot about what machine learning can do in the past, can do today, and what it could do in the future. Perhaps the first big success of machine learning commercially was Google. Google showed that it is possible to find information by using a computer algorithm, and this algorithm is based on machine learning. Since that time, there have been many commercial successes of machine learning. Companies like Amazon and Netflix use machine learning to suggest products that you might like to buy, movies that you might like to watch. Sometimes, it's almost creepy. Companies like LinkedIn and Facebook sometimes will tell you about who your friends might be and you have no idea how it did it, and this is because it's using the power of machine learning. These are algorithms that have learned how to do this from data rather than being programmed by hand.
Arthur Samuel est le père de la machine apprenante, et j'ai une grande dette envers lui, parce que je travaille dans ce secteur. J'ai été président de Kaggle, une communauté de 200 000 praticiens de l'apprentissage automatique. Kaggle met en place des compétitions pour les amener à résoudre des problèmes jusque là non résolus, et ça a été un succès des centaines de fois. De ce point de vue privilégié, j'ai pu découvrir beaucoup sur ce que l'apprentissage automatique pouvait et peut faire, et sur ce qu'il pourra faire demain. Le premier grand succès commercial, c'est peut-être Google. Google a montré qu'il était possible de trouver des informations en utilisant un algorithme, et cet algorithme est basé sur l'apprentissage automatique. L'apprentissage automatique a depuis connu beaucoup d'autres succès commerciaux Des sociétés comme Amazon ou Netflix l'utilisent pour suggérer des produits que vous pourriez vouloir acheter, des films que vous pourriez aimer voir. Parfois, c'en est presque effrayant. Des entreprises comme LinkedIn et Facebook vous disent parfois qui pourraient être vos amis et vous ne savez pas comment elles font, car elles utilisent le pouvoir de l'apprentissage automatique. Ces algorithmes ont appris à le faire à partir de données plutôt que d'être programmés manuellement.
This is also how IBM was successful in getting Watson to beat the two world champions at "Jeopardy," answering incredibly subtle and complex questions like this one. ["The ancient 'Lion of Nimrud' went missing from this city's national museum in 2003 (along with a lot of other stuff)"] This is also why we are now able to see the first self-driving cars. If you want to be able to tell the difference between, say, a tree and a pedestrian, well, that's pretty important. We don't know how to write those programs by hand, but with machine learning, this is now possible. And in fact, this car has driven over a million miles without any accidents on regular roads.
De la même manière, IBM a pu faire en sorte que Watson batte les champions du monde de « Jeopardy », en répondant à des questions très difficiles comme : « Le "Lion de Nimrud" a disparu en 2003 du musée de cette ville » C'est aussi pourquoi nous voyons les premières voitures autonomes. Être capable de faire la différence entre, disons, un arbre et un piéton, est plutôt important. Nous ne savons pas écrire de tels programmes manuellement, mais l'apprentissage automatique rend la chose possible. Cette voiture a roulé plus de 1,6 millions de km sur des routes ordinaires, sans le moindre accident.
So we now know that computers can learn, and computers can learn to do things that we actually sometimes don't know how to do ourselves, or maybe can do them better than us. One of the most amazing examples I've seen of machine learning happened on a project that I ran at Kaggle where a team run by a guy called Geoffrey Hinton from the University of Toronto won a competition for automatic drug discovery. Now, what was extraordinary here is not just that they beat all of the algorithms developed by Merck or the international academic community, but nobody on the team had any background in chemistry or biology or life sciences, and they did it in two weeks. How did they do this? They used an extraordinary algorithm called deep learning. So important was this that in fact the success was covered in The New York Times in a front page article a few weeks later. This is Geoffrey Hinton here on the left-hand side. Deep learning is an algorithm inspired by how the human brain works, and as a result it's an algorithm which has no theoretical limitations on what it can do. The more data you give it and the more computation time you give it, the better it gets.
Nous savons maintenant que les ordinateurs peuvent apprendre, et apprendre à faire des choses que nous ne savons pas toujours faire nous-mêmes, ou qu'ils peuvent peut-être faire mieux que nous. Un des cas les plus étonnants d'apprentissage automatique que j'ai vu s'est produit lors d'un projet de Kaggle, où une équipe dirigée par Geoffrey Hinton, de l'Université de Toronto, a gagné un concours de découverte de la drogue. Ce qui est extraordinaire n'est pas juste qu'ils aient battu tous les algorithmes de Merck ou de la communauté universitaire internationale, mais que personne de l'équipe n'ait de formation en chimie ou biologie, et qu'ils l'aient fait en deux semaines. Comment ont-ils fait ? Avec un algorithme génial appelé apprentissage profond. Ça a été si important que leur succès donna lieu à un article en une du New York Times quelques semaines plus tard. Il s'agit de Geoffrey Hinton, là, à gauche, sur l'écran. L'apprentissage profond s'inspire du fonctionnement du cerveau : c'est un algorithme qui n'a donc aucune limite théorique. Plus vous lui donnez de données, et de temps de calcul, plus il devient meilleur.
The New York Times also showed in this article another extraordinary result of deep learning which I'm going to show you now. It shows that computers can listen and understand.
Le New York Times montra aussi dans son article un autre résultat inouï de l'apprentissage profond, que je vais maintenant vous montrer. Il montre que les ordinateurs sont capables d'écouter et comprendre.
(Video) Richard Rashid: Now, the last step that I want to be able to take in this process is to actually speak to you in Chinese. Now the key thing there is, we've been able to take a large amount of information from many Chinese speakers and produce a text-to-speech system that takes Chinese text and converts it into Chinese language, and then we've taken an hour or so of my own voice and we've used that to modulate the standard text-to-speech system so that it would sound like me. Again, the result's not perfect. There are in fact quite a few errors. (In Chinese) (Applause) There's much work to be done in this area. (In Chinese) (Applause)
(Vidéo) Richard Rashid: La dernière étape que je voudrais pouvoir atteindre, c'est de vous parler en chinois. L'élément-clé ici, c'est que nous avons pu collecter beaucoup de données auprès de nombreux sinophones et produire un système de vocalisation qui convertit du texte chinois en parole chinoise, puis nous avons pris environ une heure d'enregistrement de ma propre voix, et nous l'avons utilisé pour moduler le système de vocalisation, afin que la voix ressemble à la mienne. Le résultat n'est pas parfait. Il y a un certain nombre d'erreurs. (En chinois) (Applaudissements) Il y a encore beaucoup de travail à faire (En chinois) (Applaudissements)
Jeremy Howard: Well, that was at a machine learning conference in China. It's not often, actually, at academic conferences that you do hear spontaneous applause, although of course sometimes at TEDx conferences, feel free. Everything you saw there was happening with deep learning. (Applause) Thank you. The transcription in English was deep learning. The translation to Chinese and the text in the top right, deep learning, and the construction of the voice was deep learning as well.
J. H. : C'était une conférence en Chine sur l'apprentissage automatique. Il est rare, lors de conférences universitaires, d'entendre des applaudissements spontanés, quoique cela arrive parfois aux conférences TEDx. N'hésitez pas. L'apprentissage profond était derrière tout ça. (Applaudissements) Merci. La transcription en anglais, la traduction en chinois et la construction de la voix étaient tous de l'apprentissage profond.
So deep learning is this extraordinary thing. It's a single algorithm that can seem to do almost anything, and I discovered that a year earlier, it had also learned to see. In this obscure competition from Germany called the German Traffic Sign Recognition Benchmark, deep learning had learned to recognize traffic signs like this one. Not only could it recognize the traffic signs better than any other algorithm, the leaderboard actually showed it was better than people, about twice as good as people. So by 2011, we had the first example of computers that can see better than people. Since that time, a lot has happened. In 2012, Google announced that they had a deep learning algorithm watch YouTube videos and crunched the data on 16,000 computers for a month, and the computer independently learned about concepts such as people and cats just by watching the videos. This is much like the way that humans learn. Humans don't learn by being told what they see, but by learning for themselves what these things are. Also in 2012, Geoffrey Hinton, who we saw earlier, won the very popular ImageNet competition, looking to try to figure out from one and a half million images what they're pictures of. As of 2014, we're now down to a six percent error rate in image recognition. This is better than people, again.
L'apprentissage profond est cette chose extraordinaire. C'est un seul algorithme qui semble pouvoir presque tout faire, et j'ai découvert qu'un an plus tôt, il avait aussi appris à voir. Dans une obscure compétition en Allemagne, le « Test de Reconnaissance de Panneaux Routiers », l'apprentissage profond a appris à reconnaître des panneaux, non seulement mieux que tous les autres algorithmes, mais également mieux que les humains - environ deux fois mieux : dès 2011, nous avions un exemple d'ordinateurs pouvant voir mieux qu'un être humain. Depuis, beaucoup de choses se sont passées. En 2012, Google a annoncé qu'un algorithme d'apprentissage profond, regardant des vidéos YouTube et analysant les données sur 16 000 ordinateurs pendant un mois, a pu apprendre, de lui-même, les concepts de « chat » ou encore d'« être humain », juste en regardant ces vidéos. Les êtres humains apprennent de la même manière : on n'apprend pas une chose par explication, mais on l'apprend par les perceptions individuelles. En 2012 également, Geoffrey Hinton, dont nous avons déjà parlé, a gagné le très réputé concours « ImageNet », où il s'agit d'identifier, au sein d'un million et demi d'images, les images en question. En 2014, nous sommes tombés à un taux d'erreur de 6% en reconnaissance visuelle. C'est, de nouveau, mieux qu'un être humain.
So machines really are doing an extraordinarily good job of this, and it is now being used in industry. For example, Google announced last year that they had mapped every single location in France in two hours, and the way they did it was that they fed street view images into a deep learning algorithm to recognize and read street numbers. Imagine how long it would have taken before: dozens of people, many years. This is also happening in China. Baidu is kind of the Chinese Google, I guess, and what you see here in the top left is an example of a picture that I uploaded to Baidu's deep learning system, and underneath you can see that the system has understood what that picture is and found similar images. The similar images actually have similar backgrounds, similar directions of the faces, even some with their tongue out. This is not clearly looking at the text of a web page. All I uploaded was an image. So we now have computers which really understand what they see and can therefore search databases of hundreds of millions of images in real time.
Les machines font vraiment ici un travail extraordinaire, avec, désormais, des applications industrielles. Par exemple, Google a annoncé l'an dernier qu'ils avaient cartographié l'ensemble des lieux de France en deux heures, en fournissant des images de Street View à un algorithme d'apprentissage profond, pour qu'il reconnaisse les numéros de rue. Imaginez le temps qu'il aurait fallu avant : des dizaines de personnes, plusieurs années. C'est la même histoire en Chine. Baidu est, on peut dire, une sorte de Google chinois. Ce que vous voyez en haut à gauche, est une photo que j'ai chargée sur le système d'apprentissage profond de Baidu, et, dessous, vous voyez que le système a compris ce qui était sur la photo, et trouvé des images similaires. Les images similaires ont le même arrière-plan, la tête dans le même sens, certaines même avec la langue sortie. Ce n'est pas une recherche sur le texte d'une page web. Je n'ai chargé qu'une image. Les ordinateurs peuvent donc désormais vraiment comprendre ce qu'ils voient, et consulter une base de données de centaines de millions d'images en temps réel.
So what does it mean now that computers can see? Well, it's not just that computers can see. In fact, deep learning has done more than that. Complex, nuanced sentences like this one are now understandable with deep learning algorithms. As you can see here, this Stanford-based system showing the red dot at the top has figured out that this sentence is expressing negative sentiment. Deep learning now in fact is near human performance at understanding what sentences are about and what it is saying about those things. Also, deep learning has been used to read Chinese, again at about native Chinese speaker level. This algorithm developed out of Switzerland by people, none of whom speak or understand any Chinese. As I say, using deep learning is about the best system in the world for this, even compared to native human understanding.
Quelles conséquences, maintenant que les ordinateurs peuvent voir ? Les machines ne savent pas seulement voir. L'apprentissage profond va plus loin. Une phrase complexe et nuancée comme celle-ci, est maintenant compréhensible par ces algorithmes. Comme vous pouvez le voir, ce système de Stanford, avec le point rouge en haut, a compris que la phrase comportait un jugement négatif. L'apprentissage profond est désormais proche des performances humaines pour comprendre le sujet d'une phrase, et le jugement qui y est exprimé. Il a aussi été utilisé pour lire le chinois, à un niveau proche de celui d'un locuteur natif. Cet algorithme a été développé en Suisse par des personnes dont aucune ne parlait ni ne comprenait le chinois. Utiliser l'apprentissage profond constitue le meilleur système dans ce cas, même comparé à la compréhension humaine.
This is a system that we put together at my company which shows putting all this stuff together. These are pictures which have no text attached, and as I'm typing in here sentences, in real time it's understanding these pictures and figuring out what they're about and finding pictures that are similar to the text that I'm writing. So you can see, it's actually understanding my sentences and actually understanding these pictures. I know that you've seen something like this on Google, where you can type in things and it will show you pictures, but actually what it's doing is it's searching the webpage for the text. This is very different from actually understanding the images. This is something that computers have only been able to do for the first time in the last few months.
Il s'agit ici d'un système mis en place dans mon entreprise, qui regroupe tout ça. Ce sont des images qui ne sont pas liées à du texte, et, alors que j'écris ici des phrases, en temps réel, le système comprend les images, identifie leur sujet, et trouve des images correspondant au texte que j'écris. Il comprend véritablement mes phrases, et comprend véritablement ces images. Je sais que vous voyez ça sur Google, où l'on peut trouver des images en tapant un texte, mais ce n'est qu'une recherche dans le texte de la page web. C'est très différent de comprendre vraiment les images. C'est quelque chose que les ordinateurs n'ont pu faire pour la première fois que très récemment.
So we can see now that computers can not only see but they can also read, and, of course, we've shown that they can understand what they hear. Perhaps not surprising now that I'm going to tell you they can write. Here is some text that I generated using a deep learning algorithm yesterday. And here is some text that an algorithm out of Stanford generated. Each of these sentences was generated by a deep learning algorithm to describe each of those pictures. This algorithm before has never seen a man in a black shirt playing a guitar. It's seen a man before, it's seen black before, it's seen a guitar before, but it has independently generated this novel description of this picture. We're still not quite at human performance here, but we're close. In tests, humans prefer the computer-generated caption one out of four times. Now this system is now only two weeks old, so probably within the next year, the computer algorithm will be well past human performance at the rate things are going. So computers can also write.
Les ordinateurs peuvent donc non seulement voir, mais aussi lire, et, bien sûr, nous avons montré qu'ils peuvent comprendre ce qu'ils entendent. Pas très surprenant si je vous dis maintenant qu'ils peuvent écrire. A partir d'un algorithme d'apprentissage profond, j'ai généré ce texte hier. Ici, ce sont des textes générés par un algorithme de Stanford. Chacune de ces phrases a été générée par un algorithme d'apprentissage profond décrivant l'image au-dessus. Cet algorithme n'avait jamais vu un homme habillé en noir jouant de la guitare. Il avait vu déjà vu un homme, déjà vu du noir, déjà vu une guitare, mais a généré de manière autonome cette nouvelle description de cette photo. Nous n'atteignons pas encore les performances humaines, mais presque. Dans les tests réalisés, les personnes préfèrent la légende de l'ordinateur une fois sur quatre. Ce système n'a que deux semaines, et l'on peut supposer que d'ici un an, l'algorithme aurait surpassé les performances humaines - au rythme où ça va. Les ordinateurs peuvent donc aussi écrire.
So we put all this together and it leads to very exciting opportunities. For example, in medicine, a team in Boston announced that they had discovered dozens of new clinically relevant features of tumors which help doctors make a prognosis of a cancer. Very similarly, in Stanford, a group there announced that, looking at tissues under magnification, they've developed a machine learning-based system which in fact is better than human pathologists at predicting survival rates for cancer sufferers. In both of these cases, not only were the predictions more accurate, but they generated new insightful science. In the radiology case, they were new clinical indicators that humans can understand. In this pathology case, the computer system actually discovered that the cells around the cancer are as important as the cancer cells themselves in making a diagnosis. This is the opposite of what pathologists had been taught for decades. In each of those two cases, they were systems developed by a combination of medical experts and machine learning experts, but as of last year, we're now beyond that too. This is an example of identifying cancerous areas of human tissue under a microscope. The system being shown here can identify those areas more accurately, or about as accurately, as human pathologists, but was built entirely with deep learning using no medical expertise by people who have no background in the field. Similarly, here, this neuron segmentation. We can now segment neurons about as accurately as humans can, but this system was developed with deep learning using people with no previous background in medicine.
Si l'on rassemble tout ça, les perspectives deviennent prometteuses. Par exemple, en médecine, une équipe de Boston a annoncé qu'elle avait découvert des dizaines de nouveaux signes cliniques de tumeurs, qui aident les docteurs à diagnostiquer un cancer. De façon très proche, à Stanford, une équipe a annoncé qu'en observant des tissus au microscope, ils ont développé un système de machine apprenante qui est vraiment meilleur qu'un pathologiste pour prédire les taux de survie de personnes atteintes de cancer. Dans ces deux cas, non seulement les prévisions étaient meilleures, mais elles ont aussi permis des découvertes majeures. Dans l'exemple en radiologie, de nouveaux signes cliniques compréhensibles par l'homme. Dans l'exemple en pathologie, le système informatique a découvert que les cellules autour du cancer étaient aussi importantes que les cellules cancéreuses elles-mêmes pour porter un diagnostic, à rebours de ce qui a été enseigné aux pathologistes pendant des décennies. Dans ces deux cas, les systèmes ont été développés en associant experts médicaux et experts de l'apprentissage automatique, mais, depuis l'an dernier, un nouveau cap a été franchi. Il s'agit ici d'un exemple d'identification de zones cancéreuses d'un tissu humain au microscope. Ce système peut identifier ces zones avec plus de précisions, ou, du moins, avec autant de précision qu'un pathologiste, mais a été entièrement créé par l'apprentissage profond créé par des personnes n'ayant pas de formation médicale. De même, pour cette classification de neurones. On peut désormais classer les neurones avec autant de précisions qu'un humain, et ce système a été créé avec l'apprentissage profond, par des gens n'ayant pas de connaissance médicale antérieure.
So myself, as somebody with no previous background in medicine, I seem to be entirely well qualified to start a new medical company, which I did. I was kind of terrified of doing it, but the theory seemed to suggest that it ought to be possible to do very useful medicine using just these data analytic techniques. And thankfully, the feedback has been fantastic, not just from the media but from the medical community, who have been very supportive. The theory is that we can take the middle part of the medical process and turn that into data analysis as much as possible, leaving doctors to do what they're best at. I want to give you an example. It now takes us about 15 minutes to generate a new medical diagnostic test and I'll show you that in real time now, but I've compressed it down to three minutes by cutting some pieces out. Rather than showing you creating a medical diagnostic test, I'm going to show you a diagnostic test of car images, because that's something we can all understand.
Moi-même, sans connaissance médicale antérieure, je semble être pleinement qualifié pour créer une entreprise dans la santé - ce que j'ai fait. J'étais terrifié à cette idée, mais, la théorie suggérait qu'il devait être possible d'être utile dans ce secteur en ne maniant que ces moyens d'analyse de données. Et, heureusement, les retours ont été fabuleux, ceux des médias, mais aussi ceux du corps médical, qui a été d'un grand soutien. La théorie, c'est que l'on peut isoler la partie centrale du processus médical, pour procéder, autant que possible, à des analyses de données, et laisser les médecins se consacrer sur leurs forces. Je veux vous donner un exemple. Il nous faut désormais environ 15 minutes pour faire un nouveau diagnostic médical, et je vais vous le montrer en temps réel, même si je l'ai réduit à trois minutes en supprimant certaines parties. Plutôt que de vous montrer la création d'un diagnostic médical, je vais vous montrer un diagnostic d'images de voitures : c'est quelque chose que tout le monde comprend.
So here we're starting with about 1.5 million car images, and I want to create something that can split them into the angle of the photo that's being taken. So these images are entirely unlabeled, so I have to start from scratch. With our deep learning algorithm, it can automatically identify areas of structure in these images. So the nice thing is that the human and the computer can now work together. So the human, as you can see here, is telling the computer about areas of interest which it wants the computer then to try and use to improve its algorithm. Now, these deep learning systems actually are in 16,000-dimensional space, so you can see here the computer rotating this through that space, trying to find new areas of structure. And when it does so successfully, the human who is driving it can then point out the areas that are interesting. So here, the computer has successfully found areas, for example, angles. So as we go through this process, we're gradually telling the computer more and more about the kinds of structures we're looking for. You can imagine in a diagnostic test this would be a pathologist identifying areas of pathosis, for example, or a radiologist indicating potentially troublesome nodules. And sometimes it can be difficult for the algorithm. In this case, it got kind of confused. The fronts and the backs of the cars are all mixed up. So here we have to be a bit more careful, manually selecting these fronts as opposed to the backs, then telling the computer that this is a type of group that we're interested in.
Nous commençons avec environ 1,5 million d'images de voitures, et ce que je veux, c'est les organiser selon l'angle selon lequel la photo a été prise. Ces images ne sont pas cataloguées : je dois partir de zéro. Notre algorithme d'apprentissage profond permet d'identifier les structures dans ces images. L'être humain et l'ordinateur peuvent maintenant travailler ensemble. L'être humain, comme vous le voyez ici, indique à la machine les zones d'intérêt, celles à lesquelles il veut qu'elle s'intéresse pour améliorer son algorithme. Les systèmes d'apprentissage profond sont des espaces à 16 000 dimensions [sic], et vous pouvez voir ici l'ordinateur qui pivote au sein de cet espace, pour trouver de nouvelles structures. Quand il y arrive, l'être humain peut ensuite lui signaler les zones intéressantes. Ici, l'ordinateur a pu trouver une zone avec, par exemple, des angles. Au fur et à mesure, nous en disons de plus en plus à l'ordinateur sur le type de structures que l'on recherche. Imaginez un diagnostic médical, par exemple un pathologiste identifiant des zones malades, ou un radiologue montrant des nodules potentiellement inquiétants. Parfois, cela devient difficile pour l'algorithme. Ici, il s'est un peu emmêlé les pinceaux. L'avant et l'arrière des voitures sont mêlés. Nous devons faire un peu plus attention, et dissocier manuellement les avants des arrières, puis dire à l'ordinateur que cette classification nous importe.
So we do that for a while, we skip over a little bit, and then we train the machine learning algorithm based on these couple of hundred things, and we hope that it's gotten a lot better. You can see, it's now started to fade some of these pictures out, showing us that it already is recognizing how to understand some of these itself. We can then use this concept of similar images, and using similar images, you can now see, the computer at this point is able to entirely find just the fronts of cars. So at this point, the human can tell the computer, okay, yes, you've done a good job of that.
Nous continuons comme ça, et, un peu plus tard, nous allons former l'algorithme sur la base de ces classifications, et espérer qu'il s'est amélioré. Comme vous le voyez, il a commencé à estomper certaines photos, montrant qu'il sait déjà comment comprendre certaines d'entre elles. Nous pouvons ensuite utiliser ce concept d'images similaires, et, voir que, en s'en servant, l'ordinateur est désormais capable de trouver seulement les avants de voiture. A ce stade, l'être humain peut dire à l'ordinateur : «Ok, tu t'en es bien sorti. »
Sometimes, of course, even at this point it's still difficult to separate out groups. In this case, even after we let the computer try to rotate this for a while, we still find that the left sides and the right sides pictures are all mixed up together. So we can again give the computer some hints, and we say, okay, try and find a projection that separates out the left sides and the right sides as much as possible using this deep learning algorithm. And giving it that hint -- ah, okay, it's been successful. It's managed to find a way of thinking about these objects that's separated out these together.
Bien sûr, parfois, même à ce stade, il est encore difficile de faire des groupes. Ici, même après avoir laissé l'ordinateur pivoter pendant un moment, les photos de voitures vues de droite et celles vues de gauche sont encore toutes mêlées. Nous lui donnons de nouveau des indications, puis lui disons de chercher une projection qui fait le tri entre les photos de droite et de gauche - avec l'algorithme d'apprentissage profond. Avec ces indications, nous avons réussi. Il a trouvé une manière de considérer ces objets qui en permet le tri.
So you get the idea here. This is a case not where the human is being replaced by a computer, but where they're working together. What we're doing here is we're replacing something that used to take a team of five or six people about seven years and replacing it with something that takes 15 minutes for one person acting alone.
Vous avez saisi l'idée. Nous ne somme pas ici dans une substitution de l'homme par la machine, mais dans un travail conjoint. Ce que nous faisons, c'est prendre quelque chose qui mobilisait une équipe de cinq ou six personnes pendant sept ans et y substituer quelque chose qui prend 15 minutes à une seule personne. Cette méthode nécessite quatre ou cinq itérations,
So this process takes about four or five iterations. You can see we now have 62 percent of our 1.5 million images classified correctly. And at this point, we can start to quite quickly grab whole big sections, check through them to make sure that there's no mistakes. Where there are mistakes, we can let the computer know about them. And using this kind of process for each of the different groups, we are now up to an 80 percent success rate in classifying the 1.5 million images. And at this point, it's just a case of finding the small number that aren't classified correctly, and trying to understand why. And using that approach, by 15 minutes we get to 97 percent classification rates.
et nous avons maintenant 62% de nos 1,5 million d'images classifiées correctement. A ce stade, nous pouvons commencer à prendre des parties entières, et vérifier rapidement qu'il n'y a pas d'erreurs. Quand il y a des erreurs, nous en informons l'ordinateur, et, en utilisant cette méthode pour tous les groupes, nous en arrivons à un taux de réussite de 80% dans la classification de ces images. A partir de là, il s'agit juste de trouver le petit nombre d'images mal classées, et à essayer de comprendre pourquoi. Avec cette approche, en 15 minutes, nous parvenons à un taux de classification de 97%.
So this kind of technique could allow us to fix a major problem, which is that there's a lack of medical expertise in the world. The World Economic Forum says that there's between a 10x and a 20x shortage of physicians in the developing world, and it would take about 300 years to train enough people to fix that problem. So imagine if we can help enhance their efficiency using these deep learning approaches?
Ce type de méthode pourrait nous permettre de régler un problème majeur : le manque d'expertise médicale dans le monde. Le Forum économique mondial estime qu'il faudrait 10 à 20 fois plus de médecins dans les pays en voie de développement et qu'il faudrait 300 ans pour former suffisamment de personnes et régler ce problème. Imaginez alors que nous puissions accroître leur productivité avec ces méthodes d'apprentissage profond.
So I'm very excited about the opportunities. I'm also concerned about the problems. The problem here is that every area in blue on this map is somewhere where services are over 80 percent of employment. What are services? These are services. These are also the exact things that computers have just learned how to do. So 80 percent of the world's employment in the developed world is stuff that computers have just learned how to do. What does that mean? Well, it'll be fine. They'll be replaced by other jobs. For example, there will be more jobs for data scientists. Well, not really. It doesn't take data scientists very long to build these things. For example, these four algorithms were all built by the same guy. So if you think, oh, it's all happened before, we've seen the results in the past of when new things come along and they get replaced by new jobs, what are these new jobs going to be? It's very hard for us to estimate this, because human performance grows at this gradual rate, but we now have a system, deep learning, that we know actually grows in capability exponentially. And we're here. So currently, we see the things around us and we say, "Oh, computers are still pretty dumb." Right? But in five years' time, computers will be off this chart. So we need to be starting to think about this capability right now.
Les opportunités m'enchantent. Mais les dangers m’inquiètent. Le problème, c'est que dans tous les pays en bleu sur la carte, le secteur tertiaire représente plus de 80% de l'emploi. C'est quoi le secteur tertiaire ? C'est ça. Ce sont exactement ces choses que les ordinateurs viennent d'apprendre à faire. 80% des emplois dans les pays développés consiste en ce qu'une machine sait désormais faire. Qu'est-ce que cela veut dire ? Tout ira bien. D'autres emplois les remplaceront, par exemple, dans l'analyse de données. Pas vraiment. Ce n'est pas long pour un analyste de données de construire ça. Par exemple, ces quatre algorithmes sont tous de la même personne. Vous pensez peut-être que c'est du déjà-vu, que nous connaissons les conséquences de l'arrivée de nouvelles choses, de nouveaux emplois qui remplacent les anciens. Que seront ces nouveaux emplois ? C'est très dur à estimer : l'amélioration des performances humaines est graduelle, tandis que ce système, l'apprentissage profond, s'améliore de façon exponentielle. Et nous en sommes là. En regardant autour de nous, nous pensons : « Les machines sont toujours idiotes ». Pas vrai ? Mais d'ici cinq ans, elles seront bien plus haut dans la courbe. Nous devons commencer à penser dès maintenant à ces capacités futures.
We have seen this once before, of course. In the Industrial Revolution, we saw a step change in capability thanks to engines. The thing is, though, that after a while, things flattened out. There was social disruption, but once engines were used to generate power in all the situations, things really settled down. The Machine Learning Revolution is going to be very different from the Industrial Revolution, because the Machine Learning Revolution, it never settles down. The better computers get at intellectual activities, the more they can build better computers to be better at intellectual capabilities, so this is going to be a kind of change that the world has actually never experienced before, so your previous understanding of what's possible is different.
Ce n'est pas la première fois, bien sûr. Les machines de la Révolution Industrielle augmentèrent nos capacités. Mais, au bout d'un moment, les choses se calmèrent. Il y eut des troubles sociaux, mais une fois les machines utilisées pour la plupart des cas utiles, les choses s'apaisèrent. La Révolution des Machines Apprenantes sera très différente de la Révolution Industrielle, parce que dans son cas, les choses ne se calmeront pas. Plus les ordinateurs progressent dans les activités cérébrales, plus ils peuvent créer de meilleurs ordinateurs, et progresser encore. Nous sommes devant un type d'évolution que le monde n'a jamais expérimentée auparavant : notre compréhension antérieure des possibles n'est pas adaptée.
This is already impacting us. In the last 25 years, as capital productivity has increased, labor productivity has been flat, in fact even a little bit down.
Nous en subissons déjà les impacts. Ces 25 dernières années, alors que la productivité du capital augmentait, la productivité du travail restait stable, était même légèrement en baisse.
So I want us to start having this discussion now. I know that when I often tell people about this situation, people can be quite dismissive. Well, computers can't really think, they don't emote, they don't understand poetry, we don't really understand how they work. So what? Computers right now can do the things that humans spend most of their time being paid to do, so now's the time to start thinking about how we're going to adjust our social structures and economic structures to be aware of this new reality. Thank you. (Applause)
Je voudrais lancer ce débat dès maintenant. Je sais d'expérience que lorsque je parle de ça aux gens, ils peuvent être sceptiques. Les machines ne peuvent pas penser, elles n'ont pas d'émotions, ne comprennent pas la poésie. Nous ne comprenons pas comment elles fonctionnent. Et alors ? Elles peuvent dès maintenant faire ce pour quoi les hommes sont payés. C'est le moment de commencer à réfléchir à la façon d'ajuster nos structures sociales et économiques, d'être au fait de cette nouvelle réalité. Merci. (Applaudissements)