We are built out of very small stuff, and we are embedded in a very large cosmos, and the fact is that we are not very good at understanding reality at either of those scales, and that's because our brains haven't evolved to understand the world at that scale.
Nous sommes composés de toutes petites choses, et nous sommes intégrés dans un très grand cosmos, et le fait est que nous ne comprenons pas très bien la réalité à aucune de ces échelles et c'est parce que nos cerveaux n'ont pas évolué pour comprendre le monde à cette échelle.
Instead, we're trapped on this very thin slice of perception right in the middle. But it gets strange, because even at that slice of reality that we call home, we're not seeing most of the action that's going on. So take the colors of our world. This is light waves, electromagnetic radiation that bounces off objects and it hits specialized receptors in the back of our eyes. But we're not seeing all the waves out there. In fact, what we see is less than a 10 trillionth of what's out there. So you have radio waves and microwaves and X-rays and gamma rays passing through your body right now and you're completely unaware of it, because you don't come with the proper biological receptors for picking it up. There are thousands of cell phone conversations passing through you right now, and you're utterly blind to it.
Au lieu de cela, nous sommes réduits à une fente très fine de perception en plein milieu. Ce qui est bizarre est que même dans cette tranche de réalité, nous ne voyons pas la majorité de ce qu'il se passe. Considérez les couleurs de notre monde. Ce sont des vagues de lumières, des radiations électromagnétiques qui rebondissent sur les objets et frappent des récepteurs spécialisés à l'arrière de nos yeux. Mais nous ne voyons pas les vagues. En fait, ce que nous voyons représente moins d'un billionième de ce qu'il y a. Il y a des ondes radio et des micro-ondes et des rayons X et gamma qui traversent actuellement notre corps et vous l'ignorez totalement, car vous n'avez pas les récepteurs biologiques adéquats pour les percevoir. Il y a des milliers de conversations téléphoniques qui vous traversent en ce moment, et vous y êtes complètement aveugle.
Now, it's not that these things are inherently unseeable. Snakes include some infrared in their reality, and honeybees include ultraviolet in their view of the world, and of course we build machines in the dashboards of our cars to pick up on signals in the radio frequency range, and we built machines in hospitals to pick up on the X-ray range. But you can't sense any of those by yourself, at least not yet, because you don't come equipped with the proper sensors.
Ce n'est pas que les choses sont intrinsèquement invisibles. Les serpents incluent des infra-rouges dans leur réalité, et les abeilles incluent des ultraviolets dans leur vision du monde, et nous construisons des machines dans nos tableaux de bord de voiture qui captent des signaux de la gamme des ondes radio, et il y a dans les hôpitaux, des machines qui captent les rayons X. Mais vous ne pouvez pas les percevoir vous-mêmes, en tout cas pas encore, parce que vous n'êtes pas équipés des capteurs adéquats.
Now, what this means is that our experience of reality is constrained by our biology, and that goes against the common sense notion that our eyes and our ears and our fingertips are just picking up the objective reality that's out there. Instead, our brains are sampling just a little bit of the world.
Cela signifie que notre expérience de la réalité est limitée par notre biologie, et cela va contre l'idée reçue que nos yeux, nos oreilles, nos doigts perçoivent l'entière réalité objective qui nous entoure. Nos cerveaux font plutôt un échantillon d'un petit peu du monde.
Now, across the animal kingdom, different animals pick up on different parts of reality. So in the blind and deaf world of the tick, the important signals are temperature and butyric acid; in the world of the black ghost knifefish, its sensory world is lavishly colored by electrical fields; and for the echolocating bat, its reality is constructed out of air compression waves. That's the slice of their ecosystem that they can pick up on, and we have a word for this in science. It's called the umwelt, which is the German word for the surrounding world. Now, presumably, every animal assumes that its umwelt is the entire objective reality out there, because why would you ever stop to imagine that there's something beyond what we can sense. Instead, what we all do is we accept reality as it's presented to us.
Parmi le royaume animal, différents animaux perçoivent différents morceaux de la réalité. Dans le monde sourd et aveugle de la tique, les signaux importants sont la température et l'acide butyrique. Dans le monde des fantômes noires que sont les knifefish, le sens du monde est généreusement coloré par les champs électriques. Et pour les chauves-souris et l'écholocation, la réalité est construites par des vagues de compression de l'air. C'est la tranche d'écosystème qu'ils perçoivent, et, en science, nous avons un mot pour cela. C'est appelé « Umwelt », c'est le mot allemand pour « environnement ». Chaque animal suppose vraisemblablement que son Umwelt est l'entière réalité objective, car pourquoi vous arrêteriez-vous pour réfléchir à l'existence d'une chose au-delà de votre perception. Au lieu de celà, nous acceptons tous la réalité comme elle nous est présentée.
Let's do a consciousness-raiser on this. Imagine that you are a bloodhound dog. Your whole world is about smelling. You've got a long snout that has 200 million scent receptors in it, and you have wet nostrils that attract and trap scent molecules, and your nostrils even have slits so you can take big nosefuls of air. Everything is about smell for you. So one day, you stop in your tracks with a revelation. You look at your human owner and you think, "What is it like to have the pitiful, impoverished nose of a human? (Laughter) What is it like when you take a feeble little noseful of air? How can you not know that there's a cat 100 yards away, or that your neighbor was on this very spot six hours ago?" (Laughter)
Prenons conscience de cela. Imaginez que vous êtes un chien de Saint-Hubert. Votre monde est l'odorat. Vous avez un long museau qui possède 200 millions de récepteurs olfactifs, et vous avez des narines humides qui attirent, piègent les molécules olfactives et vos narines ont même des fentes pour pouvoir respirer profondément. Pour vous, tout dépend de l'odorat. Un jour, vous vous arrêtez en route avec une révélation. Vous regardez votre maître humain et vous pensez : « Quel sentiment cela fait-il d'avoir le pitoyable nez humain ? (Rires) Et de respirer par petites inspirations ? Comment peut-on ne pas savoir qu'il y a un chat à 100 mètres, ou que votre voisin était à cet endroit précis il y a six heures ? » (Rires)
So because we're humans, we've never experienced that world of smell, so we don't miss it, because we are firmly settled into our umwelt. But the question is, do we have to be stuck there? So as a neuroscientist, I'm interested in the way that technology might expand our umwelt, and how that's going to change the experience of being human.
Parce que nous sommes humains, nous ne faisons jamais l'expérience de ce monde d'odeurs, donc il ne nous manque pas, parce que nous sommes fermement ancrés dans notre Umwelt. Mais la question est : sommes-nous coincés là ? En tant que neuro-scientifique, je suis intéressé par la façon dont la technologie pourrait étendre notre Umwelt, et comment cela va changer l'expérience de l''être humain.
So we already know that we can marry our technology to our biology, because there are hundreds of thousands of people walking around with artificial hearing and artificial vision. So the way this works is, you take a microphone and you digitize the signal, and you put an electrode strip directly into the inner ear. Or, with the retinal implant, you take a camera and you digitize the signal, and then you plug an electrode grid directly into the optic nerve. And as recently as 15 years ago, there were a lot of scientists who thought these technologies wouldn't work. Why? It's because these technologies speak the language of Silicon Valley, and it's not exactly the same dialect as our natural biological sense organs. But the fact is that it works; the brain figures out how to use the signals just fine.
Nous savons déjà que nous pouvons lier notre technologie et notre biologie, parce qu'il y a des centaines de milliers de personnes autour de nous qui ont une audition ou une vision artificielle. Cela fonctionne ainsi : vous prenez un microphone et vous digitalisez le signal, et mettez une bande à électrodes directement dans l'oreille interne. Ou, avec l'implant rétinien, vous prenez une caméra et vous digitalisez le signal, et vous branchez une grille d'électrodes directement au nerf optique. Et il y a seulement quinze ans, beaucoup de scientifiques pensaient que ces technologies ne fonctionneraient pas. Pourquoi ? Parce que ces technologies parlent la langue de la Silicon Valley, qui n'est pas le même dialecte que celui des organes de nos sens biologiques. Mais le fait est que cela fonctionne. Le cerveau comprend parfaitement comment utiliser les signaux.
Now, how do we understand that? Well, here's the big secret: Your brain is not hearing or seeing any of this. Your brain is locked in a vault of silence and darkness inside your skull. All it ever sees are electrochemical signals that come in along different data cables, and this is all it has to work with, and nothing more. Now, amazingly, the brain is really good at taking in these signals and extracting patterns and assigning meaning, so that it takes this inner cosmos and puts together a story of this, your subjective world.
Comment comprendre cela ? Voici le secret : votre cerveau n'entend et ne voit rien. Votre cerveau est enfermé dans le silence et l'obscurité de votre crâne. Tout ce qu'il voit sont des signaux électrochimiques provenant de différents câbles de données, et il ne travaille qu'avec cela et rien de plus. De façon extraordinaire, le cerveau est très bon pour recueillir ces signaux, extraire les schémas et y donner un sens, ainsi il prend le cosmos interne et concocte une histoire : votre monde subjectif.
But here's the key point: Your brain doesn't know, and it doesn't care, where it gets the data from. Whatever information comes in, it just figures out what to do with it. And this is a very efficient kind of machine. It's essentially a general purpose computing device, and it just takes in everything and figures out what it's going to do with it, and that, I think, frees up Mother Nature to tinker around with different sorts of input channels.
Voici le point clé : votre cerveau ne sait pas, d'où viennent les données et cela ne lui importe pas. Quelle que soit l'information reçue, il comprend ce qu'il faut en faire. Et c'est un type de machine très efficace. C'est essentiellement un dispositif informatique généraliste, qui recueille toutes les informations et comprend ce qu'il doit en faire, et cela, je pense, libère Mère Nature de trafiquer avec différentes sortes de canaux d'entrée.
So I call this the P.H. model of evolution, and I don't want to get too technical here, but P.H. stands for Potato Head, and I use this name to emphasize that all these sensors that we know and love, like our eyes and our ears and our fingertips, these are merely peripheral plug-and-play devices: You stick them in, and you're good to go. The brain figures out what to do with the data that comes in. And when you look across the animal kingdom, you find lots of peripheral devices. So snakes have heat pits with which to detect infrared, and the ghost knifefish has electroreceptors, and the star-nosed mole has this appendage with 22 fingers on it with which it feels around and constructs a 3D model of the world, and many birds have magnetite so they can orient to the magnetic field of the planet. So what this means is that nature doesn't have to continually redesign the brain. Instead, with the principles of brain operation established, all nature has to worry about is designing new peripherals.
J'appelle cela le modèle d'évolution TPT, je ne veux pas être trop technique mais TPT signifie Tête de Pomme de Terre, et j'utilise ce nom pour souligner tous les capteurs que nous connaissons et aimons, comme nos yeux, nos oreilles et nos doigts, qui sont principalement des dispositifs périphériques qu'il suffit de brancher : vous les branchez et vous êtes paré. Le cerveau comprend ce qu'il faut faire avec les données qu'il reçoit. Et quand vous observez le règne animal, vous trouvez beaucoup de dispositifs périphériques. Les serpents ont des fossettes sensibles à la chaleur pour détecter les infrarouges et le knifefish fantôme a des électro-récepteurs et la musaraigne-souris fine a cet appendice avec 22 doigts lui permettant de sentir l'environnement et construire un modèle 3D du monde, de nombreux oiseaux ont de la magnétite afin de s'orienter par rapport au champ magnétique de la planète. Cela signifie que la nature ne doit pas continuellement reconcevoir le cerveau. Au lieu de cela, les principes d'opération du cerveau établis, la nature ne se soucie que de la conception de nouveaux périphériques.
Okay. So what this means is this: The lesson that surfaces is that there's nothing really special or fundamental about the biology that we come to the table with. It's just what we have inherited from a complex road of evolution. But it's not what we have to stick with, and our best proof of principle of this comes from what's called sensory substitution. And that refers to feeding information into the brain via unusual sensory channels, and the brain just figures out what to do with it.
Cela signifie que la leçon a en tirer est qu'il n'y a rien de vraiment spécial ou fondamental concernant notre biologie à la naissance. C'est simplement que nous avons hérité d'une route complexe d'évolution. Mais nous ne devons pas nous en contenter, et notre meilleure preuve de principe vient ce qui s'appelle la substitution des sens. Cela correspond à nourrir le cerveau d'informations via des canaux sensoriels inhabituels, et le cerveau détermine ce qu'il doit en faire.
Now, that might sound speculative, but the first paper demonstrating this was published in the journal Nature in 1969. So a scientist named Paul Bach-y-Rita put blind people in a modified dental chair, and he set up a video feed, and he put something in front of the camera, and then you would feel that poked into your back with a grid of solenoids. So if you wiggle a coffee cup in front of the camera, you're feeling that in your back, and amazingly, blind people got pretty good at being able to determine what was in front of the camera just by feeling it in the small of their back. Now, there have been many modern incarnations of this. The sonic glasses take a video feed right in front of you and turn that into a sonic landscape, so as things move around, and get closer and farther, it sounds like "Bzz, bzz, bzz." It sounds like a cacophony, but after several weeks, blind people start getting pretty good at understanding what's in front of them just based on what they're hearing. And it doesn't have to be through the ears: this system uses an electrotactile grid on the forehead, so whatever's in front of the video feed, you're feeling it on your forehead. Why the forehead? Because you're not using it for much else.
Cela peut sembler spéculatif, mais le premier article démontrant cela a été publié en 1969 dans le journal Nature. Un scientifique du nom de Paul Bach-y-Rita a mis des gens aveugles sur une chaise de dentiste modifiée, il a mis en place un flux vidéo, il a mis quelque chose en face de la caméra, et vous le sentiriez donner des petits coups dans votre dos avec une grille de solénoïde. Si vous remuez une tasse de café devant la caméra, vous le sentez dans votre dos, et, de façon extraordinaire, les gens aveugles étaient plutôt bons pour déterminer ce qu'il y avait devant la caméra juste en le sentant dans leur dos. Il y a eu beaucoup d'incarnations modernes de cela. Les lunettes soniques capturent un flux vidéo devant vous et le transforme en paysage acoustique, afin que lorsque les choses autour se rapprochent et s'éloignent cela fait un « Bzz, bzz, bzz ». Cela ressemble à une cacophonie mais après quelques semaines, les personnes aveugles commencent à bien comprendre ce qui est face à eux en se basant uniquement sur ce qu'ils entendent. Cela n'a pas à être via les oreilles : ce système utilise une grille électro-tactile placée sur le front afin que vous ressentiez sur votre front tout ce qu'il se passe face à vous. Pourquoi le front ? Parce que vous ne l'utilisez pas.
The most modern incarnation is called the brainport, and this is a little electrogrid that sits on your tongue, and the video feed gets turned into these little electrotactile signals, and blind people get so good at using this that they can throw a ball into a basket, or they can navigate complex obstacle courses. They can come to see through their tongue. Now, that sounds completely insane, right? But remember, all vision ever is is electrochemical signals coursing around in your brain. Your brain doesn't know where the signals come from. It just figures out what to do with them.
L'incarnation la plus moderne est la Brainport, c'est une petite grille d'électrodes placée sur votre langue et elle transforme le flux vidéo en petits signaux électro-tactiles. Les personnes aveugles l'utilisent si bien qu'ils peuvent marquer des paniers ou se diriger dans de complexes courses d'obstacles. Ils peuvent parvenir à voir avec leur langue. Cela semble totalement fou, n'est-ce pas ? Mais souvenez-vous que la vision n'est que des signaux électrochimiques se déplaçant dans votre cerveau. Votre cerveau ne sait pas d'où viennent les signaux, il détermine simplement ce qu'il doit en faire.
So my interest in my lab is sensory substitution for the deaf, and this is a project I've undertaken with a graduate student in my lab, Scott Novich, who is spearheading this for his thesis. And here is what we wanted to do: we wanted to make it so that sound from the world gets converted in some way so that a deaf person can understand what is being said. And we wanted to do this, given the power and ubiquity of portable computing, we wanted to make sure that this would run on cell phones and tablets, and also we wanted to make this a wearable, something that you could wear under your clothing. So here's the concept. So as I'm speaking, my sound is getting captured by the tablet, and then it's getting mapped onto a vest that's covered in vibratory motors, just like the motors in your cell phone. So as I'm speaking, the sound is getting translated to a pattern of vibration on the vest. Now, this is not just conceptual: this tablet is transmitting Bluetooth, and I'm wearing the vest right now. So as I'm speaking -- (Applause) -- the sound is getting translated into dynamic patterns of vibration. I'm feeling the sonic world around me.
Dans mon laboratoire c'est la substitution sensorielle pour les sourds qui m'intéresse et c'est un projet que j'ai entrepris avec un doctorant de mon laboratoire, Scott Novich, travaillant sur le sujet dans le cadre de sa thèse. Et voici ce que nous voulions faire : nous voulions que le bruit du monde soit converti, d'une façon ou d'une autre, afin qu'un sourd puisse comprendre ce qui est dit. Etant donnés le pouvoir et l'ubiquité des systèmes portables, nous voulions nous assurer que cela fonctionne sur les portables et tablettes, et aussi faire une technologie portable, quelque chose que vous pourriez porter sous vos vêtements. Voici le concept. Pendant que je parle, mon son est capturé par la tablette, il est modélisé sur un gilet couverte de moteurs vibrants, comme les moteurs dans vos portables. Pendant je parle, le son est traduit en un schéma de vibration sur le gilet. Ce n'est pas juste conceptuel : la tablette transmet en Bluetooth, et je porte actuellement la veste. Donc, pendant que je parle -- (Applaudissements) -- le son est traduit en schémas dynamiques de vibration. Je sens l'acoustique qui m'entoure.
So, we've been testing this with deaf people now, and it turns out that after just a little bit of time, people can start feeling, they can start understanding the language of the vest.
Nous l'avons testé avec des personnes sourdes et il s'avère qu'après un petit moment, les gens commencent à sentir, ils commencent à comprendre le langage du gilet.
So this is Jonathan. He's 37 years old. He has a master's degree. He was born profoundly deaf, which means that there's a part of his umwelt that's unavailable to him. So we had Jonathan train with the vest for four days, two hours a day, and here he is on the fifth day.
Voici Jonathan. Il a 37 ans. Il a un master. Il est né sourd, ce qui signifie qu'une partie de son Umwelt lui est inaccessible. Jonathan s'est entrainé avec le gilet pendant 4 jours, 2 heures pas jour, et le voici le 5ème jour.
Scott Novich: You.
Scott Novich : Toi.
David Eagleman: So Scott says a word, Jonathan feels it on the vest, and he writes it on the board.
David Eagleman : Scott dit un mot, Jonathan le sent sur la veste, et l'écrit sur le tableau.
SN: Where. Where.
SN : Où. Où.
DE: Jonathan is able to translate this complicated pattern of vibrations into an understanding of what's being said.
DE : Jonathan est capable de traduire ce schéma de vibrations compliqué en une compréhension de ce qui est dit.
SN: Touch. Touch.
SN : Touche. Touche.
DE: Now, he's not doing this -- (Applause) -- Jonathan is not doing this consciously, because the patterns are too complicated, but his brain is starting to unlock the pattern that allows it to figure out what the data mean, and our expectation is that, after wearing this for about three months, he will have a direct perceptual experience of hearing in the same way that when a blind person passes a finger over braille, the meaning comes directly off the page without any conscious intervention at all. Now, this technology has the potential to be a game-changer, because the only other solution for deafness is a cochlear implant, and that requires an invasive surgery. And this can be built for 40 times cheaper than a cochlear implant, which opens up this technology globally, even for the poorest countries.
DE : Il ne fait pas cela -- (Applaudissements) -- Jonathan ne le fait pas consciemment, parce que les schémas sont trop complexes, mais son cerveau commence à développer le modèle qui lui permet de comprendre ce que signifient les données. Nous espérons qu'après avoir porté cela pendant trois mois, il expérimentera une perception directe de l'audition de la même façon que lorsqu'un aveugle passe son doigt sur du braille, il en perçoit le sens immédiatement, sans aucune intervention consciente. Cette technologie a le potentiel de changer les règles du jeu, parce que la seule autre solution à la surdité est un implant cochléaire, et cela nécessite une chirurgie invasive. Et cela peut être fabriqué pour 40 fois moins cher qu'un implant cochléaire, rendant cette technologies accessible même aux pays les plus pauvres.
Now, we've been very encouraged by our results with sensory substitution, but what we've been thinking a lot about is sensory addition. How could we use a technology like this to add a completely new kind of sense, to expand the human umvelt? For example, could we feed real-time data from the Internet directly into somebody's brain, and can they develop a direct perceptual experience?
Nous sommes encouragés par nos résultats de la substitution sensorielle, mais nous avons beaucoup pensé à l'addition sensorielle. Comment pourrions-nous utiliser une telle technologie pour ajouter un sens complètement nouveau, pour étendre l'Umwelt humain ? Par exemple, pourrions-nous envoyer en temps réel des données d'internet directement dans le cerveau de quelqu'un, et peut-il développer une expérience perceptive directe ?
So here's an experiment we're doing in the lab. A subject is feeling a real-time streaming feed from the Net of data for five seconds. Then, two buttons appear, and he has to make a choice. He doesn't know what's going on. He makes a choice, and he gets feedback after one second. Now, here's the thing: The subject has no idea what all the patterns mean, but we're seeing if he gets better at figuring out which button to press. He doesn't know that what we're feeding is real-time data from the stock market, and he's making buy and sell decisions. (Laughter) And the feedback is telling him whether he did the right thing or not. And what we're seeing is, can we expand the human umvelt so that he comes to have, after several weeks, a direct perceptual experience of the economic movements of the planet. So we'll report on that later to see how well this goes. (Laughter)
Voici une expérience que nous faisons au laboratoire. Un sujet ressent un flux en temps réel de données d'internet durant 5 secondes. Puis, deux boutons apparaissent et il doit faire un choix. Il ne sait pas ce qu'il se passe. Il fait un choix et reçoit un retour une seconde après. Seulement voilà : le sujet ne connait pas la significations des motifs, mais nous observons s'il comprend mieux sur quel bouton appuyer. Il ne sait pas que nous envoyons des données en temps réel de la bourse, et il décide d'acheter et de vendre. (Rires) Et le retour lui dit si oui ou non il a fait le bon choix. Ce que nous observons si nous pouvons étendre l'Umwelt humain afin que, après plusieurs semaines, il parvienne à avoir une expérience perceptive directe des mouvements économiques de la planète. Nous vous dirons comment il s'en sort. (Rires)
Here's another thing we're doing: During the talks this morning, we've been automatically scraping Twitter for the TED2015 hashtag, and we've been doing an automated sentiment analysis, which means, are people using positive words or negative words or neutral? And while this has been going on, I have been feeling this, and so I am plugged in to the aggregate emotion of thousands of people in real time, and that's a new kind of human experience, because now I can know how everyone's doing and how much you're loving this. (Laughter) (Applause) It's a bigger experience than a human can normally have.
Une autre chose que nous faisons : durant les conférences de ce matin, nous avons surveillé Twitter et la hashtag TED2015, nous avons procédé à une analyse automatique de sentiment : est-ce que les gens utilisent des mots positifs, négatifs ou neutres ? Et pendant ce temps, je l'ai ressenti, donc je suis branché à un agrégat d'émotions de milliers de personne et ce en temps réel, et c'est un nouveau type d'expérience humaine, parce que je peux savoir comment vous allez et si vous appréciez ce que je dis. (Rires) (Applaudissements) C'est une expérience plus importante que celle vécue d'habitude par un humain.
We're also expanding the umvelt of pilots. So in this case, the vest is streaming nine different measures from this quadcopter, so pitch and yaw and roll and orientation and heading, and that improves this pilot's ability to fly it. It's essentially like he's extending his skin up there, far away.
Nous étendons aussi l'Umwelt des pilotes. Dans ce cas, la veste envoie neuf mesures différentes de ce quadrirotor, la hauteur et l'angle et l'orientation et la direction, et cela améliore la capacité du pilote à voler. C'est comme s'il étendait sa peau.
And that's just the beginning. What we're envisioning is taking a modern cockpit full of gauges and instead of trying to read the whole thing, you feel it. We live in a world of information now, and there is a difference between accessing big data and experiencing it.
Et ce n'est que le début. Nous prévoyons de prendre un cockpit moderne plein d'indicateurs et au lieu d'essayer de tout lire, vous le sentez. Nous vivons dans un monde d'informations, et il y a une différence entre accéder à de nombreuses données et les expérimenter.
So I think there's really no end to the possibilities on the horizon for human expansion. Just imagine an astronaut being able to feel the overall health of the International Space Station, or, for that matter, having you feel the invisible states of your own health, like your blood sugar and the state of your microbiome, or having 360-degree vision or seeing in infrared or ultraviolet.
Je pense qu'il n'y a pas de limite aux possibilités à l'horizon concernant l'expansion humaine. Imaginez un astronaute capable de ressentir la santé générale de la Station Spatiale Internationale, ou que vous ressentiez les éléments invisibles de votre propre santé, comme le taux de sucre dans le sang et l'état de votre microbiome, ou avoir une vision à 360° ou voir les infrarouges ou les ultraviolets.
So the key is this: As we move into the future, we're going to increasingly be able to choose our own peripheral devices. We no longer have to wait for Mother Nature's sensory gifts on her timescales, but instead, like any good parent, she's given us the tools that we need to go out and define our own trajectory. So the question now is, how do you want to go out and experience your universe?
La clé est : alors que nous allons vers le futur, nous allons augmenter notre capacité à choisir nos systèmes périphériques. Nous n'avons plus à entendre que Mère Nature nous offre des sens en temps venu, au lieu de cela, comme tout bon parent, elle nous a donné les outils nécessaires pour définir notre propre trajectoire. La question est : voulez-vous sortir et expérimenter votre univers ?
Thank you.
Merci.
(Applause)
(Applaudissements)
Chris Anderson: Can you feel it? DE: Yeah.
Chris Anderson : Vous le sentez ? DE : Ouais.
Actually, this was the first time I felt applause on the vest. It's nice. It's like a massage. (Laughter)
En fait, c'était la première fois que je sentais des applaudissements C'est sympa, comme un massage. (Rires)
CA: Twitter's going crazy. Twitter's going mad. So that stock market experiment. This could be the first experiment that secures its funding forevermore, right, if successful?
CA : Twitter devient fou. Twitter devient fou. Donc, cette expérience de la bourse. Cela pourrait être la première expérience sécurisant plus son financement si ça fonctionne, n'est-ce pas ?
DE: Well, that's right, I wouldn't have to write to NIH anymore.
DE : C'est vrai, je n'aurais plus à écrire au NIH.
CA: Well look, just to be skeptical for a minute, I mean, this is amazing, but isn't most of the evidence so far that sensory substitution works, not necessarily that sensory addition works? I mean, isn't it possible that the blind person can see through their tongue because the visual cortex is still there, ready to process, and that that is needed as part of it?
CA : Juste pour être sceptique un instant, je veux dire, c'est génial mais la majorité des éléments jusqu'ici n'indique-t-elle pas que la substitution sensorielle fonctionne mais pas forcément l'addition ? N'est-il pas possible qu'un aveugle puisse voir par sa langue parce que le cortex visuel est toujours là prêt à travailler, et que c'est de cela dont nous avons besoin ?
DE: That's a great question. We actually have no idea what the theoretical limits are of what kind of data the brain can take in. The general story, though, is that it's extraordinarily flexible. So when a person goes blind, what we used to call their visual cortex gets taken over by other things, by touch, by hearing, by vocabulary. So what that tells us is that the cortex is kind of a one-trick pony. It just runs certain kinds of computations on things. And when we look around at things like braille, for example, people are getting information through bumps on their fingers. So I don't think we have any reason to think there's a theoretical limit that we know the edge of.
DE : C'est une excellente question. Nous ne savons pas quelles sont les limites théoriques sur les données que le cerveau peut utiliser. L'information générale est qu'il est extraordinairement flexible. Donc quand quelqu'un devient aveugle, ce que nous appelions leur cortex visuel est repris par d'autres choses : le toucher, l'audition, le vocabulaire. Cela nous dit que le cortex a plus d'un tour dans son sac. Il lance simplement des calculs sur les choses. Et quand nous regardons autour de nous, par exemple le braille, les gens obtiennent des informations par leurs doigts sur des bosses. Je ne pense pas que nous ayons une raison de penser qu'il y a une limite théorique.
CA: If this checks out, you're going to be deluged. There are so many possible applications for this. Are you ready for this? What are you most excited about, the direction it might go? DE: I mean, I think there's a lot of applications here. In terms of beyond sensory substitution, the things I started mentioning about astronauts on the space station, they spend a lot of their time monitoring things, and they could instead just get what's going on, because what this is really good for is multidimensional data. The key is this: Our visual systems are good at detecting blobs and edges, but they're really bad at what our world has become, which is screens with lots and lots of data. We have to crawl that with our attentional systems. So this is a way of just feeling the state of something, just like the way you know the state of your body as you're standing around. So I think heavy machinery, safety, feeling the state of a factory, of your equipment, that's one place it'll go right away.
CA : Si cela s'avère vrai, vous allez être submergé. Il y a tellement d'applications possibles pour cela. Êtes-vous prêt ? Qu'es-ce qui vous excite le plus, dans quelle direction cela ira ? DE : Je pense qu'il y a beaucoup d'applications. Pour aller au-delà de la substitution sensorielle, j'ai évoqué les astronautes et la station spatiale, ils passent beaucoup de temps à faire des contrôles, ils pourraient sentir ce qu'il se passe, parce que cela fonctionne très bien pour les données multidimensionnelles. La clé est : nos systèmes visuels sont bons pour détecter les bosses et bords, mais sont très mauvais concernant notre monde actuel, qui est fait d'écrans et de beaucoup de données. Nous devons compenser cela avec notre vigilance. C'est un moyen de ressentir l'état de quelque chose, tout comme vous connaissez l'état de votre corps quand vous êtes debout. Je pense que la machinerie lourde, la sécurité, sentir l'état d'une usine, de votre équipement, on se dirige vers cela.
CA: David Eagleman, that was one mind-blowing talk. Thank you very much.
CA : David Eagleman, c'était une conférence incroyable. Merci beaucoup.
DE: Thank you, Chris. (Applause)
DE : Merci Chris. (Applaudissements)