We are built out of very small stuff, and we are embedded in a very large cosmos, and the fact is that we are not very good at understanding reality at either of those scales, and that's because our brains haven't evolved to understand the world at that scale.
Wij bestaan uit hele kleine bouwstenen en we zijn deel van een heel grote kosmos. En het valt ons moeilijk om de realiteit te bevatten op elk van beide schalen. Dat komt omdat ons brein niet is geëvolueerd om de wereld op die schaal te begrijpen.
Instead, we're trapped on this very thin slice of perception right in the middle. But it gets strange, because even at that slice of reality that we call home, we're not seeing most of the action that's going on. So take the colors of our world. This is light waves, electromagnetic radiation that bounces off objects and it hits specialized receptors in the back of our eyes. But we're not seeing all the waves out there. In fact, what we see is less than a 10 trillionth of what's out there. So you have radio waves and microwaves and X-rays and gamma rays passing through your body right now and you're completely unaware of it, because you don't come with the proper biological receptors for picking it up. There are thousands of cell phone conversations passing through you right now, and you're utterly blind to it.
Wij zitten vast aan een heel dun laagje perceptie, pal in het midden. Maar het wordt bizar, want zelfs in ons eigen dunne laagje perceptie zien we de meeste dingen niet die er gebeuren. Neem de kleuren van onze wereld. Dat zijn lichtgolven, elektromagnetische straling die weerkaatst wordt door dingen en gespecialiseerde receptoren raakt achter in onze ogen. Maar we zien niet alle golven. Wat wij zien, is minder dan een tiende van een triljoenste van wat er is. Er zijn radiogolven en microgolven en X-stralen en gammastralen die nu door je lichaam gaan, en waar je je niet van bewust bent, omdat je niet de nodige biologische receptoren hebt om ze op te pikken. Duizenden mobiele telefoongesprekken gaan op dit moment door je heen, en je merkt er niets van.
Now, it's not that these things are inherently unseeable. Snakes include some infrared in their reality, and honeybees include ultraviolet in their view of the world, and of course we build machines in the dashboards of our cars to pick up on signals in the radio frequency range, and we built machines in hospitals to pick up on the X-ray range. But you can't sense any of those by yourself, at least not yet, because you don't come equipped with the proper sensors.
Het is niet dat deze dingen inherent onzichtbaar zijn. Voor slangen maakt infrarood deel uit van hun realiteit, en voor honingbijen is ultraviolet deel van hun wereldbeeld. Wij bouwen machines in in het dashboard van onze auto's om radiosignalen op te pikken. We bouwen machines in ziekenhuizen om X-stralen op te pikken. Maar je kan die niet zelf aanvoelen, tenminste, nog niet, omdat je niet de juiste sensoren hebt.
Now, what this means is that our experience of reality is constrained by our biology, and that goes against the common sense notion that our eyes and our ears and our fingertips are just picking up the objective reality that's out there. Instead, our brains are sampling just a little bit of the world.
Dat betekent dat onze ervaring van de realiteit beperkt is door onze biologie. Dat gaat in tegen de algemeen aanvaarde stelling dat onze ogen en oren en vingertoppen gewoon de objectieve realiteit oppikken. In werkelijkheid neemt ons brein staaltjes van een deeltje van de wereld.
Now, across the animal kingdom, different animals pick up on different parts of reality. So in the blind and deaf world of the tick, the important signals are temperature and butyric acid; in the world of the black ghost knifefish, its sensory world is lavishly colored by electrical fields; and for the echolocating bat, its reality is constructed out of air compression waves. That's the slice of their ecosystem that they can pick up on, and we have a word for this in science. It's called the umwelt, which is the German word for the surrounding world. Now, presumably, every animal assumes that its umwelt is the entire objective reality out there, because why would you ever stop to imagine that there's something beyond what we can sense. Instead, what we all do is we accept reality as it's presented to us.
In het hele dierenrijk pikt elk dier een ander deel van de realiteit op. In de blinde en dove wereld van de teek zijn de belangrijke signalen temperatuur en boterzuur. Voor de straalvinnige vissen wordt de zintuiglijke wereld rijkelijk gekleurd door elektrische velden. Voor de vleermuis, met haar echolocatie, bestaat de werkelijkheid uit luchtdrukgolven. Dat is het sneetje uit hun ecosysteem dat zij kunnen oppikken. Wetenschappers noemen dat de Umwelt, Duits voor 'de wereld rondom'. We gaan ervan uit dat elk dier denkt dat zijn Umwelt de hele realiteit uitmaakt die er bestaat, want waarom zou je je zelfs maar afvragen of er iets is dat verder gaat dan wat we ervaren? We aanvaarden daarom allemaal de werkelijkheid zoals ze zich aan ons voordoet.
Let's do a consciousness-raiser on this. Imagine that you are a bloodhound dog. Your whole world is about smelling. You've got a long snout that has 200 million scent receptors in it, and you have wet nostrils that attract and trap scent molecules, and your nostrils even have slits so you can take big nosefuls of air. Everything is about smell for you. So one day, you stop in your tracks with a revelation. You look at your human owner and you think, "What is it like to have the pitiful, impoverished nose of a human? (Laughter) What is it like when you take a feeble little noseful of air? How can you not know that there's a cat 100 yards away, or that your neighbor was on this very spot six hours ago?" (Laughter)
Laten we ons bewustzijn even aanscherpen. Stel je voor dat je een bloedhond bent. Je hele wereld draait om geurzin. Je hebt een lange snuit met 200 miljoen geurreceptoren, je hebt natte neusgaten die geurmoleculen aantrekken en vasthouden, met openingen erin, zodat je je neus vol lucht kan zuigen. Voor jou draait alles om geur. Op een dag krijg je een openbaring. Je kijkt naar je menselijke baasje en je denkt: "Wat zou het zijn om de armzalige neus van een mens te hebben? (Gelach) Hoe is het om een belabberd neusje vol lucht te tanken? Hoe is het mogelijk dat je niet weet dat 100 meter verder een kat zit, of dat je buur zes uur geleden exact op deze plek zat?" (Gelach)
So because we're humans, we've never experienced that world of smell, so we don't miss it, because we are firmly settled into our umwelt. But the question is, do we have to be stuck there? So as a neuroscientist, I'm interested in the way that technology might expand our umwelt, and how that's going to change the experience of being human.
Omdat wij mensen zijn, hebben we die geurwereld nooit ervaren, en dus nooit gemist, omdat wij stevig verankerd zitten in onze Umwelt. Maar de vraag is: moeten we daaraan blijven vastzitten? Als neurowetenschapper heb ik interesse voor hoe technologie onze Umwelt kan uitbreiden en onze menselijke ervaring kan veranderen.
So we already know that we can marry our technology to our biology, because there are hundreds of thousands of people walking around with artificial hearing and artificial vision. So the way this works is, you take a microphone and you digitize the signal, and you put an electrode strip directly into the inner ear. Or, with the retinal implant, you take a camera and you digitize the signal, and then you plug an electrode grid directly into the optic nerve. And as recently as 15 years ago, there were a lot of scientists who thought these technologies wouldn't work. Why? It's because these technologies speak the language of Silicon Valley, and it's not exactly the same dialect as our natural biological sense organs. But the fact is that it works; the brain figures out how to use the signals just fine.
We weten al dat we onze technologie aan onze biologie kunnen koppelen. Honderdduizenden mensen lopen rond met een kunstoor of een kunstoog. Dat werkt zo: je neemt een microfoon, je digitaliseert het signaal, je neemt een elektrodenstrip en plaatst die in het binnenoor. Bij een kunstmatig netvlies neem je een camera, je digitaliseert het signaal en je plaatst elektroden in de optische zenuw. Nog maar 15 jaar geleden dachten vele wetenschappers dat deze technologieën zouden falen. Waarom? Omdat ze de taal spreken van Silicon Valley, wat niet hetzelfde dialect is als onze biologische zintuiglijke organen. Maar feit is dat het werkt: het brein slaagt erin uit te vissen hoe het de signalen moet gebruiken.
Now, how do we understand that? Well, here's the big secret: Your brain is not hearing or seeing any of this. Your brain is locked in a vault of silence and darkness inside your skull. All it ever sees are electrochemical signals that come in along different data cables, and this is all it has to work with, and nothing more. Now, amazingly, the brain is really good at taking in these signals and extracting patterns and assigning meaning, so that it takes this inner cosmos and puts together a story of this, your subjective world.
Hoe begrijpen we dat? Nu komt het grote geheim: je brein hoort of ziet niets van dit alles. Je brein is opgesloten in een kluis van stilte en duisternis in je schedel. Het ziet alleen elektrochemische signalen die binnenkomen langs verschillende datakabels. Daar moet het mee aan de slag, meer is er niet. Het verbazende is dat het brein een kei is in het opvangen van die signalen, het distilleren van patronen, het toekennen van betekenis. Met deze innerlijke kosmos maakt het een verhaal over jouw subjectieve wereld.
But here's the key point: Your brain doesn't know, and it doesn't care, where it gets the data from. Whatever information comes in, it just figures out what to do with it. And this is a very efficient kind of machine. It's essentially a general purpose computing device, and it just takes in everything and figures out what it's going to do with it, and that, I think, frees up Mother Nature to tinker around with different sorts of input channels.
Maar het cruciale punt is: je brein weet niet, en wil niet weten waar de data vandaan komen. Wat er ook aan informatie binnenkomt, het vist uit wat het ermee moet doen. Dat is een heel efficiënt type machine. Het is een computer voor algemene toepassingen. Het pikt alles op en vist uit wat het ermee gaat doen. Daardoor krijgt Moeder Natuur tijd vrij om te knutselen met verschillende soorten invoerkanalen.
So I call this the P.H. model of evolution, and I don't want to get too technical here, but P.H. stands for Potato Head, and I use this name to emphasize that all these sensors that we know and love, like our eyes and our ears and our fingertips, these are merely peripheral plug-and-play devices: You stick them in, and you're good to go. The brain figures out what to do with the data that comes in. And when you look across the animal kingdom, you find lots of peripheral devices. So snakes have heat pits with which to detect infrared, and the ghost knifefish has electroreceptors, and the star-nosed mole has this appendage with 22 fingers on it with which it feels around and constructs a 3D model of the world, and many birds have magnetite so they can orient to the magnetic field of the planet. So what this means is that nature doesn't have to continually redesign the brain. Instead, with the principles of brain operation established, all nature has to worry about is designing new peripherals.
Ik noem dit het AH-evololutiemodel. Ik wil niet te technisch worden, maar AH staat voor Aardappelhoofd. Ik gebruik deze naam om te beklemtonen dat al die sensors die we kennen en waarderen, onze ogen, onze oren en onze vingertoppen, gewoon randapparatuur zijn: je koppelt ze aan, en klaar is kees. Het brein zoekt uit wat het moet doen met de gegevens die binnenkomen. Als je gaat kijken in het dierenrijk zie je veel randapparatuur. Slangen hebben hitteholtes om infrarood te detecteren. Straalvinnige vissen hebben elektroreceptoren en de sterneusmol heeft een aanhangsel met 22 vingers om te voelen en een 3D-model van de wereld te construeren. Vele vogels hebben magnetiet om zich te oriënteren op het magnetische veld van de planeet. Dit wil zeggen dat de natuur niet permanent het brein opnieuw moet ontwerpen. Omdat de werkingsprincipes van het brein op punt staan, moet de natuur alleen maar nieuwe randapparatuur ontwerpen.
Okay. So what this means is this: The lesson that surfaces is that there's nothing really special or fundamental about the biology that we come to the table with. It's just what we have inherited from a complex road of evolution. But it's not what we have to stick with, and our best proof of principle of this comes from what's called sensory substitution. And that refers to feeding information into the brain via unusual sensory channels, and the brain just figures out what to do with it.
Dat betekent het volgende. De les die zich aftekent, is dat er niets speciaals of fundamenteels is aan de biologie waarmee we aan de aftrap verschijnen. Dat is gewoon wat we overhouden aan een complex evolutionair pad. Maar daar hoeven we het niet bij te houden. Het beste bewijs daarvan komt uit wat we zintuiglijke vervanging noemen. Dat is het voeden van het brein met informatie uit ongewone zintuiglijke kanalen, waarbij het brein gewoon uitzoekt wat het ermee moet doen.
Now, that might sound speculative, but the first paper demonstrating this was published in the journal Nature in 1969. So a scientist named Paul Bach-y-Rita put blind people in a modified dental chair, and he set up a video feed, and he put something in front of the camera, and then you would feel that poked into your back with a grid of solenoids. So if you wiggle a coffee cup in front of the camera, you're feeling that in your back, and amazingly, blind people got pretty good at being able to determine what was in front of the camera just by feeling it in the small of their back. Now, there have been many modern incarnations of this. The sonic glasses take a video feed right in front of you and turn that into a sonic landscape, so as things move around, and get closer and farther, it sounds like "Bzz, bzz, bzz." It sounds like a cacophony, but after several weeks, blind people start getting pretty good at understanding what's in front of them just based on what they're hearing. And it doesn't have to be through the ears: this system uses an electrotactile grid on the forehead, so whatever's in front of the video feed, you're feeling it on your forehead. Why the forehead? Because you're not using it for much else.
Dat kan speculatief klinken, maar de eerste studie die dit bewees werd gepubliceerd in Nature in 1969. Een wetenschapper genaamd Paul Bach-y-Rita zette blinde mensen in een aangepaste tandartsenstoel met een video-invoer. Hij zette iets voor de camera, en dat voelde je in je rug prikken via een raster van solenoïden. Als je een kop koffie voor de camera laat bewegen, voel je dat in je rug, en verbazend genoeg werden blinden er erg goed in om te bepalen wat er voor de camera stond, puur op basis van wat ze voelden in hun onderrug. Er zijn vele moderne incarnaties van dit fenomeen. De sonische bril maakt een videobeeld van wat voor je is en vormt dat om in een landschap van geluiden. Dingen die naar je toe komen of van je weg gaan, klinken als 'Bzzz, bzzz, bzz'. Het klinkt als een kakofonie. Maar na enkele weken worden blinde mensen echt goed in begrijpen wat er voor hen staat, op basis van wat ze horen. Het hoeft ook niet via de oren: dit systeem werkt met een elektrotactiel raster op het voorhoofd. Wat voor de video-invoer staat, voel je op je voorhoofd. Waarom het voorhoofd? Omdat je het nergens anders voor gebruikt.
The most modern incarnation is called the brainport, and this is a little electrogrid that sits on your tongue, and the video feed gets turned into these little electrotactile signals, and blind people get so good at using this that they can throw a ball into a basket, or they can navigate complex obstacle courses. They can come to see through their tongue. Now, that sounds completely insane, right? But remember, all vision ever is is electrochemical signals coursing around in your brain. Your brain doesn't know where the signals come from. It just figures out what to do with them.
De modernste incarnatie is de 'brainport', een klein elektroraster dat op je tong ligt. Het videosignaal wordt omgezet in kleine elektrotactiele signalen. Blinde mensen worden er zo goed in dat ze een bal in een mand kunnen gooien of complexe hindernissenlopen kunnen afleggen. Ze kunnen zien met hun tong. Dat klinkt gewoon gestoord, niet? Maar vergeet niet dat het zicht niet meer is dan elektrochemische signalen die rondstruinen in je brein. Je brein weet niet waar ze vandaan komen. Het zoekt gewoon uit wat het ermee moet doen.
So my interest in my lab is sensory substitution for the deaf, and this is a project I've undertaken with a graduate student in my lab, Scott Novich, who is spearheading this for his thesis. And here is what we wanted to do: we wanted to make it so that sound from the world gets converted in some way so that a deaf person can understand what is being said. And we wanted to do this, given the power and ubiquity of portable computing, we wanted to make sure that this would run on cell phones and tablets, and also we wanted to make this a wearable, something that you could wear under your clothing. So here's the concept. So as I'm speaking, my sound is getting captured by the tablet, and then it's getting mapped onto a vest that's covered in vibratory motors, just like the motors in your cell phone. So as I'm speaking, the sound is getting translated to a pattern of vibration on the vest. Now, this is not just conceptual: this tablet is transmitting Bluetooth, and I'm wearing the vest right now. So as I'm speaking -- (Applause) -- the sound is getting translated into dynamic patterns of vibration. I'm feeling the sonic world around me.
In mijn lab onderzoek ik zintuigelijke vervanging voor doven. Ik heb dit project opgezet met een van mijn studenten, Scott Novich, die hierin het voortouw neemt voor zijn thesis. Dit was ons plan: we wilden ervoor zorgen dat geluid uit de wereld wordt omgezet zodat een dove persoon kan begrijpen wat er wordt gezegd. Gegeven de alomtegenwoordigheid van draagbare computers, wilden we ervoor zorgen dat dit werkte op een mobieltje en een tablet. We wilden het ook draagbaar maken, iets dat je onder je kleren kon dragen. Dit is het concept. Terwijl ik spreek, wordt mijn geluid opgenomen door de tablet. Het wordt weergegeven op een vest vol vibrerende motoren, net als de motoren in je mobieltje. Terwijl ik spreek, wordt het geluid vertaald in een patroon van vibratie op het vest. Dit is niet zomaar conceptueel. Deze tablet zendt Bluetooth uit, en ik draag het vest nu. Terwijl ik spreek -- (Applaus) -- wordt het geluid vertaald in een dynamisch patroon van trillingen. Ik voel de geluidswereld om me heen.
So, we've been testing this with deaf people now, and it turns out that after just a little bit of time, people can start feeling, they can start understanding the language of the vest.
We hebben dit getest met dove mensen en het blijkt dat na korte tijd mensen in staat zijn te voelen en te begrijpen wat het vest zegt.
So this is Jonathan. He's 37 years old. He has a master's degree. He was born profoundly deaf, which means that there's a part of his umwelt that's unavailable to him. So we had Jonathan train with the vest for four days, two hours a day, and here he is on the fifth day.
Dit is Jonathan. Hij is 37. Hij heeft een universitair diploma. Hij is volkomen doof geboren. Dat wil zeggen dat een deel van zijn Umwelt ontoegankelijk is. We trainden Jonathan 4 dagen lang met het vest, 2 uur per dag. Hier is hij op de vijfde dag.
Scott Novich: You.
S. Novich: Jij.
David Eagleman: So Scott says a word, Jonathan feels it on the vest, and he writes it on the board.
D. Eagleman: Dus Scott zegt een woord, dat Jonathan voelt op het vest en op het bord schrijft.
SN: Where. Where.
SN: Waar. Waar.
DE: Jonathan is able to translate this complicated pattern of vibrations into an understanding of what's being said.
DE: Jonathan is instaat om dit ingewikkelde patroon van vibraties te vertalen in een begrip van wat gezegd wordt.
SN: Touch. Touch.
SN: Aanraken. Aanraken.
DE: Now, he's not doing this -- (Applause) -- Jonathan is not doing this consciously, because the patterns are too complicated, but his brain is starting to unlock the pattern that allows it to figure out what the data mean, and our expectation is that, after wearing this for about three months, he will have a direct perceptual experience of hearing in the same way that when a blind person passes a finger over braille, the meaning comes directly off the page without any conscious intervention at all. Now, this technology has the potential to be a game-changer, because the only other solution for deafness is a cochlear implant, and that requires an invasive surgery. And this can be built for 40 times cheaper than a cochlear implant, which opens up this technology globally, even for the poorest countries.
DE: Hij doet dit niet -- (Applaus) -- Jonathan doet dit niet bewust want de patronen zijn te ingewikkeld, maar zijn brein begint het patroon te ontsluiten waardoor het kan uitvissen wat de gegevens betekenen. Onze verwachting is dat hij na drie maanden met dit vest een rechtstreekse zintuiglijke ervaring van horen zal hebben, net zoals wanneer een blinde persoon een vinger over braille laat glijden, de betekenis rechtstreeks zonder een bewuste interventie van de pagina komt. Deze technologie kan een revolutie betekenen, want de enige andere oplossing voor doofheid is een cochleair implantaat dat een diepgaande ingreep vereist. Dit kan gebouwd worden voor 40 keer minder geld dan een implantaat, waardoor de technologie wereldwijd toegankelijk wordt voor de armste landen.
Now, we've been very encouraged by our results with sensory substitution, but what we've been thinking a lot about is sensory addition. How could we use a technology like this to add a completely new kind of sense, to expand the human umvelt? For example, could we feed real-time data from the Internet directly into somebody's brain, and can they develop a direct perceptual experience?
De resultaten van zintuiglijke vervanging zijn zeer bemoedigend, maar we denken vooral aan zintuiglijke toevoeging. Hoe kunnen met dit soort technologie een nieuw zintuig toevoegen, de menselijke Umwelt uitbreiden? Zouden we real-time gegevens van het internet rechtstreeks in iemands brein kunnen laden en hen een rechtstreekse zintuiglijke ervaring geven?
So here's an experiment we're doing in the lab. A subject is feeling a real-time streaming feed from the Net of data for five seconds. Then, two buttons appear, and he has to make a choice. He doesn't know what's going on. He makes a choice, and he gets feedback after one second. Now, here's the thing: The subject has no idea what all the patterns mean, but we're seeing if he gets better at figuring out which button to press. He doesn't know that what we're feeding is real-time data from the stock market, and he's making buy and sell decisions. (Laughter) And the feedback is telling him whether he did the right thing or not. And what we're seeing is, can we expand the human umvelt so that he comes to have, after several weeks, a direct perceptual experience of the economic movements of the planet. So we'll report on that later to see how well this goes. (Laughter)
Dit is een experiment uit ons lab. Een proefpersoon voelt real-time een gegevensfeed van het internet, 5 seconden lang. Twee knoppen verschijnen en hij moet een keuze maken. Hij weet niet wat er gaande is. Hij maakt een keuze, en krijgt een seconde later feedback. Het punt is: de proefpersoon heeft geen idee wat de patronen betekenen, maar we zien dat hij beter wordt in uitvissen op welke knop hij moet drukken. Hij weet niet dat wat we doorgeven, real-time beursgegevens zijn, en dat hij beslist tot aan- en verkoop. (Gelach) De feedback zegt hem of hij gelijk had of niet. We zien dat -- kunnen we de menselijke Umwelt uitbreiden zodat hij na enkele weken rechtstreekse zintuiglijke ervaring krijgt van de globale economische bewegingen? We zullen later laten weten hoe goed dit afloopt. (Gelach)
Here's another thing we're doing: During the talks this morning, we've been automatically scraping Twitter for the TED2015 hashtag, and we've been doing an automated sentiment analysis, which means, are people using positive words or negative words or neutral? And while this has been going on, I have been feeling this, and so I am plugged in to the aggregate emotion of thousands of people in real time, and that's a new kind of human experience, because now I can know how everyone's doing and how much you're loving this. (Laughter) (Applause) It's a bigger experience than a human can normally have.
Dit doen we ook: tijdens de talks vanmorgen hebben we Twitter automatisch afgeschuimd op basis van de TED2015-hashtag. We hebben een automatische gemoedsanalyse gedaan. Dat wil zeggen: gebruikt men positieve, negatieve of neutrale woorden? Terwijl dit aan de gang was, voelde ik dit, en ik ben nu dus ingeplugd op de verzamelde emotie van duizenden mensen, real-time. Dat is een nieuw soort menselijke ervaring want nu kan ik weten hoe het met iedereen gaat en hoe leuk je dit vindt. (Gelach) (Applaus) Het is een grotere ervaring dan een mens normaal kan hebben.
We're also expanding the umvelt of pilots. So in this case, the vest is streaming nine different measures from this quadcopter, so pitch and yaw and roll and orientation and heading, and that improves this pilot's ability to fly it. It's essentially like he's extending his skin up there, far away.
We breiden ook de Umwelt van piloten uit. In dit geval streamt het vest negen verschillende meetpunten van deze quadcopter, hoogte, gieren, rollen, oriëntatie en richting, waardoor deze piloot het beter kan besturen. Het is alsof hij zijn huid uitbreidt naar boven, ver weg.
And that's just the beginning. What we're envisioning is taking a modern cockpit full of gauges and instead of trying to read the whole thing, you feel it. We live in a world of information now, and there is a difference between accessing big data and experiencing it.
Het is nog maar het begin. We hebben een moderne cockpit voor ogen, vol meetapparatuur, waarbij je de hele boel niet leest, maar voelt. We leven in een informatiewereld. Er is een verschil tussen toegang krijgen tot 'big data' en 'big data' ervaren.
So I think there's really no end to the possibilities on the horizon for human expansion. Just imagine an astronaut being able to feel the overall health of the International Space Station, or, for that matter, having you feel the invisible states of your own health, like your blood sugar and the state of your microbiome, or having 360-degree vision or seeing in infrared or ultraviolet.
Volgens mij staat er geen limiet op de mogelijkheden voor menselijke uitbreiding. Beeld je in dat een astronaut voeling krijgt met de algemene gezondheidstoestand van het Internationale Ruimtestation, of dat je zelf voeling krijgt met je eigen onzichtbare gezondheidstoestand, zoals je bloedsuiker en de status van je microbioom, of dat je 360 graden kan zien, of infrarood, of ultraviolet.
So the key is this: As we move into the future, we're going to increasingly be able to choose our own peripheral devices. We no longer have to wait for Mother Nature's sensory gifts on her timescales, but instead, like any good parent, she's given us the tools that we need to go out and define our own trajectory. So the question now is, how do you want to go out and experience your universe?
De sleutel is: naarmate we de toekomst ingaan, zullen we meer en meer onze eigen randapparatuur kunnen kiezen. We moeten niet meer wachten op de zintuiglijke gaven van Moeder Natuur, op haar tempo. Als goede ouder heeft ze ons de nodige hulpmiddelen gegeven om ons eigen pad uit te stippelen. De vraag is nu: hoe wil jij naar buiten komen en je universum ervaren?
Thank you.
Dankjewel.
(Applause)
(Applaus)
Chris Anderson: Can you feel it? DE: Yeah.
Chris Anderson: Voel je het? DE: Ja.
Actually, this was the first time I felt applause on the vest. It's nice. It's like a massage. (Laughter)
Het is de eerste keer dat ik applaus voel op het vest. Het is leuk, net een massage. (Gelach)
CA: Twitter's going crazy. Twitter's going mad. So that stock market experiment. This could be the first experiment that secures its funding forevermore, right, if successful?
CA: Twitter gaat uit de bol. Dat beursexperiment. Dat zou het eerste experiment kunnen zijn dat zijn financiering eeuwig veilig stelt, als het lukt, niet?
DE: Well, that's right, I wouldn't have to write to NIH anymore.
DE: Inderdaad, ja, dan hoef ik niet meer naar onderzoeksgeld op zoek.
CA: Well look, just to be skeptical for a minute, I mean, this is amazing, but isn't most of the evidence so far that sensory substitution works, not necessarily that sensory addition works? I mean, isn't it possible that the blind person can see through their tongue because the visual cortex is still there, ready to process, and that that is needed as part of it?
CA: Om nu maar even sceptisch te zijn, dit is verbluffend, maar zeggen de meeste resultaten tot hiertoe niet dat zintuiglijke vervanging werkt, maar daarom niet zintuiglijke toevoeging? Zou het niet kunnen dat een blinde door zijn tong kan zien omdat de visuele cortex er nog is en kan verwerken, en dat dat een noodzaak is?
DE: That's a great question. We actually have no idea what the theoretical limits are of what kind of data the brain can take in. The general story, though, is that it's extraordinarily flexible. So when a person goes blind, what we used to call their visual cortex gets taken over by other things, by touch, by hearing, by vocabulary. So what that tells us is that the cortex is kind of a one-trick pony. It just runs certain kinds of computations on things. And when we look around at things like braille, for example, people are getting information through bumps on their fingers. So I don't think we have any reason to think there's a theoretical limit that we know the edge of.
DE: Dat is een geweldige vraag. We hebben geen idee van de theoretische grenzen van de soorten gegevens die het brein kan opnemen. De algemene regel is wel dat het uitzonderlijk flexibel is. Als iemand blind wordt, wordt wat we vroeger de visuele cortex noemden, overgenomen door andere dingen, tastzin, gehoor, woordenschat. Dat zegt ons dat de cortex maar één kunstje kent. Het voert berekeningen uit op dingen. Als we naar dingen als braille kijken, krijgen mensen informatie via bobbels op hun vingers. Volgens mij is er geen theoretische grens waar we het eind van kennen.
CA: If this checks out, you're going to be deluged. There are so many possible applications for this. Are you ready for this? What are you most excited about, the direction it might go? DE: I mean, I think there's a lot of applications here. In terms of beyond sensory substitution, the things I started mentioning about astronauts on the space station, they spend a lot of their time monitoring things, and they could instead just get what's going on, because what this is really good for is multidimensional data. The key is this: Our visual systems are good at detecting blobs and edges, but they're really bad at what our world has become, which is screens with lots and lots of data. We have to crawl that with our attentional systems. So this is a way of just feeling the state of something, just like the way you know the state of your body as you're standing around. So I think heavy machinery, safety, feeling the state of a factory, of your equipment, that's one place it'll go right away.
CA: Als dit waar wordt, zal je overspoeld worden. Er zijn zovele mogelijke toepassingen. Ben je er klaar voor? Wat vind je de spannendste mogelijke richting? DE: Er zijn veel toepassingen. Voor wat verder gaat dan zintuiglijke vervanging: de astronauten in het ruimtestation besteden veel tijd aan monitoren. Zij zouden kunnen aanvoelen wat er aan de gang is. Want dit werkt goed voor multidimensionale gegevens. De sleutel is: ons visuele systeem is goed in vlekken en randen ontwaren, maar veel minder goed in wat onze wereld is geworden, namelijk schermen met immens veel informatie. We moeten daar doorheen met onze aandachtssystemen. Dit is een manier om de toestand van iets aan te voelen, zoals je de toestand aanvoelt van je lichaam als je ergens staat. Zware machines, veiligheid, de status van een fabriek aanvoelen, van je uitrusting, daar zal het meteen naartoe gaan.
CA: David Eagleman, that was one mind-blowing talk. Thank you very much.
CA: David Eagleman, dat was een verbluffende talk. Heel veel dank.
DE: Thank you, Chris. (Applause)
DE: Bedankt, Chris. (Applaus)