We are built out of very small stuff, and we are embedded in a very large cosmos, and the fact is that we are not very good at understanding reality at either of those scales, and that's because our brains haven't evolved to understand the world at that scale.
Vi är byggda av väldigt små saker, och vi ingår i ett väldigt stort kosmos, och vi är faktiskt inte speciellt bra på att förstå verkligheten i någon av de skalorna, och det beror på att våra hjärnor inte har utvecklats för att förstå världen i den skalan.
Instead, we're trapped on this very thin slice of perception right in the middle. But it gets strange, because even at that slice of reality that we call home, we're not seeing most of the action that's going on. So take the colors of our world. This is light waves, electromagnetic radiation that bounces off objects and it hits specialized receptors in the back of our eyes. But we're not seeing all the waves out there. In fact, what we see is less than a 10 trillionth of what's out there. So you have radio waves and microwaves and X-rays and gamma rays passing through your body right now and you're completely unaware of it, because you don't come with the proper biological receptors for picking it up. There are thousands of cell phone conversations passing through you right now, and you're utterly blind to it.
Istället sitter vi fast i ett litet perceptionsområde precis i mitten. Men det blir konstigare, för inte ens i den verklighet som vi känner till ser vi merparten av det som pågår. Ta till exempel världens färger. Det här är ljusvågor, elektromagnetisk strålning som studsar från objekt och träffar de speciella receptorer som finns längst bak i ögat. Men vi ser inte alla vågor som finns. Det är faktiskt så att det vi ser är mindre än en tiondels biljondel av vad som finns där ute. Så det finns radiovågor och mikrovågor och röntgenstrålning och gammastrålning som passerar genom din kropp just nu och du märker det inte ens, eftersom du inte skapades med de biologiska receptorerna för att göra det. Det finns tusentals mobilkonversationer som passerar genom dig just nu, och du är helt blind för det.
Now, it's not that these things are inherently unseeable. Snakes include some infrared in their reality, and honeybees include ultraviolet in their view of the world, and of course we build machines in the dashboards of our cars to pick up on signals in the radio frequency range, and we built machines in hospitals to pick up on the X-ray range. But you can't sense any of those by yourself, at least not yet, because you don't come equipped with the proper sensors.
Det beror inte på att de här sakerna i sig är omöjliga att se. Ormar ser infrarött som en del av sin verklighet, och honungsbin tar in ultraviolett i sin syn på världen, och vi bygger förstås maskiner i instrumentbrädan på våra bilar som kan plocka upp signaler i området för radiovågor, och vi har byggt maskiner på sjukhus som kan läsa av röntgenstrålar. Men du kan inte känna något av det här, iallafall inte än, eftersom du inte är utrustad med de rätta sensorerna.
Now, what this means is that our experience of reality is constrained by our biology, and that goes against the common sense notion that our eyes and our ears and our fingertips are just picking up the objective reality that's out there. Instead, our brains are sampling just a little bit of the world.
Vad det betyder är att vår upplevelse av verkligheten är begränsad av vår biologi, och det går emot den känsla vi har av att våra ögon, öron och fingertoppar bara plockar upp den objektiva verkligheten. Istället tar vår hjärna ut en liten del av världen.
Now, across the animal kingdom, different animals pick up on different parts of reality. So in the blind and deaf world of the tick, the important signals are temperature and butyric acid; in the world of the black ghost knifefish, its sensory world is lavishly colored by electrical fields; and for the echolocating bat, its reality is constructed out of air compression waves. That's the slice of their ecosystem that they can pick up on, and we have a word for this in science. It's called the umwelt, which is the German word for the surrounding world. Now, presumably, every animal assumes that its umwelt is the entire objective reality out there, because why would you ever stop to imagine that there's something beyond what we can sense. Instead, what we all do is we accept reality as it's presented to us.
I djurvärlden uppfattar olika djur olika delar av verkligheten. I fästingens dövblinda värld är temperatur och smörsyra de viktiga signalerna. Black ghost-fisken känner av sin omvärld genom färgrika elektriska fält, och den ekolodande fladdermusen upplever en verklighet som skapas av tryckvågor i luften. Den är den del av verkligheten som de kan uppfatta och vi har ett ord för det inom vetenskapen. Det kallas umwelt, vilket är det tyska ordet för omvärld. Vi säger att varje djur antar att dess umwelt är den enda verklighet som finns, för det verkar onödigt att försöka föreställa sig att det finns något bortom det man kan uppfatta. Det vi istället gör är att vi accepterar verkligheten så som den presenteras för oss.
Let's do a consciousness-raiser on this. Imagine that you are a bloodhound dog. Your whole world is about smelling. You've got a long snout that has 200 million scent receptors in it, and you have wet nostrils that attract and trap scent molecules, and your nostrils even have slits so you can take big nosefuls of air. Everything is about smell for you. So one day, you stop in your tracks with a revelation. You look at your human owner and you think, "What is it like to have the pitiful, impoverished nose of a human? (Laughter) What is it like when you take a feeble little noseful of air? How can you not know that there's a cat 100 yards away, or that your neighbor was on this very spot six hours ago?" (Laughter)
Vi funderar lite på det här. Tänk dig att du är en blodhund. Hela din värld kretsar kring lukter. Du har en lång nos med 200 miljoner luktreceptorer och du har våta näsborrar som drar till sig och fångar luktmolekyler och dina näsborrar har till och med glipor så att du kan få nosen full av luft. Allting handlar om lukt för dig. Så en dag stannar du plötsligt till och får en slags uppenbarelse. Du ser på din mänskliga ägare och tänker "Hur är det att ha en sådan sorglig, menlös människonäsa? (Skratt) Hur känns det när du tar ett klent litet andetag med den näsan? Hur kan du inte veta att det finns en katt på 90 meters håll, eller att din granne stod på den här platsen för sex timmar sen? (Skratt)
So because we're humans, we've never experienced that world of smell, so we don't miss it, because we are firmly settled into our umwelt. But the question is, do we have to be stuck there? So as a neuroscientist, I'm interested in the way that technology might expand our umwelt, and how that's going to change the experience of being human.
Eftersom vi är människor har vi aldrig upplevt den där doftvärlden så vi saknar den inte, för vi är djupt förankrade i vår umwelt. Men frågan är, behöver vi sitta fast där? Som hjärnforskare är jag intresserad av de sätt som tekniken kan hjälpa oss att utvidga vår umwelt, och hur det kommer att förändra upplevelsen av att vara människa.
So we already know that we can marry our technology to our biology, because there are hundreds of thousands of people walking around with artificial hearing and artificial vision. So the way this works is, you take a microphone and you digitize the signal, and you put an electrode strip directly into the inner ear. Or, with the retinal implant, you take a camera and you digitize the signal, and then you plug an electrode grid directly into the optic nerve. And as recently as 15 years ago, there were a lot of scientists who thought these technologies wouldn't work. Why? It's because these technologies speak the language of Silicon Valley, and it's not exactly the same dialect as our natural biological sense organs. But the fact is that it works; the brain figures out how to use the signals just fine.
Vi vet redan att vi kan gifta ihop teknik och biologi, för det finns hundratusentals människor som går omkring med artificiell hörsel och artificiell syn. Det fungerar genom att man tar en mikrofon och digitaliserar signalen, och man sätter en elektronisk mottagare inuti innerörat. Eller med retinaimplantat, då tar man en kamera, digitaliserar signalen och sitter in ett elektroniskt rutnät direkt i synnerven. Och så sent som för 15 år sen fanns det många forskare som tvivlade på att teknikerna skulle fungera. Varför? För att teknikerna pratar Silicon Valley-språk, och det är inte riktigt samma dialekt som våra biologiska sinnesorgan. Men de fungerar faktiskt; hjärnan är bra på att räkna ut hur den ska använda signalerna.
Now, how do we understand that? Well, here's the big secret: Your brain is not hearing or seeing any of this. Your brain is locked in a vault of silence and darkness inside your skull. All it ever sees are electrochemical signals that come in along different data cables, and this is all it has to work with, and nothing more. Now, amazingly, the brain is really good at taking in these signals and extracting patterns and assigning meaning, so that it takes this inner cosmos and puts together a story of this, your subjective world.
Hur kan vi förstå det? Här är hemligheten: Din hjärna hör eller ser ingenting av det här. Din hjärna är instängd i ett tyst och mörkt valv inuti huvudet. Allt den någonsin ser är elektrokemiska signaler som kommer in via olika datakanaler, det här är allt den har att jobba med, och ingenting annat. Men fantastiskt nog är hjärnan riktigt bra på att ta in signalerna, hitta mönster och tilldela dem mening, så den tar sitt inre kosmos och sätter ihop en historia av det här, din subjektiva värld.
But here's the key point: Your brain doesn't know, and it doesn't care, where it gets the data from. Whatever information comes in, it just figures out what to do with it. And this is a very efficient kind of machine. It's essentially a general purpose computing device, and it just takes in everything and figures out what it's going to do with it, and that, I think, frees up Mother Nature to tinker around with different sorts of input channels.
Men här är kärnbudskapet: Din hjärna vet inte, och bryr sig inte om var den får sin data ifrån. Vilken information som än kommer in, räknar den ut vad den ska göra med den. Och det är en väldigt effektiv maskin. Det är en mångfunktionell beräkningsmaskin och den tar in allt och räknar ut vad den ska göra med det, och det tror jag ger moder natur en möjlighet att experimentera med olika kanaler för indata.
So I call this the P.H. model of evolution, and I don't want to get too technical here, but P.H. stands for Potato Head, and I use this name to emphasize that all these sensors that we know and love, like our eyes and our ears and our fingertips, these are merely peripheral plug-and-play devices: You stick them in, and you're good to go. The brain figures out what to do with the data that comes in. And when you look across the animal kingdom, you find lots of peripheral devices. So snakes have heat pits with which to detect infrared, and the ghost knifefish has electroreceptors, and the star-nosed mole has this appendage with 22 fingers on it with which it feels around and constructs a 3D model of the world, and many birds have magnetite so they can orient to the magnetic field of the planet. So what this means is that nature doesn't have to continually redesign the brain. Instead, with the principles of brain operation established, all nature has to worry about is designing new peripherals.
Jag kallar det här PH-modellen för evolution, och jag vill inte bli för teknisk här, men PH står för Potatishuvud, och jag använder det namnet för att betona att alla dessa sensorer som vi gillar så mycket, som våra ögon, ögon och fingertoppar, bara är perifera utbytbara enheter: Man sätter i dem, sen kan man köra. Hjärnan räknar ut vad den ska göra med den data som kommer in. Och om man ser sig om i djurriket hittar man många perifera enheter. Ormar har gropar i ansiktet där de kan känna av infrarött ljus och ghost knife-fisken har elektroniska receptorer och stjärnmullvaden har en slags nosutskott med 22 fingrar som den känner sig fram med och skapar en 3D-modell av världen, och många fåglar har magnetit som att de kan navigera efter jordens magnetiska fält. Vad det här betyder är att naturen inte behöver bygga om hjärnan hela tiden. Istället, eftersom hjärnan fungerar som den gör, är allt den behöver göra att designa nya kanaler för indata.
Okay. So what this means is this: The lesson that surfaces is that there's nothing really special or fundamental about the biology that we come to the table with. It's just what we have inherited from a complex road of evolution. But it's not what we have to stick with, and our best proof of principle of this comes from what's called sensory substitution. And that refers to feeding information into the brain via unusual sensory channels, and the brain just figures out what to do with it.
Okej. Vad det här betyder är: Vad vi lär oss är att det inte finns något speciellt eller grundläggande med den biologi som vi har med oss från början. Det är helt enkelt vad vi har ärvt från en komplex evolution. Men det är inte vad vi behöver nöja oss med, och det bästa sättet att bevisa det är något som kallas sensorisk substitution. Och det handlar om att ge information till hjärnan via ovanliga sensoriska kanaler, och hjärnan bara räknar ut vad den ska göra med den.
Now, that might sound speculative, but the first paper demonstrating this was published in the journal Nature in 1969. So a scientist named Paul Bach-y-Rita put blind people in a modified dental chair, and he set up a video feed, and he put something in front of the camera, and then you would feel that poked into your back with a grid of solenoids. So if you wiggle a coffee cup in front of the camera, you're feeling that in your back, and amazingly, blind people got pretty good at being able to determine what was in front of the camera just by feeling it in the small of their back. Now, there have been many modern incarnations of this. The sonic glasses take a video feed right in front of you and turn that into a sonic landscape, so as things move around, and get closer and farther, it sounds like "Bzz, bzz, bzz." It sounds like a cacophony, but after several weeks, blind people start getting pretty good at understanding what's in front of them just based on what they're hearing. And it doesn't have to be through the ears: this system uses an electrotactile grid on the forehead, so whatever's in front of the video feed, you're feeling it on your forehead. Why the forehead? Because you're not using it for much else.
Det kan låta spekulativt, men den första rapporten som visade detta publicerades i tidskriften Nature 1969. Forskaren Paul Bach-y-Rita satte blinda människor i en omgjord tandläkarstol han satte dit en videokamera, och om han satte något framför kameran så kände man det som en tryckning i ryggen från ett rutsystem av spolar. Vickade man en kaffekopp framför kameran så kändes det i ryggen, och fantastiskt nog blev blinda människor ganska bra på att kunna avgöra vad som fanns framför kameran bara genom att känna det i ländryggen. Det har gjorts många moderna varianter av det här. Ljudglasögonen filmar det som finns framför en och omvandlar det till ett ljudlandskap så när saker rör sig, kommer närmare och längre bort låter de "Bzz, bzz, bzz". Det låter som en kakafoni men efter flera veckor blir blinda ganska bra på att förstå vad som finns framför dem bara baserat på vad de hör. Och det behöver inte komma via öronen: Det här systemet använder ett elektrotaktilt rutnät i pannan så att det som finns framför kameran ger känselupplevelser i pannan. Varför pannan? För att man inte använder den till så mycket annat.
The most modern incarnation is called the brainport, and this is a little electrogrid that sits on your tongue, and the video feed gets turned into these little electrotactile signals, and blind people get so good at using this that they can throw a ball into a basket, or they can navigate complex obstacle courses. They can come to see through their tongue. Now, that sounds completely insane, right? But remember, all vision ever is is electrochemical signals coursing around in your brain. Your brain doesn't know where the signals come from. It just figures out what to do with them.
Den mest moderna varianten kallas "hjärnporten", och det är en litet elektroniskt rutnät som sitter på tungan och videon blir omvandlad till små elektrotaktila signaler och blinda blir så bra på att använda den så att de kan kasta en boll i en korg, och de kan navigera genom komplexa hinderbanor. De kan lära sig se med tungan. Det låter helt galet, eller hur? Men kom ihåg att synen bara är elektrokemiska signaler som rusar runt i din hjärna. Din hjärna vet inte varifrån signalerna kommer. Den räknar bara ut vad den ska göra med dem.
So my interest in my lab is sensory substitution for the deaf, and this is a project I've undertaken with a graduate student in my lab, Scott Novich, who is spearheading this for his thesis. And here is what we wanted to do: we wanted to make it so that sound from the world gets converted in some way so that a deaf person can understand what is being said. And we wanted to do this, given the power and ubiquity of portable computing, we wanted to make sure that this would run on cell phones and tablets, and also we wanted to make this a wearable, something that you could wear under your clothing. So here's the concept. So as I'm speaking, my sound is getting captured by the tablet, and then it's getting mapped onto a vest that's covered in vibratory motors, just like the motors in your cell phone. So as I'm speaking, the sound is getting translated to a pattern of vibration on the vest. Now, this is not just conceptual: this tablet is transmitting Bluetooth, and I'm wearing the vest right now. So as I'm speaking -- (Applause) -- the sound is getting translated into dynamic patterns of vibration. I'm feeling the sonic world around me.
Mitt intresseområde i labbet har varit sensorisk substitution för döva, och det här är ett projekt som vi har genomfört tillsammans med en doktorand i mitt labb, Scott Novich, som specialiserar sig på detta i sin avhandling. Detta är vad vi har velat göra: Vi ville få ljud från omvärlden att omvandlas så att en döv person kan förstå vad man säger. Och vi ville göra det med hjälp av kraften hos mobil teknik, vi ville att det skulle fungera på mobiltelefoner och surfplattor, och vi ville också göra det till en kroppsnära produkt, något man skulle kunna ha på sig under kläderna. Konceptet ser ut så här. När jag pratar fångas mitt ljud upp av surfplattan och placeras ut på en väst som är täckt av små vibrerande motorer, precis som motorerna i din mobiltelefon. Så när jag pratar översätts ljudet till ett vibrationsmönster på västen. Det här är inte bara konceptuellt, surfplattan sänder via Bluetooth och jag har på mig västen just nu. Så när jag pratar översätts ljudet (Applåder) till dynamiska vibrationsmönster. Jag känner ljudlandskapet runt mig.
So, we've been testing this with deaf people now, and it turns out that after just a little bit of time, people can start feeling, they can start understanding the language of the vest.
Vi har testat det här med döva människor och det visar sig att de efter en väldigt kort tid kan börja känna och förstå västens språk.
So this is Jonathan. He's 37 years old. He has a master's degree. He was born profoundly deaf, which means that there's a part of his umwelt that's unavailable to him. So we had Jonathan train with the vest for four days, two hours a day, and here he is on the fifth day.
Det här är Jonathan, han är 37 år och har en magisterexamen. Han föddes helt döv, vilket betyder att en del av hans umwelt inte är tillgänglig för honom. Vi lät Jonathan träna med västen i fyra dagar, två timmar om dagen, och här är han den femte dagen.
Scott Novich: You.
Scott Novich: Du.
David Eagleman: So Scott says a word, Jonathan feels it on the vest, and he writes it on the board.
David Eagleman: Scott säger ett ord, Jonathan känner det via västen, och han skriver det på tavlan.
SN: Where. Where.
SN: Var. Var.
DE: Jonathan is able to translate this complicated pattern of vibrations into an understanding of what's being said.
DE: Jonathan kan översätta det här komplicerade vibrationsmönstret så att han förstår vad som sägs.
SN: Touch. Touch.
SN: Känsel. Känsel.
DE: Now, he's not doing this -- (Applause) -- Jonathan is not doing this consciously, because the patterns are too complicated, but his brain is starting to unlock the pattern that allows it to figure out what the data mean, and our expectation is that, after wearing this for about three months, he will have a direct perceptual experience of hearing in the same way that when a blind person passes a finger over braille, the meaning comes directly off the page without any conscious intervention at all. Now, this technology has the potential to be a game-changer, because the only other solution for deafness is a cochlear implant, and that requires an invasive surgery. And this can be built for 40 times cheaper than a cochlear implant, which opens up this technology globally, even for the poorest countries.
DE: Han gör alltså inte det här -- (Applåder) Jonathan gör inte det här medvetet, för mönstren är för komplicerade, men hans hjärna börjar lista ut mönstret som låter den förstå vad informationen betyder, och vår förhoppning är att när han har burit den i tre månader kommer han ha en påtaglig känsla av att höra saker på samma sätt som när en blind person för sitt finger över blindskrift, att betydelsen kommer direkt från sidan utan någon medveten ansträngning. Den här tekniken har möjlighet att förändra området i grunden eftersom den enda andra lösningen för dövhet är ett cochleaimplantat, vilket kräver ett kirurgiskt ingrepp. Och den här kostar 40 gånger mindre än ett cochleaimplantat, vilket gör att tekniken kan användas globalt, även i de fattigaste länderna.
Now, we've been very encouraged by our results with sensory substitution, but what we've been thinking a lot about is sensory addition. How could we use a technology like this to add a completely new kind of sense, to expand the human umvelt? For example, could we feed real-time data from the Internet directly into somebody's brain, and can they develop a direct perceptual experience?
Vår övertygelse har stärkts av de resultat vi har fått från sensorisk substutition men en sak vi har tänkt mycket på är sensoriska tillägg. Hur kan vi använda en sådan här teknik för att lägga till ett helt nytt sinne, för att utvidga mänsklig umwelt? Skulle vi till exempel kunna låta realtidsinformation från internet gå rakt in i någons hjärna, och se om de kan uppleva en direkt perception av den?
So here's an experiment we're doing in the lab. A subject is feeling a real-time streaming feed from the Net of data for five seconds. Then, two buttons appear, and he has to make a choice. He doesn't know what's going on. He makes a choice, and he gets feedback after one second. Now, here's the thing: The subject has no idea what all the patterns mean, but we're seeing if he gets better at figuring out which button to press. He doesn't know that what we're feeding is real-time data from the stock market, and he's making buy and sell decisions. (Laughter) And the feedback is telling him whether he did the right thing or not. And what we're seeing is, can we expand the human umvelt so that he comes to have, after several weeks, a direct perceptual experience of the economic movements of the planet. So we'll report on that later to see how well this goes. (Laughter)
Här är ett experiment som vi håller på med. En försöksperson känner av realtidsdata från internet i fem sekunder. Sen visas två knappar, och hen måste göra ett val. Hen vet inte vad som pågår. Hen gör ett val och får feedback efter en sekund. Så här är det: Försökspersonen vet inte vad mönstren betyder, men vi ser om hen blir bättre på att veta vilken knapp man ska trycka på. Hen vet inte att det vi skickar är realtidsdata från aktiemarknaden och hen gör köp- och säljbeslut. (Skratt) Och återkopplingen visar om beslutet var rätt eller inte. Och vad vi får veta är om vi kan utvidga människans umwelt så att hen efter flera veckor kan få en direkt perceptuell upplevelse av världens ekonomiska rörelser. Vi kommer att rapportera senare om hur det bra det går. (Skratt)
Here's another thing we're doing: During the talks this morning, we've been automatically scraping Twitter for the TED2015 hashtag, and we've been doing an automated sentiment analysis, which means, are people using positive words or negative words or neutral? And while this has been going on, I have been feeling this, and so I am plugged in to the aggregate emotion of thousands of people in real time, and that's a new kind of human experience, because now I can know how everyone's doing and how much you're loving this. (Laughter) (Applause) It's a bigger experience than a human can normally have.
Här är en annan sak som vi gör: Under morgonen föredrag har vi samlat inlägg från Twitter som nämner hashtaggen TED2015, och vi har gjort en automatisk emotionsanalys, vilket betyder, använder man positiva, negativa eller neutrala ord? Och medan det här har pågått har jag känt av det, så jag är inkopplad till de samlade känslorna från tusentals människor i realtid, vilket är en ny typ av mänsklig upplevelse och därför kan jag nu veta hur alla mår och hur mycket ni älskar det här. (Skratt) (Applåder) Det är en större upplevelse än en människa normalt kan ha.
We're also expanding the umvelt of pilots. So in this case, the vest is streaming nine different measures from this quadcopter, so pitch and yaw and roll and orientation and heading, and that improves this pilot's ability to fly it. It's essentially like he's extending his skin up there, far away.
Vi utvidgar också piloters umwelt. I det här fallet skickar västen nio olika mätetal från den här quadrokoptern, som nosläge, kursändring, vingläge, orientering och kurs, och det förbättrar den här pilotens skicklighet att flyga den. Det är som att han hade sin hud långt där uppe.
And that's just the beginning. What we're envisioning is taking a modern cockpit full of gauges and instead of trying to read the whole thing, you feel it. We live in a world of information now, and there is a difference between accessing big data and experiencing it.
Och det är bara början. Vad vi tänker oss är att ta en cockpit som är full av reglage och istället för att försöka läsa av alla kommer man att känna dem. Vi lever i en värld av information nu, och det finns en skillnad mellan att ha tillgång till stora datamängder och att uppleva dem.
So I think there's really no end to the possibilities on the horizon for human expansion. Just imagine an astronaut being able to feel the overall health of the International Space Station, or, for that matter, having you feel the invisible states of your own health, like your blood sugar and the state of your microbiome, or having 360-degree vision or seeing in infrared or ultraviolet.
Jag tror inte det finns någon gräns för hur långt vi kan utvidga mänskliga upplevelser i framtiden. Tänk er en astronaut som kan känna vilket allmäntillstånd den Internationella rymdstationen har, eller att man själv kan känna av de osynliga tillstånden i kroppen, som sitt blodsocker och den inre bakteriefloran, eller att ha 360-gradig syn, eller kunna se i infrarött eller ultraviolett.
So the key is this: As we move into the future, we're going to increasingly be able to choose our own peripheral devices. We no longer have to wait for Mother Nature's sensory gifts on her timescales, but instead, like any good parent, she's given us the tools that we need to go out and define our own trajectory. So the question now is, how do you want to go out and experience your universe?
Det viktiga är att när vi rör oss in i framtiden kommer vi gradvis att kunna välja våra egna perifera enheter. Vi behöver inte längre vänta på moder naturs sensoriska gåvor i hennes tidsperspektiv, utan istället har hon, som varje god förälder, gett oss de verktyg vi behöver för att kunna skapa vår egen väg framåt. Så frågan är, hur vill du gå ut och uppleva ditt universum?
Thank you.
Tack.
(Applause)
(Applåder)
Chris Anderson: Can you feel it? DE: Yeah.
Chris Anderson: Känner du det? DE: Ja.
Actually, this was the first time I felt applause on the vest. It's nice. It's like a massage. (Laughter)
Det här var faktiskt första gången jag kände applåder genom västen. Det är skönt, som en massage. (Skratt)
CA: Twitter's going crazy. Twitter's going mad. So that stock market experiment. This could be the first experiment that secures its funding forevermore, right, if successful?
CA: Twitter löper amok. Twitter är helt galet nu. Men det där experimentet med aktiemarknaden. Det kan blir det första experimentet som har garanterad finansiering för evigt, eller hur, om det lyckas?
DE: Well, that's right, I wouldn't have to write to NIH anymore.
DE: Ja, jag skulle inte behöva söka forskningspengar då.
CA: Well look, just to be skeptical for a minute, I mean, this is amazing, but isn't most of the evidence so far that sensory substitution works, not necessarily that sensory addition works? I mean, isn't it possible that the blind person can see through their tongue because the visual cortex is still there, ready to process, and that that is needed as part of it?
CA: Men du, för att vara lite skeptisk en stund, jag menar, det här är underbart, men visar inte resultaten hittills att sensorisk substitution fungerar, men inte nödvändigtvis sensoriska tillägg? Är det inte möjligt att en blind person kan se genom tungan eftersom syncortex fortfarande finns där, redo att ta hand om signaler, att det är en viktig del av det hela?
DE: That's a great question. We actually have no idea what the theoretical limits are of what kind of data the brain can take in. The general story, though, is that it's extraordinarily flexible. So when a person goes blind, what we used to call their visual cortex gets taken over by other things, by touch, by hearing, by vocabulary. So what that tells us is that the cortex is kind of a one-trick pony. It just runs certain kinds of computations on things. And when we look around at things like braille, for example, people are getting information through bumps on their fingers. So I don't think we have any reason to think there's a theoretical limit that we know the edge of.
DE: Det är en riktigt bra fråga. Vi vet faktiskt inte var de teoretiska gränserna går för vilken data hjärnan kan ta in. Det vi vet är att den är otroligt flexibel. Så när en person blir blind tas det vi kallade syncortex över av andra saker, av känsel, hörsel, ordförråd. Vad det säger oss är att hjärnbarken är ganska enkelspårig. Den gör bara beräkningar på saker. Och när vi ser på saker som blindskrift, till exempel, får människor sin information genom upphöjningar under fingrarna. Vi har ingen anledning att tro att vi har funnit den teoretiska gränsen för vad som är möjligt.
CA: If this checks out, you're going to be deluged. There are so many possible applications for this. Are you ready for this? What are you most excited about, the direction it might go? DE: I mean, I think there's a lot of applications here. In terms of beyond sensory substitution, the things I started mentioning about astronauts on the space station, they spend a lot of their time monitoring things, and they could instead just get what's going on, because what this is really good for is multidimensional data. The key is this: Our visual systems are good at detecting blobs and edges, but they're really bad at what our world has become, which is screens with lots and lots of data. We have to crawl that with our attentional systems. So this is a way of just feeling the state of something, just like the way you know the state of your body as you're standing around. So I think heavy machinery, safety, feeling the state of a factory, of your equipment, that's one place it'll go right away.
CA: Om det här fungerar kommer du att bli översvämmad av... Det finns så många tänkbara tillämpningar för det här. Är du redo för det? Vilken riktning hoppas du mest på? DE: Det finns många tillämpningar man kan tänka sig. Bortom sensorisk substitution är det de saker som jag nämnde om astronauter på rymdstationen, de tillbringar mycket av sin tid med att läsa av saker, om de istället skulle kunna veta vad som händer, för vad det här egentligen är bäst för är multidimensionella data. Nyckeln är det här: Vår syn är bra på att upptäcka fläckar och kanter, men det är riktigt dåligt på det som vår värld har blivit, vilket är skärmar med massor av data. Vi måste krypa fram med våra medvetna sinnen. Det här är ett sätt att känna tillståndet hos något, som vi känner av vår kropp när vi går och står. Så jag tänker på tunga maskiner, säkerhet, att känna av tillståndet hos en fabrik, av ens utrustning, det är något jag skulle vilja utforska direkt.
CA: David Eagleman, that was one mind-blowing talk. Thank you very much.
CA: David Eagleman, det var ett otroligt föredrag. Tack så mycket.
DE: Thank you, Chris. (Applause)
DE: Tack Chris. (Applåder)