Jsme sestaveni z velice malých částí a žijeme ve velkém vesmíru. Pravdou je, že příliš dobře nerozumíme realitě na všech jejich úrovních. Je to kvůli našim mozkům, které nejsou dostatečně vyvinuté pro takovéto porozumění.
We are built out of very small stuff, and we are embedded in a very large cosmos, and the fact is that we are not very good at understanding reality at either of those scales, and that's because our brains haven't evolved to understand the world at that scale.
Takže zůstáváme na velmi malém kousku škály vnímání, přesně uprostřed. Což je pořádně divné. Přesto, že ten kousek reality nazýváme domovem, tak moc toho, co se kolem nás děje, nevidíme. Vezměme si barvy našeho světa. Toto je světelná vlna, elektromagnetické záření, která se odráží od objektů a my jej zachycujeme okem. Nevidíme ale všechno vlnění kolem nás. Faktem je, že vidíme pouhou triliontinu všeho kolem. Máme tady rádiové vlny, mikrovlny, rentgenové a gamma záření, které prochází vašimi těly, aniž byste o tom věděli. Je to proto, že se nerodíme s vhodnými biologickými receptory pro jejich vnímání. Procházejí vámi tisíce telefoních hovorů, vůči kterým jste doslova slepí.
Instead, we're trapped on this very thin slice of perception right in the middle. But it gets strange, because even at that slice of reality that we call home, we're not seeing most of the action that's going on. So take the colors of our world. This is light waves, electromagnetic radiation that bounces off objects and it hits specialized receptors in the back of our eyes. But we're not seeing all the waves out there. In fact, what we see is less than a 10 trillionth of what's out there. So you have radio waves and microwaves and X-rays and gamma rays passing through your body right now and you're completely unaware of it, because you don't come with the proper biological receptors for picking it up. There are thousands of cell phone conversations passing through you right now, and you're utterly blind to it.
Není to však proto, že ze své podstaty nejsou viditelné. Hadi vnímají infračervené záření, včely zase ultrafialové. A na palubních deskách aut máme zařízení, která chytají rádiové vlny. V nemocnicích jsou přístroje využívající rentgenové vlny. Tyto vlny však samostatně vnímat nemůžeme. Tedy zatím ne, protože nejsme vybaveni správnými čidly.
Now, it's not that these things are inherently unseeable. Snakes include some infrared in their reality, and honeybees include ultraviolet in their view of the world, and of course we build machines in the dashboards of our cars to pick up on signals in the radio frequency range, and we built machines in hospitals to pick up on the X-ray range. But you can't sense any of those by yourself, at least not yet, because you don't come equipped with the proper sensors.
Znamená to, že zkušenost s realitou je ovlivněna biologií našeho těla. Což jde proti obvyklé představě, že naše oči, uši a prsty prostě zaznamenávají vnější objektivní realitu. Naše mozky naopak zobrazují jenom kousek reality.
Now, what this means is that our experience of reality is constrained by our biology, and that goes against the common sense notion that our eyes and our ears and our fingertips are just picking up the objective reality that's out there. Instead, our brains are sampling just a little bit of the world.
Vemte si zvířecí říši, kde různá zvířata vnímají odlišné části reality. Ve slepém a hluchém životě klíštěte jsou důležitým signálem teplota a kyselina máselná. Smyslový svět nožovky běločelé je hojně zbarvem elektrickým polem. U netopýrů, kteří využívají echolokaci, tvoří realitu zvukové vlny. To je pouze kousek ze zvířecího ekosystému, který dokáží vnímat. Ve vědě existuje pro toto pojmenování. Nazývá se umwelt, německé slovo, které znamená “svět, který nás obkopuje” - prostředí. Každý živočich, pravděpodobně, považuje svůj umwelt za jedinou objektivní realitu. Proč by se totiž pozastavoval nad tím, zda existuje jiná realita, než kterou vnímá, zná. Jinak řečeno, přijímáme realitu tak, jak je nám představována.
Now, across the animal kingdom, different animals pick up on different parts of reality. So in the blind and deaf world of the tick, the important signals are temperature and butyric acid; in the world of the black ghost knifefish, its sensory world is lavishly colored by electrical fields; and for the echolocating bat, its reality is constructed out of air compression waves. That's the slice of their ecosystem that they can pick up on, and we have a word for this in science. It's called the umwelt, which is the German word for the surrounding world. Now, presumably, every animal assumes that its umwelt is the entire objective reality out there, because why would you ever stop to imagine that there's something beyond what we can sense. Instead, what we all do is we accept reality as it's presented to us.
Pojďme si to trochu více osvětlit. Představte si, že jste pes typu Bloodhound. Váš celý svět je o vůních a pachu. Máte dlouhý čenich , s 200 milióny pachových receptorů, taktéž vlhké nozdry pro zachytávání pachových molekul, které dokonce obsahují štěrbiny pro nasátí ještě většího množství vzduchu. Všechno je prostě o vůních a pachu. Jednoho dne se při stopování zastavíte s odhalením. Podíváte se na svého lidského páníčka a zamyslíte se. “Jaké je to mít tak žalostně ochuzený lidský nos?” (smích) Jaké to je pouze slabě nasát vzduch? Nevědět, že 91 m od tebe je kočka, nebo že tvůj soused tady před 6 hodinami stál? (smích)
Let's do a consciousness-raiser on this. Imagine that you are a bloodhound dog. Your whole world is about smelling. You've got a long snout that has 200 million scent receptors in it, and you have wet nostrils that attract and trap scent molecules, and your nostrils even have slits so you can take big nosefuls of air. Everything is about smell for you. So one day, you stop in your tracks with a revelation. You look at your human owner and you think, "What is it like to have the pitiful, impoverished nose of a human? (Laughter) What is it like when you take a feeble little noseful of air? How can you not know that there's a cat 100 yards away, or that your neighbor was on this very spot six hours ago?" (Laughter)
Protože jsme lidmi, nikdy jsme nezakusili, v takové míře jako pes, svět pachů. Nechybí nám to, protože jsme zcela zasazeni v našem umweltu. Ale naskýtá se otázka, musíme v něm zůstávat? Jako neurověděc se zajímám jakým způsobem mohou technologie rozšířit náš umwelt, a jak to ovlivní žití, tak, jak jej známe.
So because we're humans, we've never experienced that world of smell, so we don't miss it, because we are firmly settled into our umwelt. But the question is, do we have to be stuck there? So as a neuroscientist, I'm interested in the way that technology might expand our umwelt, and how that's going to change the experience of being human.
My už víme, že můžeme snoubit technologie s naší biologií. Podívejte se na stovky tisíc lidí, kteří mají možnost slyšet a vidět díky technologiím. Funguje to tak, že mikrofón digitalizuje signál, který putuje přes elektrické vlákno přímo do vnitřního ucha. U sítnicového implantátu kamera digitalizuje obraz a ten přes mřížku elektrody putuje do zrakového nervu. Před 15ti lety mnoho vědců myslelo, že tyto technologie nemůžou fungovat. Proč? Protože tyto věcičky mluví jazykem Silicon Valley, a ten není stejný jako dialekt našich smyslových orgánů. Pravda je, že to funguje. Náš mozek totiž vyhodnocuje jak vhodně tyto signály zpracovat.
So we already know that we can marry our technology to our biology, because there are hundreds of thousands of people walking around with artificial hearing and artificial vision. So the way this works is, you take a microphone and you digitize the signal, and you put an electrode strip directly into the inner ear. Or, with the retinal implant, you take a camera and you digitize the signal, and then you plug an electrode grid directly into the optic nerve. And as recently as 15 years ago, there were a lot of scientists who thought these technologies wouldn't work. Why? It's because these technologies speak the language of Silicon Valley, and it's not exactly the same dialect as our natural biological sense organs. But the fact is that it works; the brain figures out how to use the signals just fine.
Jak tomu tedy máme rozumět? Takže tady je to velké tajemství: Váš mozek neslyší, ani nic z toho nevidí. Váš mozek je uzavřen v tichém vzduchoprázdnu, ve tmě vaší lebky. Vše co “vidí” jsou elektrochemické signály přicházející z různých informačních kanálů. A to je vše s čím mozek pracuje. Skvělé je, že mozek je opravdu dobrý v přijímání signálů, vytváření vzorců a přidělování významů. Těmto aktivitám váš vnitřní vesmír přidělí příběh toho všeho tady - váš subjektivní svět.
Now, how do we understand that? Well, here's the big secret: Your brain is not hearing or seeing any of this. Your brain is locked in a vault of silence and darkness inside your skull. All it ever sees are electrochemical signals that come in along different data cables, and this is all it has to work with, and nothing more. Now, amazingly, the brain is really good at taking in these signals and extracting patterns and assigning meaning, so that it takes this inner cosmos and puts together a story of this, your subjective world.
Tady je klíčový bod: váš mozek neví, ani se nestará o původ dat. Jakkákoliv informace, přicházející dovnitř, je ihned zpracována. Je to velice efektivní zařízení. Je to v podstatě výpočetní stroj s obecným využitím, který přijímá všechno a vyhodnocuje co s tím udělat. A tohle, myslím, dá volnost Matce Přírodě, aby "nependlovala" s různými typy přídavných kanálů.
But here's the key point: Your brain doesn't know, and it doesn't care, where it gets the data from. Whatever information comes in, it just figures out what to do with it. And this is a very efficient kind of machine. It's essentially a general purpose computing device, and it just takes in everything and figures out what it's going to do with it, and that, I think, frees up Mother Nature to tinker around with different sorts of input channels.
Nazývám to P.H. model evoluce. Nechci být moc technický, takže P.H. je zkratkou pro Bramborovou hlavu (Potato Head v Aj.). Používám tento název , abych zdůraznil, že všechny receptory, které používáme nejvíce jako oči, uši a špičky prstů, jsou externí plug-and-play zařízení. Zapojíte je a můžete fungovat. Mozek vyhodnotí, co udělat s daty, které přicházejí. Když se podíváte do zvířecí říše, najdete mnoho takovýchto přídavných zařízení. Hadi mají na hlavě jamky, kterými odhalí infračervení záření. Nožovka běločelá má elektroreceptory, Krtek hvězdonosý má přívěsek s 22 výběžky, kterými vnímá 3D podobu světa. Mnoho ptáků má magnetický senzor, takže se pohybují podle magnetického pole planety. To znamená, že příroda nemusí neustále přetvářek mozek. Principy mozky jsou nadefinovány, takže se příroda stará o navrhování nových přídavných zařízení.
So I call this the P.H. model of evolution, and I don't want to get too technical here, but P.H. stands for Potato Head, and I use this name to emphasize that all these sensors that we know and love, like our eyes and our ears and our fingertips, these are merely peripheral plug-and-play devices: You stick them in, and you're good to go. The brain figures out what to do with the data that comes in. And when you look across the animal kingdom, you find lots of peripheral devices. So snakes have heat pits with which to detect infrared, and the ghost knifefish has electroreceptors, and the star-nosed mole has this appendage with 22 fingers on it with which it feels around and constructs a 3D model of the world, and many birds have magnetite so they can orient to the magnetic field of the planet. So what this means is that nature doesn't have to continually redesign the brain. Instead, with the principles of brain operation established, all nature has to worry about is designing new peripherals.
Dobrá. Co to znamená: Jedná se o to, že na biologii, se kterou jsme na svět přišli, není nic zvláštního ani podstatného. Prostě jsme ji zdědili z celé evoluční cesty. Není to však něco, čeho se musíme nadále držet. Důkazem je princip nazvaný smyslová náhrada. To znamená, že mozek přijímá informace skrz neobvyklé smyslové kanály a mozek tyto informace prostě zpracovává.
Okay. So what this means is this: The lesson that surfaces is that there's nothing really special or fundamental about the biology that we come to the table with. It's just what we have inherited from a complex road of evolution. But it's not what we have to stick with, and our best proof of principle of this comes from what's called sensory substitution. And that refers to feeding information into the brain via unusual sensory channels, and the brain just figures out what to do with it.
Zní to možná nepřesvědčivě, ale první papírová ukázka byla publikována v Nature roku 1969. Vědec Paul Bach-y-Rita usadil slepé lidi do uzpůsobeného zubařského křesla. Nastavil video přenos a začal natáčet věci před kamerou. Oni mohli cítit štouchání z elektromagnetické mřížky na zádech. Když se promítalo míchání kávy v hrnku, pocítili to v zádech. A slepí lidé byli skvělí v rozpoznávání toho, co se objevilo na obrazovce. Jenom skrz vnímání malé části na zádech. Nyní tady máme mnoho moderních obměn. Zvukové brýle nahrávají video toho, co je před vámi a přetvoří to ve zvukový terén. Takže, když se věci přibližují a vzdalují, tak slyšíte "Bzz, bzz, bzz". Není to moc libozvučné, přesto po několika týdnech, slepí lidé chápali zřejměji, co se nachází před nimi. Pouze na základě toho, že to slyší. Toto nemusí probíhat pouze skrz uši. Tento systém využívá elektrotaktilní mřížku na čele, takže cítíte zde vše, co je snímané na videu. Proč čelo? Toto místo moc často nevyužíváme.
Now, that might sound speculative, but the first paper demonstrating this was published in the journal Nature in 1969. So a scientist named Paul Bach-y-Rita put blind people in a modified dental chair, and he set up a video feed, and he put something in front of the camera, and then you would feel that poked into your back with a grid of solenoids. So if you wiggle a coffee cup in front of the camera, you're feeling that in your back, and amazingly, blind people got pretty good at being able to determine what was in front of the camera just by feeling it in the small of their back. Now, there have been many modern incarnations of this. The sonic glasses take a video feed right in front of you and turn that into a sonic landscape, so as things move around, and get closer and farther, it sounds like "Bzz, bzz, bzz." It sounds like a cacophony, but after several weeks, blind people start getting pretty good at understanding what's in front of them just based on what they're hearing. And it doesn't have to be through the ears: this system uses an electrotactile grid on the forehead, so whatever's in front of the video feed, you're feeling it on your forehead. Why the forehead? Because you're not using it for much else.
Nejmodernější podoba se nazývá brainport. Je to malá elektroda přichycena na jazyku. Snímaná realita před vámi se projevuje v podobě elektrotaktilních signálů. Díky tomu dokáží slepí lidé bravurně hodit míč na koš a trefit se. Dokáží se také obstojně pohybovat na překážkové dráze. Mohou vidět skrz svůj jazyk. Zní to dost ujetě, že? Mějte na paměti, že vše co vidíte, jsou elektrochemické signály ve vašem mozku. Váš mozek netuší odkud tyto signály pocházejí. Pouze vyhodnocuje co s nimi.
The most modern incarnation is called the brainport, and this is a little electrogrid that sits on your tongue, and the video feed gets turned into these little electrotactile signals, and blind people get so good at using this that they can throw a ball into a basket, or they can navigate complex obstacle courses. They can come to see through their tongue. Now, that sounds completely insane, right? But remember, all vision ever is is electrochemical signals coursing around in your brain. Your brain doesn't know where the signals come from. It just figures out what to do with them.
V labolatoři se zabývám smyslovými náhradami pro hluché lidi. Realizuji projekt spolu se studentem Scottem Novichem, který jej zpracovává v diplomové práci. O co jsme usilovali? Chtěli jsme, aby se zvuk z venčí přeměnil takovým způsobem, že hluchý člověk bude rozumět mluvené řeči. Vzhledem k všudypřítomnosti přenosných zařízeních jsme chtěli, aby to funguvalo na mobilních telefonech a tabletech. Také jsme chtěli, aby to bylo nositelné, něco, co by šlo nosit pod oblečením. Tady je náš koncept: Zatímco k vám mluvím, můj hlas je zaznamenán na tabletu, a poté zakreslen do vesty, která je pokryta vibrujícími motorky. Tak jako motorky ve vašich telefonech. Takže, když teď mluvím, zvuk se překládá do vibrujícího vzorce na vestě. Nebavíme se jen v rovině nápadu: tento tablet vysílá bluetoothu a já mám vestu právě na sobě. Takže když mluvím...(potlesk) ..zvuk je přeložen do dynamického vzorce vibrací. Cítím svět zvuku, který je kolem mě.
So my interest in my lab is sensory substitution for the deaf, and this is a project I've undertaken with a graduate student in my lab, Scott Novich, who is spearheading this for his thesis. And here is what we wanted to do: we wanted to make it so that sound from the world gets converted in some way so that a deaf person can understand what is being said. And we wanted to do this, given the power and ubiquity of portable computing, we wanted to make sure that this would run on cell phones and tablets, and also we wanted to make this a wearable, something that you could wear under your clothing. So here's the concept. So as I'm speaking, my sound is getting captured by the tablet, and then it's getting mapped onto a vest that's covered in vibratory motors, just like the motors in your cell phone. So as I'm speaking, the sound is getting translated to a pattern of vibration on the vest. Now, this is not just conceptual: this tablet is transmitting Bluetooth, and I'm wearing the vest right now. So as I'm speaking -- (Applause) -- the sound is getting translated into dynamic patterns of vibration. I'm feeling the sonic world around me.
Testovali jsme to s hluchými lidmi, a ve krátkém čase se ukázalo, že lidé začínají cítit a rozumět jazyku vesty.
So, we've been testing this with deaf people now, and it turns out that after just a little bit of time, people can start feeling, they can start understanding the language of the vest.
Toto je Jonathan. Magistr, má 37 let. Narodil se úplně hluchý, tzn. že část jeho umweltu mu není přístupná. Takže Jonathan trénoval s vestou 4 dny, 2 hodiny denně. A tady máme 5.den.
So this is Jonathan. He's 37 years old. He has a master's degree. He was born profoundly deaf, which means that there's a part of his umwelt that's unavailable to him. So we had Jonathan train with the vest for four days, two hours a day, and here he is on the fifth day.
Scott Novich: "Ty"
Scott Novich: You.
D.Eagleman: Scott řekl slovo, Jonathan jej cítí na vestě a zapisuje jej na tabuli.
David Eagleman: So Scott says a word, Jonathan feels it on the vest, and he writes it on the board.
SN: "Kde. Kde."
SN: Where. Where.
DE: Jonathan je schopný přeložit komplikované vibrační vzorce do významu řečeného.
DE: Jonathan is able to translate this complicated pattern of vibrations into an understanding of what's being said.
SN: "Dotyk. Dotyk."
SN: Touch. Touch.
DE: On toto... (potlesk) ..On to nedělá vědomě. Přesto, že tyto vzorce jsou natolik komplikované, tak jeho mozek je začíná rozlišovat a posléze zjišťovat význam informací. Náš předpoklad je, že po 3 měsících nošení vesty, bude mít přímou vjemovou zkušenost sluchu. Jako slepý člověk, když čte braillovo písmo. Význam přichází přímo, bez vědomého zásahu, automaticky. Tato technologie má potenciál být boričem starých zvyklostí, protože jedinou možností pro neslyšící je kochleární implantát. Ten však vyžaduje invazivní operaci. Tato vesta může být vytvořena 40krát levněji, což umožnuje této technologii globální rozvoj také v nejchudších státech světa.
DE: Now, he's not doing this -- (Applause) -- Jonathan is not doing this consciously, because the patterns are too complicated, but his brain is starting to unlock the pattern that allows it to figure out what the data mean, and our expectation is that, after wearing this for about three months, he will have a direct perceptual experience of hearing in the same way that when a blind person passes a finger over braille, the meaning comes directly off the page without any conscious intervention at all. Now, this technology has the potential to be a game-changer, because the only other solution for deafness is a cochlear implant, and that requires an invasive surgery. And this can be built for 40 times cheaper than a cochlear implant, which opens up this technology globally, even for the poorest countries.
Naše výsledky smyslové náhrady nás tak nadchly, že jsme začali dost přemýšlet o přídavném smyslu. Jak bychom mohly využít technologie k přidání zcela nového smyslu k rozšíření našeho umweltu? Např. bychom mohli stahovat reálná data z internetu přímo do mozku a vytvořit tak přímou vjemovou zkušenost.
Now, we've been very encouraged by our results with sensory substitution, but what we've been thinking a lot about is sensory addition. How could we use a technology like this to add a completely new kind of sense, to expand the human umvelt? For example, could we feed real-time data from the Internet directly into somebody's brain, and can they develop a direct perceptual experience?
V této době provádíme v labolatoři experiment. Testovaný pociťuje reálná data proudící z Net of Data po dobu 5ti sekund. Poté se objeví dvě tlačítka a on musí učinit rozhodnutí. Netuší o co se jedná. Pro jedno se rozhodne a dostane po sekundě zpětnou vazbu. O co tady jde: On nemá ponětí, co všechny tyto vzorce znamenají, ale my pozorujeme, že se zlepšuje v tom, co zmáčknout. Netuší, že mu posíláme reálná data z akciového trhu a on činí nákupní rozhodnutí. (smích) Zpětná vazba mu sděluje, zda udělal správnou věc nebo ne. Pozorujeme z toho, že můžeme rozšířit lidský umwelt, takže po několika týdnech má přímou smyslovou zkušenost o světové ekonomice. Budeme vás později o vývoji informovat. (smích)
So here's an experiment we're doing in the lab. A subject is feeling a real-time streaming feed from the Net of data for five seconds. Then, two buttons appear, and he has to make a choice. He doesn't know what's going on. He makes a choice, and he gets feedback after one second. Now, here's the thing: The subject has no idea what all the patterns mean, but we're seeing if he gets better at figuring out which button to press. He doesn't know that what we're feeding is real-time data from the stock market, and he's making buy and sell decisions. (Laughter) And the feedback is telling him whether he did the right thing or not. And what we're seeing is, can we expand the human umvelt so that he comes to have, after several weeks, a direct perceptual experience of the economic movements of the planet. So we'll report on that later to see how well this goes. (Laughter)
Je tady ještě něco na čem pracujeme. Během dnešních TED proslovů automaticky stahujeme hashtagy TED2015 z Twitteru a děláme automatizovanou analýzu nálad. Zjištujeme, zda lidé lidé používají pozitivní, negativní nebo neutrální sdělení. A zatímco se tohle děje, společně s tím, jak je vesta na toto napojena, cítím koncentované emoce tisíců lidí v reálném čase. A to je zcela nová lidská zkušenost, protože teď vím, jak si vedete a jak moc se vám proslov líbí. (smích) (potlesk) Je to větší zkušenost než lidé přirozeně mají.
Here's another thing we're doing: During the talks this morning, we've been automatically scraping Twitter for the TED2015 hashtag, and we've been doing an automated sentiment analysis, which means, are people using positive words or negative words or neutral? And while this has been going on, I have been feeling this, and so I am plugged in to the aggregate emotion of thousands of people in real time, and that's a new kind of human experience, because now I can know how everyone's doing and how much you're loving this. (Laughter) (Applause) It's a bigger experience than a human can normally have.
Také rozšiřujeme umvelt pilotů. V tomto případě vesta snímá několik různých měření z této kvadrokoptéry (dron): stoupání, sklon,otáčky, orientaci a směr. A to zlepšuje pilotovu schopnost létat. Je to přesně jako by jeho kůže byla tam nahoře.
We're also expanding the umvelt of pilots. So in this case, the vest is streaming nine different measures from this quadcopter, so pitch and yaw and roll and orientation and heading, and that improves this pilot's ability to fly it. It's essentially like he's extending his skin up there, far away.
A to je jenom začátek. Naše vize je, že pilotní kabiny, plné měřidel, nebudou muset být čteny, ale pociťovány. Žijeme ve světe informací a je rozdíl mezi příjmem dat a jejich prožití.
And that's just the beginning. What we're envisioning is taking a modern cockpit full of gauges and instead of trying to read the whole thing, you feel it. We live in a world of information now, and there is a difference between accessing big data and experiencing it.
Takže si myslím, že je tady nekonečně možností pro lidský rozvoj. Představte si austronauta, schopného cítit stav vesmírné stanice nebo byste cítili stav vašeho zdraví, týkající se např. stavu cukru v krvi, stavu mikroorganismů v těle, mít 360ti stupňové vidění, nebo vidět infračervené a ultrafialové záření.
So I think there's really no end to the possibilities on the horizon for human expansion. Just imagine an astronaut being able to feel the overall health of the International Space Station, or, for that matter, having you feel the invisible states of your own health, like your blood sugar and the state of your microbiome, or having 360-degree vision or seeing in infrared or ultraviolet.
Klíčové je: v blízké budoucnosti se zvyšuje možnost vybrat si vlastní přídavné zařízení. Už nemusíme čekat na smyslové dary Matky Přírody v průběhu času. Ale tak jako každý dobrý rodič, nám už dala potřebné nástroje, díky kterým můžeme vykročit a určit si svou vlastní dráhu. Otázka teď je, jak chcete vykročit a prožívat svůj vesmír?
So the key is this: As we move into the future, we're going to increasingly be able to choose our own peripheral devices. We no longer have to wait for Mother Nature's sensory gifts on her timescales, but instead, like any good parent, she's given us the tools that we need to go out and define our own trajectory. So the question now is, how do you want to go out and experience your universe?
Děkuji.
Thank you.
(potlesk)
(Applause)
Chris Anderson: Cítíš to? DE: Ano.
Chris Anderson: Can you feel it? DE: Yeah.
Popravdě, to je poprvé, co cítím potlesk skrz vestu. Je to fajn! Jako masáž. (smích)
Actually, this was the first time I felt applause on the vest. It's nice. It's like a massage. (Laughter)
CA: Twitter zešílel. Totálně. Tak jako experiment s akciovým trhem, tohle může být první experiment, který zajistí jeho financování navěky, pokud bude úspěšný, že?
CA: Twitter's going crazy. Twitter's going mad. So that stock market experiment. This could be the first experiment that secures its funding forevermore, right, if successful?
DE: Ano, pravda. Už bych nemusel psát do NIH (Národní Institut Zdraví USA).
DE: Well, that's right, I wouldn't have to write to NIH anymore.
CA: Ale buďme trošku skeptičtí. Je to úžasné, ale zatím není moc důkazů, že smyslové náhrady či smyslové “přírustky” fungují. Podívej, je možné, že slepý člověk vidí skrz jazyk, protože jeho zrakové centrum je připraveno fungovat a je tedy jeho potřebnou částí?
CA: Well look, just to be skeptical for a minute, I mean, this is amazing, but isn't most of the evidence so far that sensory substitution works, not necessarily that sensory addition works? I mean, isn't it possible that the blind person can see through their tongue because the visual cortex is still there, ready to process, and that that is needed as part of it?
DE: Ano, to je otázka. Popravdě nemám ponětí, jaké jsou teoretické hranice typů dat, které mozek dokáže pojmout. Nicméně základem je, že je neskutečně flexibilní. Když člověk oslepne, tak říkáme, že jeho zrakové centrum je nahrazeno hmatem, sluchem, slovní zásobou. Což nás vede k tomu, že se omezuje jen na některé druhy výpočtů. Když se podíváte např. na Braillovo písmo, lidé získávají informace skrz prstová lůžka. Takže si nemyslím, že po teoretické stránce existuje mezní limit.
DE: That's a great question. We actually have no idea what the theoretical limits are of what kind of data the brain can take in. The general story, though, is that it's extraordinarily flexible. So when a person goes blind, what we used to call their visual cortex gets taken over by other things, by touch, by hearing, by vocabulary. So what that tells us is that the cortex is kind of a one-trick pony. It just runs certain kinds of computations on things. And when we look around at things like braille, for example, people are getting information through bumps on their fingers. So I don't think we have any reason to think there's a theoretical limit that we know the edge of.
CA: Až se to ověří, budete zaplaven tisíci možnostmi pro různé aplikace. Jsti na to připraven? Jakým směrem by jsi rád mířil? DE: Víš, tady je tolik možností! Krom smyslových náhrad jsem se také zmínil o astronautech ve vesmírných stanicích, kteří zde tráví většinu času monitorováním. Místo toho by prostě automaticky věděli, co se děje, protože tato aplikace je dobrá pro mnohorozměrná data. Klíčové je, že náš zrakový systém dokáže vidět detaily a okraje, ale je špatný v tom, čím se náš svět stává. Což je zobrazováno množstvím dat. Našemu pozorovacímu systému by trvalo věčnost to pobrat. Takže vidím cestu v tom - pocítit stav věcí. Zhruba tak stejně, jako cítíte své tělo, když stojíte. Takže těžká technika, bezpečnost, pociťování stavu továrny a přístrojů, to jeden ze směrů, kam mířím.
CA: If this checks out, you're going to be deluged. There are so many possible applications for this. Are you ready for this? What are you most excited about, the direction it might go? DE: I mean, I think there's a lot of applications here. In terms of beyond sensory substitution, the things I started mentioning about astronauts on the space station, they spend a lot of their time monitoring things, and they could instead just get what's going on, because what this is really good for is multidimensional data. The key is this: Our visual systems are good at detecting blobs and edges, but they're really bad at what our world has become, which is screens with lots and lots of data. We have to crawl that with our attentional systems. So this is a way of just feeling the state of something, just like the way you know the state of your body as you're standing around. So I think heavy machinery, safety, feeling the state of a factory, of your equipment, that's one place it'll go right away.
CA: Davide Eaglemane, to byl úžasný proslov! Děkuji moc!
CA: David Eagleman, that was one mind-blowing talk. Thank you very much.
DE: Díky Chrisi. (Potlesk)
DE: Thank you, Chris. (Applause)