We are built out of very small stuff, and we are embedded in a very large cosmos, and the fact is that we are not very good at understanding reality at either of those scales, and that's because our brains haven't evolved to understand the world at that scale.
Mes sukurti iš labai mažų dalykų ir esame patalpinti milžiniškame kosmose; faktas, mes nesame itin geri realybės suvokime, nei vienoje iš šių skalių, ir tik dėl to, kad mūsų smegenys nėra išsivysčiusios suvokti pasaulį toje skalėje.
Instead, we're trapped on this very thin slice of perception right in the middle. But it gets strange, because even at that slice of reality that we call home, we're not seeing most of the action that's going on. So take the colors of our world. This is light waves, electromagnetic radiation that bounces off objects and it hits specialized receptors in the back of our eyes. But we're not seeing all the waves out there. In fact, what we see is less than a 10 trillionth of what's out there. So you have radio waves and microwaves and X-rays and gamma rays passing through your body right now and you're completely unaware of it, because you don't come with the proper biological receptors for picking it up. There are thousands of cell phone conversations passing through you right now, and you're utterly blind to it.
Vietoj to, esame įkalinti šioje plonytėje suvokimo dalyje, pačiame viduryje. Keista tai, kad net ir tokioje realybėje, kurią vadiname namais, mes nematome didžiosios dalies vykstančių veiksmų. Paimkime pasaulio spalvas. Tai yra šviesos bangos – elektromagnetinė radiacija, atsimušanti nuo objektų, ir pataikanti į specialius receptorius mūsų akių dugne. Bet mes nematome visų aplink esančių bangų. Tiesa, ką matome yra mažiau, nei 10 trilijontoji to, kas čia pateikta. Taigi radijo bangos ir mikrobangos, ir rentgeno bei gama spinduliai dabar skrodžia jūsų kūnus ir jūs visiškai to nejaučiate, nes jūs neturite tinkamų biologinių receptorių jiems pajusti. Tūkstančiai mobiliųjų telefonų pokalbių eina per jus dabar, ir jūs visiškai to nematote.
Now, it's not that these things are inherently unseeable. Snakes include some infrared in their reality, and honeybees include ultraviolet in their view of the world, and of course we build machines in the dashboards of our cars to pick up on signals in the radio frequency range, and we built machines in hospitals to pick up on the X-ray range. But you can't sense any of those by yourself, at least not yet, because you don't come equipped with the proper sensors.
Nėra taip, kad šitie dalykai būtų visiškai nematomi. Gyvatės savo realybėje skiria infraraudonuosius spindulius, o bitės mato ultravioletinius, ir mes konstruojame mašinas automobilių prietaisų skydelyje, kad atskirtų radijo dažnio signalus, taip pat turime prietaisus ligoninėse, kurie veikia su rentgenu. Bet jūs to negalite pajusti, bent jau kol kas, nes jūs negimėte su tinkamais jutikliais.
Now, what this means is that our experience of reality is constrained by our biology, and that goes against the common sense notion that our eyes and our ears and our fingertips are just picking up the objective reality that's out there. Instead, our brains are sampling just a little bit of the world.
Tai reiškia, kad mūsų realybės suvokimas yra suvaržytas mūsų biologijos, ir tai prieštarauja sveikam protui, kad mūsų akys ir ausys, ir pirštų galiukai atskiria aplink esančią objektyvią realybę. Vietoj to mūsų smegenys atrenka tik mažąją dalį pasaulio.
Now, across the animal kingdom, different animals pick up on different parts of reality. So in the blind and deaf world of the tick, the important signals are temperature and butyric acid; in the world of the black ghost knifefish, its sensory world is lavishly colored by electrical fields; and for the echolocating bat, its reality is constructed out of air compression waves. That's the slice of their ecosystem that they can pick up on, and we have a word for this in science. It's called the umwelt, which is the German word for the surrounding world. Now, presumably, every animal assumes that its umwelt is the entire objective reality out there, because why would you ever stop to imagine that there's something beyond what we can sense. Instead, what we all do is we accept reality as it's presented to us.
Tarp gyvūnų karalystės skirtingi žvėrys supranta skirtingas realybės dalis. Taigi aklame ir kurčiame erkės pasaulyje svarbūs signalai yra temperatūra ir sviesto rūgštis; tamsiame vairauodegės peiliažuvės pasaulyje jutiminį pasaulį dosniai nuspalvina elektriniai laukai; ir aidu sekančio šikšnosparnio realybę sukuria suspausto oro bangos. Tai jų ekosistemos gabaliukas, kurį gali suprasti, mes turime žodį šiam mokslui. Jis vadinamas „umwelt“, tai yra vokiškas žodis, reiškiantis aplinkinį pasaulį. Greičiausiai, kiekvienas gyvūnas mano, kad jo „umwelt“ yra visiška objektyvi realybė, nes kodėl turėtumėte imti ir įsivaizduoti, kad yra kažkas už to, ką galite pajusti. Vietoj to, ką mes visi darome – mes priimame realybę tokią, kokia mums pateikiama.
Let's do a consciousness-raiser on this. Imagine that you are a bloodhound dog. Your whole world is about smelling. You've got a long snout that has 200 million scent receptors in it, and you have wet nostrils that attract and trap scent molecules, and your nostrils even have slits so you can take big nosefuls of air. Everything is about smell for you. So one day, you stop in your tracks with a revelation. You look at your human owner and you think, "What is it like to have the pitiful, impoverished nose of a human? (Laughter) What is it like when you take a feeble little noseful of air? How can you not know that there's a cat 100 yards away, or that your neighbor was on this very spot six hours ago?" (Laughter)
Pakelkime savo sąmoningumą. Įsivaizduokite, jūs esate šuo pėdsekys. Visas jūsų pasaulis yra uoslė. Jūs turite ilgą snukį su 200 milijonų kvapų receptorių ir drėgnas šnerves, kurios traukia ir gaudo kvapų molekules, ir jūsų šnervės netgi turi plyšius, kad galėtumėte giliai įkvėpti oro. Viskas jums yra kvapas. Vieną dieną jūs sustojate savo takeliuose su atradimu. Jūs žiūrite į savo šeimininką žmogų ir galvojate, „Koks jausmas turėti tokią niekingą, skurdžią žmogaus nosį?“ (Juokas.) Koks jausmas, kai gali įkvėpti tiek mažai oro? Kaip tu gali nežinoti, kad už 91 metro yra katė, ar kad tavo kaimynas buvo lygiai toje pačioje vietoje prieš 6 val.? (Juokas.)
So because we're humans, we've never experienced that world of smell, so we don't miss it, because we are firmly settled into our umwelt. But the question is, do we have to be stuck there? So as a neuroscientist, I'm interested in the way that technology might expand our umwelt, and how that's going to change the experience of being human.
Todėl, kad esame žmonės, mes niekada nepatyrėme kvapų pasaulio, todėl jo nepasigendame, nes esame stipriai įsitaisę savo „umwelt“. Bet kyla klausimas, ar mums būtina čia būti? Kaip neuromokslininkas domiuosi, kaip technologijos galėtų praplėsti mūsų „umwelt“, ir kaip tai pakeistų mūsų žmogiškąją patirtį.
So we already know that we can marry our technology to our biology, because there are hundreds of thousands of people walking around with artificial hearing and artificial vision. So the way this works is, you take a microphone and you digitize the signal, and you put an electrode strip directly into the inner ear. Or, with the retinal implant, you take a camera and you digitize the signal, and then you plug an electrode grid directly into the optic nerve. And as recently as 15 years ago, there were a lot of scientists who thought these technologies wouldn't work. Why? It's because these technologies speak the language of Silicon Valley, and it's not exactly the same dialect as our natural biological sense organs. But the fact is that it works; the brain figures out how to use the signals just fine.
Mes jau žinome, kad galime pritaikyti technologijas savo biologijai, nes yra šimtai tūkstančių žmonių aplink mus su dirbtine klausa ir dirbtine rega. Tai veikia taip, paimi mikrofoną ir suskaitmenini signalą, ir įdedi elektrodo juostelę tiesiai į vidinę ausį. Arba, su tinklainės implantu, paimi kamerą ir suskaitmenini signalą, ir tada prijungi elektrodo tinklelį tiesiai į akies nervą. Prieš 15 metų buvo daug mokslininkų, manančių, kad šios technologijos neveiks. Kodėl? Todėl kad šios technologijos kalba Silicio slėnio kalba ir tai ne tas pats dialektas, kaip mūsų natūralūs biologiniai jutimų organai. Bet faktas tas, jie veikia; smegenys puikiai perpranta kaip naudoti signalus.
Now, how do we understand that? Well, here's the big secret: Your brain is not hearing or seeing any of this. Your brain is locked in a vault of silence and darkness inside your skull. All it ever sees are electrochemical signals that come in along different data cables, and this is all it has to work with, and nothing more. Now, amazingly, the brain is really good at taking in these signals and extracting patterns and assigning meaning, so that it takes this inner cosmos and puts together a story of this, your subjective world.
Kaip mes tai suprantame? Štai didžioji paslaptis: jūsų smegenys negirdi ir nemato nieko. Jūsų smegenys užrakintos tyloje ir tamsoje, jūsų kaukolėje. Viskas, ką jos mato, yra elektrocheminiai signalai, kurie ateina skirtingais duomenų laidais, ir tai tėra viskas, su kuo jos dirba, ir nieko daugiau. Nuostabu tai, kad smegenims puikiai sekasi priimti šiuos signalus ir atrinkti modelius, ir priskirti reikšmę, taip, kad paima vidinį kosmosą ir sudeda į vieną istoriją to, kas yra jūsų subjektyvus pasaulis.
But here's the key point: Your brain doesn't know, and it doesn't care, where it gets the data from. Whatever information comes in, it just figures out what to do with it. And this is a very efficient kind of machine. It's essentially a general purpose computing device, and it just takes in everything and figures out what it's going to do with it, and that, I think, frees up Mother Nature to tinker around with different sorts of input channels.
Bet čia slypi svarbiausias dalykas: Jūsų smegenys nežino, ir joms nerūpi, iš kur jos gauna duomenis. Bet kokiai informacijai atėjus, jos tik aiškinasi, ką su ja daryti. Todėl tai yra labai efektyvi mašina. Tai yra iš esmės bendrosios paskirties kompiuterinis įrenginys, ir jis paima viską ir išsiaiškina, ką jam daryti, ir tai, manau, išlaisvina Motiną gamtą nuo krapštinėjimosi aplink su skirtingos rūšies įėjimo kanalais.
So I call this the P.H. model of evolution, and I don't want to get too technical here, but P.H. stands for Potato Head, and I use this name to emphasize that all these sensors that we know and love, like our eyes and our ears and our fingertips, these are merely peripheral plug-and-play devices: You stick them in, and you're good to go. The brain figures out what to do with the data that comes in. And when you look across the animal kingdom, you find lots of peripheral devices. So snakes have heat pits with which to detect infrared, and the ghost knifefish has electroreceptors, and the star-nosed mole has this appendage with 22 fingers on it with which it feels around and constructs a 3D model of the world, and many birds have magnetite so they can orient to the magnetic field of the planet. So what this means is that nature doesn't have to continually redesign the brain. Instead, with the principles of brain operation established, all nature has to worry about is designing new peripherals.
Vadinu tai BG evoliucijos modeliu, nenoriu būti pernelyg techniškas, bet BG reiškia Bulviagalvis, naudoju šį vardą norėdamas akcentuoti, kad visi šie pojūčiai, kuriuos žinome ir mylime, kaip mūsų akys, ausys ir pirštų galiukai, jie yra paprasčiausiai išoriniai prijunk-ir-žaisk įrenginiai: tu juos prijungi ir tau gerai. Smegenys supranta, ką daryti su gaunamais duomenimis. Kai apsidairai gyvūnų karalystėje, randi daugybę išorinių įrenginių. Gyvatės turi šilumos skylutes, kurios nustato infraraudonuosius spindulius, o vairauodegė peiliažuvė turi elektroreceptorius, ir žvaigždžiasnukis kurmis turi šią galūnę su 22 pirštais, su kuriais jis jaučia aplinką ir kuria pasaulio 3D modelį, ir daug paukščių turi magnetitą, kad galėtų orientuotis pagal magnetinį planetos lauką. Tai reiškia, kad gamtai nereikia nuolat perkurti smegenų. Vietoj to, su nustatytais smegenų veikimo principais visa gamta turi rūpintis naujų išorinių įrenginių kūrimu.
Okay. So what this means is this: The lesson that surfaces is that there's nothing really special or fundamental about the biology that we come to the table with. It's just what we have inherited from a complex road of evolution. But it's not what we have to stick with, and our best proof of principle of this comes from what's called sensory substitution. And that refers to feeding information into the brain via unusual sensory channels, and the brain just figures out what to do with it.
Gerai. Tai reiškia tai: Iš to kyla pamoka, kad nėra nieko ypatingo ar esminio tai biologijai, su kuria mes gimstame. Tai tėra tai, ką mes paveldėjome iš sudėtingos evoliucijos kelio. Bet tai nėra tai, ko turėtume laikytis, geriausias šio principo įrodymas kyla iš taip vadinamo jutimų pakeitimo. Tai remiasi informacijos tiekimu smegenims per neįprastus jutimo kanalus, ir smegenys tiesiog išsiaiškina, ką joms su tuo daryti.
Now, that might sound speculative, but the first paper demonstrating this was published in the journal Nature in 1969. So a scientist named Paul Bach-y-Rita put blind people in a modified dental chair, and he set up a video feed, and he put something in front of the camera, and then you would feel that poked into your back with a grid of solenoids. So if you wiggle a coffee cup in front of the camera, you're feeling that in your back, and amazingly, blind people got pretty good at being able to determine what was in front of the camera just by feeling it in the small of their back. Now, there have been many modern incarnations of this. The sonic glasses take a video feed right in front of you and turn that into a sonic landscape, so as things move around, and get closer and farther, it sounds like "Bzz, bzz, bzz." It sounds like a cacophony, but after several weeks, blind people start getting pretty good at understanding what's in front of them just based on what they're hearing. And it doesn't have to be through the ears: this system uses an electrotactile grid on the forehead, so whatever's in front of the video feed, you're feeling it on your forehead. Why the forehead? Because you're not using it for much else.
Tai gali skambėti hipotetiškai, bet pirmas pranešimas apie tai buvo paskelbtas žurnale „Nature“ 1969 m. Mokslininkas Paul Bach-y-Rita pasodino aklus žmones į modifikuotą odontologo kėdę ir įrengė vaizdo padavimą, ir padėjo kažką prieš kamerą, tada, kad tą pajustum, įkišo į nugarą solenoidų tinklelį. Taigi, jei pamojuotum kavos puoduku prieš kamerą, jūs pajustumėte tai savo nugaroje, nuostabu tai, kad akliems žmonėms gana gerai sekėsi nustatyti, kas buvo rodoma prieš kamerą, tiesiog jaučiant tai savo nugaros ploteliu. Buvo daug šiuolaikinių šio eksperimento pakartojimų. Akustiniai akiniai paima vaizdo prieš tave tiekimą ir paverčia jį į akustinį landšaftą, kai daiktai juda aplinkui, priartėja ir nutolsta, jie skamba, kaip „Bzz, bzz, bzz“. Skamba kaip kakofonija, bet po kelių savaičių aklieji pradėjo gana gerai suprasti, kas yra prieš juos, vien remdamiesi tuo, ką girdi. Ir tai nebūtinai turi būti per klausą: sistema naudoja elektrojutiklių tinklelį, dedamą ant kaktos, taigi kad ir kas tai būtų, jūs jausite tai savo kakta. Kodėl kakta? Todėl kad nenaudojote jos kažkam daugiau.
The most modern incarnation is called the brainport, and this is a little electrogrid that sits on your tongue, and the video feed gets turned into these little electrotactile signals, and blind people get so good at using this that they can throw a ball into a basket, or they can navigate complex obstacle courses. They can come to see through their tongue. Now, that sounds completely insane, right? But remember, all vision ever is is electrochemical signals coursing around in your brain. Your brain doesn't know where the signals come from. It just figures out what to do with them.
Moderniausias įkūnijimas vadinamas „smegenų uostu“, ir tai yra mažas elektrotinklelis, telpantis ant liežuvio, vaizdo kanalas paverčiamas į šiuos mažus elektrojutiminius signalus, ir akli žmonės tiek įgunda tai naudoti, kad gali įmesti kamuolį į krepšį, arba gali įveikti sudėtingus kliūčių takus. Jie gali matyti per savo liežuvį. Tai skamba visiškai beprotiškai, tiesa? Atminkite, visas regėjimas yra elektrocheminiai signalai, besisukantys jūsų smegenyse. Jūsų smegenys nežino, iš kur ateina signalai. Jos tik supranta, ką su jais daryti.
So my interest in my lab is sensory substitution for the deaf, and this is a project I've undertaken with a graduate student in my lab, Scott Novich, who is spearheading this for his thesis. And here is what we wanted to do: we wanted to make it so that sound from the world gets converted in some way so that a deaf person can understand what is being said. And we wanted to do this, given the power and ubiquity of portable computing, we wanted to make sure that this would run on cell phones and tablets, and also we wanted to make this a wearable, something that you could wear under your clothing. So here's the concept. So as I'm speaking, my sound is getting captured by the tablet, and then it's getting mapped onto a vest that's covered in vibratory motors, just like the motors in your cell phone. So as I'm speaking, the sound is getting translated to a pattern of vibration on the vest. Now, this is not just conceptual: this tablet is transmitting Bluetooth, and I'm wearing the vest right now. So as I'm speaking -- (Applause) -- the sound is getting translated into dynamic patterns of vibration. I'm feeling the sonic world around me.
Taigi savo laboratorijoje domiuosi jutimų pakeitimu kurtiesiems, tai mano vykdomas projektas su absolventu Scott Novich, kuris tai daro dėl savo disertacijos. Ir štai ką norėjome padaryti: norėjome padaryti, kad pasaulio garsas būtų konvertuotas kažkokiu būdu, kad kurčiasis galėtų suprasti, kas buvo pasakyta. Ir norėjome padaryti tai, suteikiant nešiojamos kompiuterijos galią, taip pat užtikrinti, kad tai veiktų su mobiliaisiais telefonais ir planšetėmis, ir kad tai būtų galima dėvėti, kad galėtum užsivilkti po drabužiais. Štai čia konceptas. Kai aš kalbu, garsas yra fiksuojamas planšetės, ir tada jis pažymimas liemenėje, kuri padengta vibraciniais jutikliais, visai kaip jutikliai jūsų telefone. Taigi, kai aš kalbu, garsas išverčiamas į vibruojantį raštą liemenėje. Tai ne tik konceptualu: ši planšetė perduoda Bluetooth ryšiu, ir aš dabar vilkiu šią liemenę. Taigi, kai kalbu – (Ploja) – garsas yra paverčiamas į dinamiškus vibracijos raštus. Jaučiu aplink save garsų pasaulį.
So, we've been testing this with deaf people now, and it turns out that after just a little bit of time, people can start feeling, they can start understanding the language of the vest.
Dabar mes tai testuojame su kurčiais žmonėmis, ir paaiškėja, kad praėjus tik šiek tiek laiko, žmonės pradeda jausti ir suprasti liemenės kalbą.
So this is Jonathan. He's 37 years old. He has a master's degree. He was born profoundly deaf, which means that there's a part of his umwelt that's unavailable to him. So we had Jonathan train with the vest for four days, two hours a day, and here he is on the fifth day.
Štai čia Jonathan. Jam 37. Turi magistro laipsnį. Jis gimė visiškai kurčias, tai reiškia, kad dalis „umwelt“ nėra jam prieinama. Jonathan treniravosi su liemene keturias dienas, po dvi valandas per dieną, ir štai jis penktą dieną.
Scott Novich: You.
Scott Novich: Tu.
David Eagleman: So Scott says a word, Jonathan feels it on the vest, and he writes it on the board.
David Eagleman: Scott pasako žodį, Jonathan pajaučia jį liemenėje ir parašo jį ant lentos.
SN: Where. Where.
S.N.: Kur. Kur.
DE: Jonathan is able to translate this complicated pattern of vibrations into an understanding of what's being said.
D.E.: Jonathan sugeba išversti šį sudėtingą vibracijos raštą į supratimą, kas yra sakoma.
SN: Touch. Touch.
S.N.: Liesti. Liesti.
DE: Now, he's not doing this -- (Applause) -- Jonathan is not doing this consciously, because the patterns are too complicated, but his brain is starting to unlock the pattern that allows it to figure out what the data mean, and our expectation is that, after wearing this for about three months, he will have a direct perceptual experience of hearing in the same way that when a blind person passes a finger over braille, the meaning comes directly off the page without any conscious intervention at all. Now, this technology has the potential to be a game-changer, because the only other solution for deafness is a cochlear implant, and that requires an invasive surgery. And this can be built for 40 times cheaper than a cochlear implant, which opens up this technology globally, even for the poorest countries.
D.E.: Jis to nedaro – (Ploja) Jonathan nedaro to sąmoningai, nes signalų kalba yra per sunki, bet jo smegenys pradeda suprasti šią kalbą, kas leidžia jam suprasti duomenų reikšmę, ir mes tikimės, kad po trijų mėnesių vilkint liemenę jis turės tiesioginę girdėjimo suvokimo patirtį tokiu pačiu būdu, kaip aklasis braukia pirštu per Brailio raštą, ir reikšmė ateina savaime be jokio sąmoningo įsikišimo. Ši technologija turi potencialo pakeisti esamą situaciją, nes vienintelis kitas sprendimas kurtiesiems yra vidinės ausies implantas, kuriam reikia invazinės chirurgijos. Tai galima sukurti 40 kartų pigiau, nei vidinės ausies implantas, ir tai atveria technologijai kelią į pasaulį, net ir skurdžiausiose šalyse.
Now, we've been very encouraged by our results with sensory substitution, but what we've been thinking a lot about is sensory addition. How could we use a technology like this to add a completely new kind of sense, to expand the human umvelt? For example, could we feed real-time data from the Internet directly into somebody's brain, and can they develop a direct perceptual experience?
Mus labai padrąsino jutimų pakeitimo rezultatai, bet mes daug galvojome apie jutimų pridėjimą. Kaip galėtume panaudoti technologiją, kad pridėtume visiškai naujo tipo jutimą ir išplėstume žmogaus „umwelt“? Pavyzdžiui, ar galėtume tiekti duomenis realiu laiku iš interneto tiesiai į kažkieno smegenis, ir ar jis gali sukurti tiesioginio suvokimo patirtį?
So here's an experiment we're doing in the lab. A subject is feeling a real-time streaming feed from the Net of data for five seconds. Then, two buttons appear, and he has to make a choice. He doesn't know what's going on. He makes a choice, and he gets feedback after one second. Now, here's the thing: The subject has no idea what all the patterns mean, but we're seeing if he gets better at figuring out which button to press. He doesn't know that what we're feeding is real-time data from the stock market, and he's making buy and sell decisions. (Laughter) And the feedback is telling him whether he did the right thing or not. And what we're seeing is, can we expand the human umvelt so that he comes to have, after several weeks, a direct perceptual experience of the economic movements of the planet. So we'll report on that later to see how well this goes. (Laughter)
Štai čia mūsų laboratorijoje daromas eksperimentas. Subjektas jaučia realiu laiku transliuojamus tinklo duomenis penkias sekundes. Tada pasirodo du mygtukai, ir jis turi pasirinkti. Jis nežino, kas vyksta. Jis pasirenka ir jis gauna atsakymą po sekundės. Dalykas toks: subjektas neturi supratimo, ką šitie signalai reiškia, bet mes matome, ar jis pradeda geriau suprasti, kurį mygtuką spausti. Jis nežino, kad jam tiekiame duomenis iš akcijų rinkos realiu laiku, jis priima sprendimus pirkti ar parduoti. (Juokas.) Grįžtamasis ryšys pasako jam, ar jis nusprendė teisingai ar ne. Ir štai ką matome, ar galime išplėsti žmogaus „umwelt“ taip, kad jis po kelių savaičių turėtų tiesioginio suvokimo patirtį apie planetos ekonomikos dinamiką. Pranešime apie tai vėliau, kaip gerai tai eisis. (Juokas.)
Here's another thing we're doing: During the talks this morning, we've been automatically scraping Twitter for the TED2015 hashtag, and we've been doing an automated sentiment analysis, which means, are people using positive words or negative words or neutral? And while this has been going on, I have been feeling this, and so I am plugged in to the aggregate emotion of thousands of people in real time, and that's a new kind of human experience, because now I can know how everyone's doing and how much you're loving this. (Laughter) (Applause) It's a bigger experience than a human can normally have.
Yra dar kitas dalykas, kurį darome: per šio ryto kalbas mes automatiškai naršėme „Twitter“ ieškodami žymos „TED2015“ ir padarėme automatinio požiūrio analizę, tai reiškia, ar žmonės naudoja pozityvius, negatyvius ar neutralius žodžius? Ir kol tai darėme, aš tai jutau, taigi esu prisijungęs prie bendros emocijos tūkstančių žmonių realiu laiku, ir tai naujo tipo žmogaus patirtis, nes dabar aš galiu žinoti, kaip visiems sekasi ir kaip jums tai patinka. (Juokas.) (Plojimai.) Tai didesnė patirtis, nei įprastai žmogus gali patirti.
We're also expanding the umvelt of pilots. So in this case, the vest is streaming nine different measures from this quadcopter, so pitch and yaw and roll and orientation and heading, and that improves this pilot's ability to fly it. It's essentially like he's extending his skin up there, far away.
Taip pat mes plečiame pilotų „umwelt“. Šiuo atveju liemenė transliuoja devynis skirtingus matavimus iš šio kvadrakopterio: aukštis, pokrypis, siūbavimas, orientacija ir kursas, ir tai pagerina piloto sugebėjimą jį skraidinti. Iš esmės tai – tarsi jis išplėstų savo odą į tolį.
And that's just the beginning. What we're envisioning is taking a modern cockpit full of gauges and instead of trying to read the whole thing, you feel it. We live in a world of information now, and there is a difference between accessing big data and experiencing it.
Ir tai tik pradžia. Ką mes įžvelgiame, paimame modernią piloto kabiną, pilną matuoklių, ir užuot bandę viską suprasti, tiesiog tai jaučiame. Dabar gyvename informacijos pasaulyje, ir yra skirtumas tarp didelių duomenų pasiekimo ir jų patyrimo.
So I think there's really no end to the possibilities on the horizon for human expansion. Just imagine an astronaut being able to feel the overall health of the International Space Station, or, for that matter, having you feel the invisible states of your own health, like your blood sugar and the state of your microbiome, or having 360-degree vision or seeing in infrared or ultraviolet.
Manau, kad tikrai nėra ribų galimybėms žmogaus erdvės horizonte. Tiesiog įsivaizduokite astronautą, galintį jausti visą tarptautinės kosminės stoties būklę, ar, kalbant apie tai, ar kada jautėte nepastebimas savo sveikatos būkles, kaip cukrus jūsų kraujyje, ir jūsų mikrobiomo būklė, arba matyti 360 laipsnių, ar infraraudo- nuosius ar ultravioletinius spindulius.
So the key is this: As we move into the future, we're going to increasingly be able to choose our own peripheral devices. We no longer have to wait for Mother Nature's sensory gifts on her timescales, but instead, like any good parent, she's given us the tools that we need to go out and define our own trajectory. So the question now is, how do you want to go out and experience your universe?
Pagrindinė mintis: kadangi judame į ateitį, mes vis labiau galėsime pasirinkti savo išorinius įrenginius. Mums nebereikia laukti jutimo dovanų iš Motinos gamtos pagal jos terminus, bet vietoj to, kaip visi geri tėvai, ji suteikė mums reikalingus įrankius išeiti ir apibrėžti savo trajektoriją. Dabar tik klausimas, kaip jūs norite patirti savo pasaulį?
Thank you.
Dėkoju.
(Applause)
(Plojimai.)
Chris Anderson: Can you feel it? DE: Yeah.
Chris Anderson: Ar jaučiate tai? D.E.: Taip.
Actually, this was the first time I felt applause on the vest. It's nice. It's like a massage. (Laughter)
Išties tai pirmas kartas, kai pajutau plojimus ant liemenės. Malonu. Visai kaip masažas. (Juokas.)
CA: Twitter's going crazy. Twitter's going mad. So that stock market experiment. This could be the first experiment that secures its funding forevermore, right, if successful?
C.A.: „Twitter“ kraustosi iš proto. Šis akcijų rinkos eksperimentas. Tai galėtų būti pirmas eksperimentas, kuris užtikrina savo finansavimą amžinai, tiesa, jeigu jis sėkmingas?
DE: Well, that's right, I wouldn't have to write to NIH anymore.
D.E.: Na, teisingai, man nebereikėtų rašyti daugiau į NIH.
CA: Well look, just to be skeptical for a minute, I mean, this is amazing, but isn't most of the evidence so far that sensory substitution works, not necessarily that sensory addition works? I mean, isn't it possible that the blind person can see through their tongue because the visual cortex is still there, ready to process, and that that is needed as part of it?
C.A.: Ką gi, leiskite pabūti trumpam skeptiku, turiu minty, tai nuostabu, bet dar nėra daug įrodymų, kad jutimų pakeitimas veikia, nebūtinai, kad jutimų pridėjimas veikia? Turiu omeny, ar nėra įmanoma, kad aklas žmogus gali matyti per savo liežuvį, nes vis dar yra už regą atsakinga smegenų žievės dalis, ir tai tėra reikalinga kaip dalis to?
DE: That's a great question. We actually have no idea what the theoretical limits are of what kind of data the brain can take in. The general story, though, is that it's extraordinarily flexible. So when a person goes blind, what we used to call their visual cortex gets taken over by other things, by touch, by hearing, by vocabulary. So what that tells us is that the cortex is kind of a one-trick pony. It just runs certain kinds of computations on things. And when we look around at things like braille, for example, people are getting information through bumps on their fingers. So I don't think we have any reason to think there's a theoretical limit that we know the edge of.
D.E.: Puikus klausimas. Tiesą sakant, mes nežinome, kokios yra teorinės ribos, kokio tipo duomenis smegenys gali priimti. Tačiau bendrai kalbant, jos nepaprastai lanksčios. Kai žmogus tampa aklu, ką mes vadindavome vizualine žieve perimama kitų dalykų – lietimo, klausos, leksikos. Tai sako mums, kad ši smegenų dalis tėra vieno triuko meistrė. Ji tik atlieka tam tikrus dalykų apskaičiavimus. Ir, pavyzdžiui, kai pažvelgiame į Brailio raštą, žmonės gauna informaciją pirštų galiukais. Nemanau, kad turime kokią priežastį manyti, kad yra teorinė riba, kurios žinotume bent kraštelį.
CA: If this checks out, you're going to be deluged. There are so many possible applications for this. Are you ready for this? What are you most excited about, the direction it might go? DE: I mean, I think there's a lot of applications here. In terms of beyond sensory substitution, the things I started mentioning about astronauts on the space station, they spend a lot of their time monitoring things, and they could instead just get what's going on, because what this is really good for is multidimensional data. The key is this: Our visual systems are good at detecting blobs and edges, but they're really bad at what our world has become, which is screens with lots and lots of data. We have to crawl that with our attentional systems. So this is a way of just feeling the state of something, just like the way you know the state of your body as you're standing around. So I think heavy machinery, safety, feeling the state of a factory, of your equipment, that's one place it'll go right away.
C.A.: Jei tai pasitvirtins, jus užtvindins. Yra tiek daug galimų programų tam. Ar esate tam pasiruošęs? Kas labiausiai jus jaudina, kur tai gali nuvesti? D.E.: Turiu omeny, manau, yra daug programų. Kalbant už jutimų pakeitimo ribų, pradėjau minėti dalykus apie astronautus kosminėje stotyje, jie praleidžia daug savo laiko stebėdami dalykus, vietoj to, jie galėtų tiesiog žinoti, kas vyksta, nes, kuo tai yra gerai, tai yra daugiamačiai duomenys. Esmė tame: mūsų vizualinės sistemos yra geros nustatant lašus ir kraštus, bet jos niekam tikusios tam, kuo tapo mūsų pasaulis, tai yra ekranai su daugybe duomenų. Mes turime tai aprėpti savo dėmesio sistemomis. Taigi tai yra būdas tiesiog jausti kažkieno būseną, visai kaip jūs žinote savo kūno būseną, kai stovite. Manau, kad sunkūs mechanizmai, saugumas, fabriko būsenos, jūsų įrangos jutimas, visa tai nueis šalin.
CA: David Eagleman, that was one mind-blowing talk. Thank you very much.
C.A.: David Eagleman, tai buvo įspūdinga kalba. Ačiū jums labai.
DE: Thank you, Chris. (Applause)
DE: Dėkoju, Chris. (Plojimai.)