We are built out of very small stuff, and we are embedded in a very large cosmos, and the fact is that we are not very good at understanding reality at either of those scales, and that's because our brains haven't evolved to understand the world at that scale.
Jesteśmy stworzeni z bardzo małych części. Jesteśmy osadzeni w bardzo dużym kosmosie. Nie rozumiemy jednak zbyt dobrze jak wygląda rzeczywistość w obu tych skalach. Nasze mózgi nie wyewoluowały na tyle, by zrozumieć świat w tej skali. W zamian za to jesteśmy uwięzieni na bardzo cienkim plasterku percepcji
Instead, we're trapped on this very thin slice of perception right in the middle. But it gets strange, because even at that slice of reality that we call home, we're not seeing most of the action that's going on. So take the colors of our world. This is light waves, electromagnetic radiation that bounces off objects and it hits specialized receptors in the back of our eyes. But we're not seeing all the waves out there. In fact, what we see is less than a 10 trillionth of what's out there. So you have radio waves and microwaves and X-rays and gamma rays passing through your body right now and you're completely unaware of it, because you don't come with the proper biological receptors for picking it up. There are thousands of cell phone conversations passing through you right now, and you're utterly blind to it.
gdzieś pośrodku. To wygląda dziwne. Nawet jeśli ten plasterek można nazwać domem, nie widzimy większości rzeczy, które się w nim dzieją. Popatrzcie na kolory naszego świata. To promieniowanie elektromagnetyczne, fale światła odbijające się od obiektów i trafiające w specjalne receptory z tyłu naszych oczu. Nie zobaczymy wszystkich fal. Tak naprawdę to, co widzimy, to mniej niż jedna bilionowa fal istniejących w przyrodzie. Mamy fale radiowe i mikrofale, promieniowanie X i gamma. Nawet teraz przenikają wasze ciała, a wy tego nie zauważacie, ponieważ nie macie odpowiednich receptorów biologicznych, by je odebrać. Tysiące rozmów telefonicznych przechodzą przez was w tym momencie i jesteście na to kompletnie ślepi.
Now, it's not that these things are inherently unseeable. Snakes include some infrared in their reality, and honeybees include ultraviolet in their view of the world, and of course we build machines in the dashboards of our cars to pick up on signals in the radio frequency range, and we built machines in hospitals to pick up on the X-ray range. But you can't sense any of those by yourself, at least not yet, because you don't come equipped with the proper sensors.
To nie tak, że nie widzimy ich z natury. Węże wykorzystują w badaniu rzeczywistości niektóre fragmenty pasma podczerwieni, a pszczoły patrzą na świat używając ultrafioletu, Budujemy maszyny umieszczane w naszych samochodach, które zbierają sygnały w zakresie częstotliwości radiowych. Budujemy urządzenia do szpitali, które widzą promieniowanie rentgenowskie. Nie możemy jednak odczuć tego sami, a przynajmniej nie teraz, ponieważ nie obdarzono nas odpowiednimi receptorami.
Now, what this means is that our experience of reality is constrained by our biology, and that goes against the common sense notion that our eyes and our ears and our fingertips are just picking up the objective reality that's out there. Instead, our brains are sampling just a little bit of the world.
Oznacza to, że nasze doświadczenie rzeczywistości jest ograniczane naszą biologią, co stoi w sprzeczności ze zdrowym rozsądkiem, twierdzącym, że nasze oczy, uszy i palce odczuwają rzeczywistość taką, jaką jest. Zamiast tego nasze mózgi rejestrują tylko mały kawałek świata. W królestwie zwierząt
Now, across the animal kingdom, different animals pick up on different parts of reality. So in the blind and deaf world of the tick, the important signals are temperature and butyric acid; in the world of the black ghost knifefish, its sensory world is lavishly colored by electrical fields; and for the echolocating bat, its reality is constructed out of air compression waves. That's the slice of their ecosystem that they can pick up on, and we have a word for this in science. It's called the umwelt, which is the German word for the surrounding world. Now, presumably, every animal assumes that its umwelt is the entire objective reality out there, because why would you ever stop to imagine that there's something beyond what we can sense. Instead, what we all do is we accept reality as it's presented to us.
różne zwierzęta rejestrują różne części rzeczywistości. W ślepym i głuchym świecie kleszcza ważne są ciepło i kwas masłowy. Dla ducha brazylijskiego rzeczywistość jest mozaiką pól elektrycznych. Wykorzystujący echolokację nietoperz widzi świat zbudowany z różnicy ciśnień powietrza. To kawałki ekosystemu, które są w stanie zarejestrować. Nauka ma na to słowo. Nazywamy to "umwelt", niemieckim słowem oznaczającym otaczający nas świat. Prawdopodobnie każde zwierzę zakłada, że jego "umwelt" to cała, obiektywna rzeczywistość. Po co bowiem wyobrażać sobie, że jest coś więcej niż to, co czujemy? Akceptujemy rzeczywistość taką, jaka jest nam pokazywana.
Let's do a consciousness-raiser on this. Imagine that you are a bloodhound dog. Your whole world is about smelling. You've got a long snout that has 200 million scent receptors in it, and you have wet nostrils that attract and trap scent molecules, and your nostrils even have slits so you can take big nosefuls of air. Everything is about smell for you. So one day, you stop in your tracks with a revelation. You look at your human owner and you think, "What is it like to have the pitiful, impoverished nose of a human? (Laughter) What is it like when you take a feeble little noseful of air? How can you not know that there's a cat 100 yards away, or that your neighbor was on this very spot six hours ago?" (Laughter)
Poszerzmy naszą świadomość. Wyobraź sobie, że jesteś psem gończym. Twój cały świat składa się z zapachów. Masz długi pysk zawierający 200 milionów receptorów zapachowych. Masz mokre nozdrza, które przyciągają cząsteczki zapachu. Twoje nozdrza mają nacięcia, możesz więc wciągać nosem masę powietrza. Zapach jest dla ciebie wszystkim. Pewnego dnia zatrzymujesz się i doznajesz olśnienia. Patrzysz na swojego właściciela i myślisz: "Jak to jest mieć taki zubożały, żałosny nos człowieka? (Śmiech) Jak to jest, gdy można brać nosem tylko małe oddechy? Jak możesz nie wiedzieć, że sto metrów od ciebie jest kot albo że sąsiad był w tym miejscu sześć godzin temu?" (Śmiech)
So because we're humans, we've never experienced that world of smell, so we don't miss it, because we are firmly settled into our umwelt. But the question is, do we have to be stuck there? So as a neuroscientist, I'm interested in the way that technology might expand our umwelt, and how that's going to change the experience of being human.
Ponieważ jesteśmy ludźmi nigdy nie doświadczyliśmy takiego świata zapachów. Nie tęsknimy za nim, gdyż jesteśmy przyzwyczajeni do naszego umwelt. Ale czy tak musi być? Jako neurolog zastanawiam się w jaki sposób technologia może rozszerzyć nasz umwelt, jak zmieni to doświadczenie bycia człowiekiem.
So we already know that we can marry our technology to our biology, because there are hundreds of thousands of people walking around with artificial hearing and artificial vision. So the way this works is, you take a microphone and you digitize the signal, and you put an electrode strip directly into the inner ear. Or, with the retinal implant, you take a camera and you digitize the signal, and then you plug an electrode grid directly into the optic nerve. And as recently as 15 years ago, there were a lot of scientists who thought these technologies wouldn't work. Why? It's because these technologies speak the language of Silicon Valley, and it's not exactly the same dialect as our natural biological sense organs. But the fact is that it works; the brain figures out how to use the signals just fine.
Wiemy już, że możemy ożenić technologię z biologią, są bowiem setki tysięcy ludzi ze sztucznym słuchem czy wzrokiem. Aby to działało, bierzesz mikrofon i rejestrujesz sygnał, po czym wkładasz elektrodę bezpośrednio do ucha wewnętrznego. Albo przy protezie oka bierzesz kamerę, rejestrujesz sygnał, po czym podłączasz elektrodę bezpośrednio do nerwu wzrokowego. Nie dalej jak 15 lat temu wielu naukowców twierdziło, że to nie zadziała. Dlaczego? Ponieważ technologie mówią językiem Doliny Krzemowej, nie tym samym, w którym działają nasze biologiczne zmysły. Ale jednak to działa. Mózg poprawnie zrozumiał jak ma używać sygnałów.
Now, how do we understand that? Well, here's the big secret: Your brain is not hearing or seeing any of this. Your brain is locked in a vault of silence and darkness inside your skull. All it ever sees are electrochemical signals that come in along different data cables, and this is all it has to work with, and nothing more. Now, amazingly, the brain is really good at taking in these signals and extracting patterns and assigning meaning, so that it takes this inner cosmos and puts together a story of this, your subjective world.
Jak to zrozumieliśmy? Oto wielka tajemnica: Twój mózg nic nie widzi ani nic nie słyszy. Twój mózg jest ulokowany w ciszy i ciemności twojej czaszki. Wszystko, czego doznaje, to sygnały elektrochemiczne, dane przychodzące z różnych systemów, i to jest wszystko, z czym pracuje. Tylko tyle. Co ciekawe, mózg jest bardzo dobry w zbieraniu sygnałów, rozpoznawaniu wzorów i przypisywaniu im znaczeń, tworzy wewnętrzny kosmos i składa historię twojego subiektywnego świata. Ale sedno jest tu:
But here's the key point: Your brain doesn't know, and it doesn't care, where it gets the data from. Whatever information comes in, it just figures out what to do with it. And this is a very efficient kind of machine. It's essentially a general purpose computing device, and it just takes in everything and figures out what it's going to do with it, and that, I think, frees up Mother Nature to tinker around with different sorts of input channels.
Twój mózg nie wie i nie obchodzi go, skąd dostaje dane. Jakąkolwiek informację dostaje, po prostu zastanawia się co z nią zrobić. To bardzo skuteczny model maszyny. To zasadniczo urządzenie komputerowe ogólnego przeznaczenia, które zbiera wszystko i zastanawia się, co z tym zrobić. Myślę, że to zwolniło Matkę Naturę z majstrowania z różnymi rodzajami kanałów wejściowych. Nazwałem to modelem ewolucji P.B.,
So I call this the P.H. model of evolution, and I don't want to get too technical here, but P.H. stands for Potato Head, and I use this name to emphasize that all these sensors that we know and love, like our eyes and our ears and our fingertips, these are merely peripheral plug-and-play devices: You stick them in, and you're good to go. The brain figures out what to do with the data that comes in. And when you look across the animal kingdom, you find lots of peripheral devices. So snakes have heat pits with which to detect infrared, and the ghost knifefish has electroreceptors, and the star-nosed mole has this appendage with 22 fingers on it with which it feels around and constructs a 3D model of the world, and many birds have magnetite so they can orient to the magnetic field of the planet. So what this means is that nature doesn't have to continually redesign the brain. Instead, with the principles of brain operation established, all nature has to worry about is designing new peripherals.
nie chcę wchodzić w szczegóły, ale P.B. pochodzi od Pana Bulwy, a użyłem tej nazwy, aby podkreślić, że te wszystkie czujniki, które znamy i używamy, takie jak oczy, uszy czy palce, są urządzeniami peryferyjnymi w systemie plug-and-play: Podłączasz i działa. Mózg sam ustala co zrobić, kiedy otrzymuje takie dane. Kiedy przyglądamy się królestwu zwierząt możemy znaleźć wiele urządzeń peryferyjnych. Węże mają wgłębienia, które wykrywają podczerwień, zaś duchy brazylijskie mają elektroreceptory. Gwiazdonos ma wypustki z 22 palcami, za pomocą których czuje i może tworzyć trójwymiarowe modele świata. Ptaki mają magnetyt pozwalający im nawigować za pomocą ziemskiego pola magnetycznego. Natura nie musi nieustannie zmieniać mózgu. Ustalono za pomocą badania mózgu, że jedyne co natura musi zrobić, to stworzenie nowych urządzeń peryferyjnych. Chciałem przez to pokazać,
Okay. So what this means is this: The lesson that surfaces is that there's nothing really special or fundamental about the biology that we come to the table with. It's just what we have inherited from a complex road of evolution. But it's not what we have to stick with, and our best proof of principle of this comes from what's called sensory substitution. And that refers to feeding information into the brain via unusual sensory channels, and the brain just figures out what to do with it.
że nie obdarzono nas biologicznie czymś ważnym lub specjalnym. Mamy to, co wykształciło się na skomplikowanej drodze ewolucji. Ale nie musimy się tego trzymać, a substytucja sensoryczna jest tego najlepszym dowodem. To przekazywanie informacji do mózgu za pomocą niezwykłych sensorów, a mózg tylko ustala, co z tym zrobić. To może brzmieć jak domysły,
Now, that might sound speculative, but the first paper demonstrating this was published in the journal Nature in 1969. So a scientist named Paul Bach-y-Rita put blind people in a modified dental chair, and he set up a video feed, and he put something in front of the camera, and then you would feel that poked into your back with a grid of solenoids. So if you wiggle a coffee cup in front of the camera, you're feeling that in your back, and amazingly, blind people got pretty good at being able to determine what was in front of the camera just by feeling it in the small of their back. Now, there have been many modern incarnations of this. The sonic glasses take a video feed right in front of you and turn that into a sonic landscape, so as things move around, and get closer and farther, it sounds like "Bzz, bzz, bzz." It sounds like a cacophony, but after several weeks, blind people start getting pretty good at understanding what's in front of them just based on what they're hearing. And it doesn't have to be through the ears: this system uses an electrotactile grid on the forehead, so whatever's in front of the video feed, you're feeling it on your forehead. Why the forehead? Because you're not using it for much else.
ale pierwszy artykuł to udowadniający został wydany w Nature w 1969 roku. Naukowiec Paul Bach-y-Rita sadzał niewidomych na zmodyfikowanym krześle dentystycznym i kiedy nagrywał materiał video, umieszczając coś przed obiektywem, byli oni szturchani wiązką solenoidów. Jeśli wstawisz filiżankę kawy przed obiektyw aparatu, poczujesz to na swoich plecach. Zaskakujące, ale niewidomi całkiem dobrze rozpoznawali, co znajduje się przed obiektywem tylko poprzez czucie tego na swoich plecach. Było wiele nowoczesnych wcieleń tego doświadczenia. Specjalne okulary dla niewidomych rejestrują obraz tuż przed tobą i zamieniają w krajobraz dźwięków. Jeśli coś się przemieszcza, oddala lub przybliża, słychać "Bzz, bzz, bzz". Słychać to jak kakofonię, ale po kilku tygodniach niewidomi zaczęli całkiem dobrze rozumieć, co znajduje się przed nimi, na podstawie tego, co słyszeli. Nie muszą nawet do tego używać uszu: system używa sieci elektrostatycznej na czole, więc zawsze, kiedy coś widzisz, czujesz to na swoim czole. Dlaczego czoło? Ponieważ raczej nie używasz go do innych rzeczy.
The most modern incarnation is called the brainport, and this is a little electrogrid that sits on your tongue, and the video feed gets turned into these little electrotactile signals, and blind people get so good at using this that they can throw a ball into a basket, or they can navigate complex obstacle courses. They can come to see through their tongue. Now, that sounds completely insane, right? But remember, all vision ever is is electrochemical signals coursing around in your brain. Your brain doesn't know where the signals come from. It just figures out what to do with them.
Najnowocześniejszy pomysł to tak zwany "brainport", mała elektromagnetyczna sieć zlokalizowana na języku, która zamienia materiał wideo w słabe impulsy elektrostatyczne. Niewidomi tak dobrze to wyćwiczyli, że mogą sami wrzucać piłki do kosza lub przechodzić skomplikowane tory przeszkód. Mogą widzieć swoim językiem. To brzmi zupełnie szalenie, prawda? Pamiętajcie, każdy obraz, który widzicie to elektrochemiczny sygnał krążący w twoim mózgu. Mózg nie wie, skąd ten sygnał pochodzi. Zastanawia się tylko co z tym zrobić.
So my interest in my lab is sensory substitution for the deaf, and this is a project I've undertaken with a graduate student in my lab, Scott Novich, who is spearheading this for his thesis. And here is what we wanted to do: we wanted to make it so that sound from the world gets converted in some way so that a deaf person can understand what is being said. And we wanted to do this, given the power and ubiquity of portable computing, we wanted to make sure that this would run on cell phones and tablets, and also we wanted to make this a wearable, something that you could wear under your clothing. So here's the concept. So as I'm speaking, my sound is getting captured by the tablet, and then it's getting mapped onto a vest that's covered in vibratory motors, just like the motors in your cell phone. So as I'm speaking, the sound is getting translated to a pattern of vibration on the vest. Now, this is not just conceptual: this tablet is transmitting Bluetooth, and I'm wearing the vest right now. So as I'm speaking -- (Applause) -- the sound is getting translated into dynamic patterns of vibration. I'm feeling the sonic world around me.
Zainteresowałem się stworzeniem sensorycznego substytutu dla osób głuchych i rozpocząłem ten projekt wraz z moim studentem, Scottem Novichem, który będzie na ten temat pisać pracę magisterską. Oto, co chcieliśmy zrobić: chcieliśmy spróbować skonwertować dźwięki świata zewnętrznego tak, aby osoba głucha mogła zrozumieć, co się do niej mówi. Chcieliśmy to zrobić, wykorzystując moc i dostępność komputerów przenośnych, chcieliśmy mieć pewność, że to zadziała na tabletach i telefonach komórkowych. Chcieliśmy też, aby było to poręczne, aby było to coś, co mógłbyś nosić pod ubraniem. To był nasz pomysł. Kiedy mówię, mój głos jest rejestrowany przez tablet, który odwzorowuje go poprzez kamizelkę pokrytą wibrującymi silniczkami, takimi jak w twojej komórce. Kiedy do was mówię, mój głos jest przekładany na wzór wibracji kamizelki. To nie jest tylko koncepcja. Tablet działa poprzez bluetooth, a ja mam tą kamizelkę na sobie. Kiedy do Was mówię... (Brawa) dźwięk jest przekształcany w wibracje kamizelki. Czuję świat akustyki będący dookoła mnie.
So, we've been testing this with deaf people now, and it turns out that after just a little bit of time, people can start feeling, they can start understanding the language of the vest.
Testowaliśmy to na głuchych ludziach, którzy po krótkim czasie zaczęli to czuć, zaczęli rozumieć język kamizelki. To jest Jonathan. Ma 37 lat. Jest magistrem.
So this is Jonathan. He's 37 years old. He has a master's degree. He was born profoundly deaf, which means that there's a part of his umwelt that's unavailable to him. So we had Jonathan train with the vest for four days, two hours a day, and here he is on the fifth day.
Urodził się głuchym, co oznacza, że jest część "umwelt", która jest dla niego niedostępna. Ćwiczyliśmy z Jonathanem i kamizelką przez cztery dni, dwie godziny dziennie a to jest dzień piąty. Scott Novich: You (Ty).
Scott Novich: You.
David Eagleman: Kiedy Scott powie słowo, Jonathan czuje to poprzez kamizelkę
David Eagleman: So Scott says a word, Jonathan feels it on the vest, and he writes it on the board.
i pisze je na tablicy. SN: Where. Where. (Gdzie)
SN: Where. Where.
DE: Jonatan jest w stanie przełożyć ten skomplikowany układ wibracji
DE: Jonathan is able to translate this complicated pattern of vibrations into an understanding of what's being said.
na słowo, które zostało wypowiedziane. SN: Touch. Touch. (Dotyk)
SN: Touch. Touch.
DE: On nie robi tego...
DE: Now, he's not doing this -- (Applause) -- Jonathan is not doing this consciously, because the patterns are too complicated, but his brain is starting to unlock the pattern that allows it to figure out what the data mean, and our expectation is that, after wearing this for about three months, he will have a direct perceptual experience of hearing in the same way that when a blind person passes a finger over braille, the meaning comes directly off the page without any conscious intervention at all. Now, this technology has the potential to be a game-changer, because the only other solution for deafness is a cochlear implant, and that requires an invasive surgery. And this can be built for 40 times cheaper than a cochlear implant, which opens up this technology globally, even for the poorest countries.
(Brawa) Johnatan nie robi tego świadomie, ponieważ te wzory są zbyt skomplikowane, ale jego mózg zaczyna rozumieć wzór, który pozwala ustalić, co oznaczą te dane. Oczekujemy, że po trzech miesiącach używania tej kamizelki będzie on miał bezpośrednie, percepcyjne doświadczenie słyszenia, takie samo, jakie mają niewidomi przesuwający palce po tekście w brajlu. Znaczenie pochodzi bezpośrednio od niego, bez jakiejkolwiek świadomej ingerencji. Ta technologia ma potencjał zmiany naszego działania, gdyż drugim rozwiązaniem dla głuchych jest implant ślimakowy, który wymaga inwazyjnego zabiegu chirurgicznego. Nasz pomysł może zostać wyprodukowany 40 razy taniej niż implant ślimakowy, co pozwala na użycie tej technologii nawet w najbiedniejszych krajach.
Now, we've been very encouraged by our results with sensory substitution, but what we've been thinking a lot about is sensory addition. How could we use a technology like this to add a completely new kind of sense, to expand the human umvelt? For example, could we feed real-time data from the Internet directly into somebody's brain, and can they develop a direct perceptual experience?
Bardzo zachęciły nas wyniki naszej substytucji zmysłu, ale to, nad czym myśleliśmy, to dodawanie zmysłów. Jak możemy użyć takiej technologii, aby stworzyć zupełnie nowy rodzaj czucia, aby rozszerzyć ludzki "umwelt"? Czy możemy na przykład przekazywać dane z Internetu w czasie rzeczywistym do czyjegoś mózgu, aby stworzyły bezpośrednie doświadczenie percepcyjne? Oto eksperyment, który zrobiliśmy w laboratorium.
So here's an experiment we're doing in the lab. A subject is feeling a real-time streaming feed from the Net of data for five seconds. Then, two buttons appear, and he has to make a choice. He doesn't know what's going on. He makes a choice, and he gets feedback after one second. Now, here's the thing: The subject has no idea what all the patterns mean, but we're seeing if he gets better at figuring out which button to press. He doesn't know that what we're feeding is real-time data from the stock market, and he's making buy and sell decisions. (Laughter) And the feedback is telling him whether he did the right thing or not. And what we're seeing is, can we expand the human umvelt so that he comes to have, after several weeks, a direct perceptual experience of the economic movements of the planet. So we'll report on that later to see how well this goes. (Laughter)
Tester ma wrażenie przekazu informacji z sieci w czasie rzeczywistym, przez pięć sekund. Następnie pojawiały się dwa przyciski, a on miał dokonać wyboru. On nie wie, co się dzieje. Wybiera i po sekundzie dostaje odpowiedź zwrotną. Chodzi o to: Obiekt nie ma pojęcia, co znaczą te wszystkie wzory, ale zauważyliśmy, że stawał się coraz lepszy w zgadywaniu, który guzik nacisnąć. Nie wie, że to, co mu przekazaliśmy to informacje giełdowe w czasie rzeczywistym, a on decyduje o kupnie i sprzedaży akcji. (Śmiech) Informacja zwrotna pokazuje mu, czy podjął dobrą, czy złą decyzję. To, co widzimy, to rozszerzenie ludzkiego "umwelt", spowodowanie, że po kilku tygodniach będziesz posiadał bezpośrednie percepcyjne doświadczenie działań światowej gospodarki. Będziemy się temu przyglądali, sprawdzali jak dobrze to działa. (Śmiech)
Here's another thing we're doing: During the talks this morning, we've been automatically scraping Twitter for the TED2015 hashtag, and we've been doing an automated sentiment analysis, which means, are people using positive words or negative words or neutral? And while this has been going on, I have been feeling this, and so I am plugged in to the aggregate emotion of thousands of people in real time, and that's a new kind of human experience, because now I can know how everyone's doing and how much you're loving this. (Laughter) (Applause) It's a bigger experience than a human can normally have.
Zrobiliśmy też inną rzecz: podczas porannych wystąpień automatycznie przeszukiwaliśmy Twittera, pod kątem hashtaga TED2015, a następnie robiliśmy zautomatyzowaną analizę, sprawdzaliśmy, jakich ludzie używają słów: pozytywnych, negatywnych czy neutralnych. A kiedy to się działo ja to czułem, zostałem podłączony do uśrednionej emocji tysięcy ludzi w czasie rzeczywistym. To nowy rodzaj ludzkiego doświadczenia, dający mi wiedzę o tym, jak każdemu poszło i jak każdy się podobał. (Śmiech) (Brawa) To mocniejsze doświadczenie, niż człowiek normalnie otrzymuje.
We're also expanding the umvelt of pilots. So in this case, the vest is streaming nine different measures from this quadcopter, so pitch and yaw and roll and orientation and heading, and that improves this pilot's ability to fly it. It's essentially like he's extending his skin up there, far away.
Rozszerzamy także "umwelt" pilotów. W tym przypadku kamizelka przekazuje dziewięć różnych pomiarów z tego drona, kąty nachylenia i obrotu, orientację i pozycję, co poprawia umiejętności pilota. To w zasadzie rozszerzenie jego skóry, przekazanie jej tam gdzieś, daleko.
And that's just the beginning. What we're envisioning is taking a modern cockpit full of gauges and instead of trying to read the whole thing, you feel it. We live in a world of information now, and there is a difference between accessing big data and experiencing it.
To dopiero początek. To, co przewidujemy, to wyrzucenie nowoczesnego kokpitu pełnego wskaźników. Zamiast próbować wszystko odczytać, poczujesz to. Żyjemy w świecie informacji. Jest różnica między dostępem do danych statystycznych a ich rozumieniem.
So I think there's really no end to the possibilities on the horizon for human expansion. Just imagine an astronaut being able to feel the overall health of the International Space Station, or, for that matter, having you feel the invisible states of your own health, like your blood sugar and the state of your microbiome, or having 360-degree vision or seeing in infrared or ultraviolet.
Myślę, że tak naprawdę mamy nieskończone możliwości w dziedzinie rozszerzenia zmysłów. Pomyślcie tylko o astronaucie będącym w stanie poczuć pełny stan zdrowia Międzynarodowej Stacji Kosmicznej, będącym w stanie poczuć niewidzialne wskaźniki twojego zdrowia, takie jak poziom cukru i stan Twojej flory bakteryjnej, mającym 360-stopniowe widzenie, widzącym w podczerwieni czy nadfiolecie.
So the key is this: As we move into the future, we're going to increasingly be able to choose our own peripheral devices. We no longer have to wait for Mother Nature's sensory gifts on her timescales, but instead, like any good parent, she's given us the tools that we need to go out and define our own trajectory. So the question now is, how do you want to go out and experience your universe?
Im bardziej będziemy wchodzili w przyszłość, tym bardziej będziemy w stanie wybierać nasze urządzenia peryferyjne. Nie musimy już czekać na dary zmysłowe Matki Natury w jej skali czasowej. W zamian za to, tak jak porządny rodzic, dała nam narzędzia, których potrzebujemy, aby wyjść z siebie i stworzyć własną trajektorię. Tylko czy chcecie wyjść z siebie i doświadczyć swojego wszechświata? Dziękuję.
Thank you.
(Brawa)
(Applause)
Chris Anderson: Can you feel it? DE: Yeah.
Chris Anderson: Możesz to poczuć? DE: Tak.
Actually, this was the first time I felt applause on the vest. It's nice. It's like a massage. (Laughter)
Tak naprawdę po raz pierwszy poczułem brawa kamizelką. To fajne. Jak masaż. (Śmiech)
CA: Twitter's going crazy. Twitter's going mad. So that stock market experiment. This could be the first experiment that secures its funding forevermore, right, if successful?
CA: Twitter staje się wściekły. Twitter staje się szalony. Tak samo jak eksperyment z giełdą. To może być pierwszy z eksperymentów, który zabezpieczy swoje własne fundusze, jeśli zadziała. Prawda?
DE: Well, that's right, I wouldn't have to write to NIH anymore.
DE: Nie musiałbym już więcej pisać wniosków o dofinansowanie.
CA: Well look, just to be skeptical for a minute, I mean, this is amazing, but isn't most of the evidence so far that sensory substitution works, not necessarily that sensory addition works? I mean, isn't it possible that the blind person can see through their tongue because the visual cortex is still there, ready to process, and that that is needed as part of it?
CA: Patrząc na to przez chwilę sceptycznie: to niesamowite, ale nie ma na razie dowodów, że substytucja zmysłów działa, nawet nie chodzi o dodawanie zmysłów. Chodzi mi o to, czy jest możliwe, aby niewidomy widział swoim językiem używając cały czas istniejącej, działającej kory wzrokowej, czy ona jest potrzebna?
DE: That's a great question. We actually have no idea what the theoretical limits are of what kind of data the brain can take in. The general story, though, is that it's extraordinarily flexible. So when a person goes blind, what we used to call their visual cortex gets taken over by other things, by touch, by hearing, by vocabulary. So what that tells us is that the cortex is kind of a one-trick pony. It just runs certain kinds of computations on things. And when we look around at things like braille, for example, people are getting information through bumps on their fingers. So I don't think we have any reason to think there's a theoretical limit that we know the edge of.
DE: To dobre pytanie. Nie znamy teraz odpowiedzi na to, jakie są teoretyczne limity rodzaju i ilości danych, które mózg przyjmie. Mózg jest niezwykle elastyczny. Kiedy ktoś staje się niewidomym, to, co było jego korą wzrokową, zostaje przejęte przez inne rzeczy, wzmacnia dotyk, słuch, słownictwo. To oznacza, że kora jest rodzajem konika wykonującego jedną sztuczkę. Po prostu realizuje pewnego rodzaju analizy danych. Kiedy przyglądamy się rzeczom takim jak na przykład brajl, widzimy, że ludzie zbierają informację poprzez wypustki pod swoimi palcami. Dlatego wydaje mi się, że nie musimy obstawiać, że jest jakiś limit, którego nie obejdziemy.
CA: If this checks out, you're going to be deluged. There are so many possible applications for this. Are you ready for this? What are you most excited about, the direction it might go? DE: I mean, I think there's a lot of applications here. In terms of beyond sensory substitution, the things I started mentioning about astronauts on the space station, they spend a lot of their time monitoring things, and they could instead just get what's going on, because what this is really good for is multidimensional data. The key is this: Our visual systems are good at detecting blobs and edges, but they're really bad at what our world has become, which is screens with lots and lots of data. We have to crawl that with our attentional systems. So this is a way of just feeling the state of something, just like the way you know the state of your body as you're standing around. So I think heavy machinery, safety, feeling the state of a factory, of your equipment, that's one place it'll go right away.
CA: Jeśli to się uda, będziesz zasypywany propozycjami. Jest tak wiele możliwych zastosowań tego pomysłu. Czy jesteś na to gotowy? Ekscytujesz się kierunkiem, w który może to pójść? DE: To ma wiele zastosowań. W przykładach poza substytucją sensoryczną możliwością, którą zaprezentowałem, byli astronauci w stacji kosmicznej, spędzający czas sprawdzając stan stacji. Dzięki nam mogliby go znać od razu, po prostu wiedzieć co się dzieje, ponieważ nasze rozwiązanie jest idealne dla danych wielowymiarowych. Nasz system wizualny jest dobry w wykrywaniu plam i krawędzi, ale nie sprawdza się w naszym świecie, pełnym ekranów z ogromem danych. Musimy czołgać się przez nie używając naszej uwagi. Jest to po prostu sposób na poczucie stanu czegoś, tak jak teraz czujesz stan swojego ciała. Ciężkie maszyny, bezpieczeństwo, stan całego sprzętu w fabryce, wszystko skupi się w jednym miejscu.
CA: David Eagleman, that was one mind-blowing talk. Thank you very much.
CA: To było oszałamiające wystąpienie. Dziękujemy bardzo, David Eagleman.
DE: Thank you, Chris. (Applause)
DE: Dziękuję, Chris. (Brawa)