We are built out of very small stuff, and we are embedded in a very large cosmos, and the fact is that we are not very good at understanding reality at either of those scales, and that's because our brains haven't evolved to understand the world at that scale.
Ми збудовані з дуже дрібних частинок та занурені у величезний космос, і не досить добре розуміємо реальність у будь-якому з цих масштабів, тому що наш мозок ще не розвинувся до розуміння світу в такому масштабі.
Instead, we're trapped on this very thin slice of perception right in the middle. But it gets strange, because even at that slice of reality that we call home, we're not seeing most of the action that's going on. So take the colors of our world. This is light waves, electromagnetic radiation that bounces off objects and it hits specialized receptors in the back of our eyes. But we're not seeing all the waves out there. In fact, what we see is less than a 10 trillionth of what's out there. So you have radio waves and microwaves and X-rays and gamma rays passing through your body right now and you're completely unaware of it, because you don't come with the proper biological receptors for picking it up. There are thousands of cell phone conversations passing through you right now, and you're utterly blind to it.
Замість цього, ми потрапили до пастки маленької частки сприйняття прямо посередині. Дивно, бо навіть у тому зрізі реальності, який ми звемо домом, ми не бачимо більшості з того, що відбувається. От візьмемо барви нашого світу. Це світлові хвилі, електромагнітне випромінювання, що відбивається об’єктами та потрапляє до спеціальних рецепторів в задній частині ока. Але ми здатні бачити не всі хвилі. Фактично, ми бачимо менше ніж 10 трильйонних частин того, що взагалі існує. Радіохвилі, мікрохвилі, рентгенівські та гамма-промені проходять крізь вас просто зараз, але ви навіть про це не здогадуєтесь, тому що не маєте належних біологічних рецепторів для їхнього сприйняття. Тисячі телефонних розмов проходять зараз крізь вас, та ви зовсім сліпі до них.
Now, it's not that these things are inherently unseeable. Snakes include some infrared in their reality, and honeybees include ultraviolet in their view of the world, and of course we build machines in the dashboards of our cars to pick up on signals in the radio frequency range, and we built machines in hospitals to pick up on the X-ray range. But you can't sense any of those by yourself, at least not yet, because you don't come equipped with the proper sensors.
І не тому, що ці речі дійсно невидимі. Змії сприймають деяке інфрачервоне випромінювання, а бджоли мають ультрафіолет у своїй картині світу, і, звичайно, ми вбудовуємо в панелі автомобілів такі пристрої, які здатні сприймати сигнали радіохвиль, та створюємо пристрої для лікарень, які сприймають рентгенівські промені. Проте ви особисто не в змозі відчути нічого з вищепереліченого, принаймі поки що, тому що не володієте відповідними органами сприйняття.
Now, what this means is that our experience of reality is constrained by our biology, and that goes against the common sense notion that our eyes and our ears and our fingertips are just picking up the objective reality that's out there. Instead, our brains are sampling just a little bit of the world.
Це значить, що наше сприйняття реальності обмежується нашою біологією та не відповідає загальноприйнятій думці, що наші очі, вуха та кінчики пальців просто сприймають об'єктивну реальність навкруги. Натомість мозок надає нам інформацію про світ вибірково.
Now, across the animal kingdom, different animals pick up on different parts of reality. So in the blind and deaf world of the tick, the important signals are temperature and butyric acid; in the world of the black ghost knifefish, its sensory world is lavishly colored by electrical fields; and for the echolocating bat, its reality is constructed out of air compression waves. That's the slice of their ecosystem that they can pick up on, and we have a word for this in science. It's called the umwelt, which is the German word for the surrounding world. Now, presumably, every animal assumes that its umwelt is the entire objective reality out there, because why would you ever stop to imagine that there's something beyond what we can sense. Instead, what we all do is we accept reality as it's presented to us.
Щодо тваринного світу, то різні тварини сприймають різні частини реальності. Так, у сліпому та глухому світі кліща важливими сигналами є температура та масляна кислота; у світі рибки чорної ножетілки її світ відчуттів рясно розмальований електричними полями, а для кажанів, які мають ехолокацію, реальність побудована на основі хвиль тиску в повітрі. Це частина їхньої екосистеми, яку вони можуть сприймати, у нас є відповідний науковий термін, це зветься "умвельт", це німецьке слово, яке значить "довкілля". Тож, мабуть, кожна тварина вважає, що її умвельт - повна об'єктивна реальність навколо, оскільки, чого б це вам перестати вважати, що існує ще щось, окрім того, що ми можемо відчути. Натомість, ми всі просто приймаємо реальність такою, якою вона нам ввижається.
Let's do a consciousness-raiser on this. Imagine that you are a bloodhound dog. Your whole world is about smelling. You've got a long snout that has 200 million scent receptors in it, and you have wet nostrils that attract and trap scent molecules, and your nostrils even have slits so you can take big nosefuls of air. Everything is about smell for you. So one day, you stop in your tracks with a revelation. You look at your human owner and you think, "What is it like to have the pitiful, impoverished nose of a human? (Laughter) What is it like when you take a feeble little noseful of air? How can you not know that there's a cat 100 yards away, or that your neighbor was on this very spot six hours ago?" (Laughter)
Заглибимось у це питання. Уявіть, що ви гончак. Увесь ваш світ складається з пахощів. У вас довга морда, у якій містяться 200 мільйонів рецепторів, і вологі ніздрі, які приваблюють та затримують ароматні молекули, і ваші ніздрі навіть мають щілини, так що ви можете поглинати великі дози повітря. Усе ваше єство зосереджене на пахощах. Проте одного дня вас приголомшує відкриття. Ви дивитесь на людину, свого господаря, і думаєте: "Цікаво, як це, мати жалюгідний, мізерний людський ніс? (Сміх) Як це, коли ти захоплюєш слабку маленьку порцію повітря? Як можеш ти не знати, що за 90 метрів звідси є кіт, або що твій сусід був на цьому самому місці шість годин тому?" (Сміх)
So because we're humans, we've never experienced that world of smell, so we don't miss it, because we are firmly settled into our umwelt. But the question is, do we have to be stuck there? So as a neuroscientist, I'm interested in the way that technology might expand our umwelt, and how that's going to change the experience of being human.
Оскільки ми - люди, ми ніколи не відчували цього світу пахощів, тож ми не шкодуємо за ним, оскільки ми міцно засіли в своєму умвельті. Але питання полягає в тому, чи повинні ми застрягати там? Тож, як нейронауковця, мене цікавить, яким чином технологія могла б розширити наш умвельт, і як це змінить досвід буття людиною.
So we already know that we can marry our technology to our biology, because there are hundreds of thousands of people walking around with artificial hearing and artificial vision. So the way this works is, you take a microphone and you digitize the signal, and you put an electrode strip directly into the inner ear. Or, with the retinal implant, you take a camera and you digitize the signal, and then you plug an electrode grid directly into the optic nerve. And as recently as 15 years ago, there were a lot of scientists who thought these technologies wouldn't work. Why? It's because these technologies speak the language of Silicon Valley, and it's not exactly the same dialect as our natural biological sense organs. But the fact is that it works; the brain figures out how to use the signals just fine.
Ми вже знаємо, що можемо поєднати наші технології з біологією, оскільки сотні тисяч людей ходять навколо зі штучним слухом та штучним зором. Це працює таким чином, що ви берете мікрофон, оцифровуєте сигнал, і розміщуєте електрод просто у внутрішньому вусі. Або, скажімо, імплант сітківки. Ви берете камеру, оцифровуєте сигнал, а потім під’єднуєте електродну сітку просто до оптичного нерва. А зовсім недавно, 15 років тому, було багато науковців, які вважали, що ті технології не спрацюють. Чому? Бо ті технології розмовляли мовою Кремнієвої долини, і це не той самий діалект, що й у наших природних органів біологічних відчуттів. Але це працює: мозок чудово розуміє, як використовувати сигнали.
Now, how do we understand that? Well, here's the big secret: Your brain is not hearing or seeing any of this. Your brain is locked in a vault of silence and darkness inside your skull. All it ever sees are electrochemical signals that come in along different data cables, and this is all it has to work with, and nothing more. Now, amazingly, the brain is really good at taking in these signals and extracting patterns and assigning meaning, so that it takes this inner cosmos and puts together a story of this, your subjective world.
Звідки ми це знаємо? Ну, ось вам великий секрет: Ваш мозок взагалі нічого не чує та не бачить. Ваш мозок замкнений у льоху тиші й темряви всередині вашого черепа. Все, що він бачить, це електрохімічні сигнали, які приходять по різних інформаційних каналах, оце й усе, з чим він має працювати, нічого більше. І, що дивовижно, мозок дуже вправно приймає ці сигнали аналізує шаблони та визначає сенс, так що він бере цей внутрішній космос та складає все докупи, і виходить ваш суб'єктивний світ.
But here's the key point: Your brain doesn't know, and it doesn't care, where it gets the data from. Whatever information comes in, it just figures out what to do with it. And this is a very efficient kind of machine. It's essentially a general purpose computing device, and it just takes in everything and figures out what it's going to do with it, and that, I think, frees up Mother Nature to tinker around with different sorts of input channels.
Але ось ключовий момент: ваш мозок не знає, і йому байдуже, звідки він отримує інформацію. Звідки б не надійшла інформація, він лише з'ясовує, що з нею робити. І це дуже ефективний вид механізму. По суті, це обчислювальний пристрій загального призначення, і він лише збирає все та з'ясовує, що з цим робити, і це, на мою думку, звільняє Матінку Природу від клопотів з різними видами вхідних каналів.
So I call this the P.H. model of evolution, and I don't want to get too technical here, but P.H. stands for Potato Head, and I use this name to emphasize that all these sensors that we know and love, like our eyes and our ears and our fingertips, these are merely peripheral plug-and-play devices: You stick them in, and you're good to go. The brain figures out what to do with the data that comes in. And when you look across the animal kingdom, you find lots of peripheral devices. So snakes have heat pits with which to detect infrared, and the ghost knifefish has electroreceptors, and the star-nosed mole has this appendage with 22 fingers on it with which it feels around and constructs a 3D model of the world, and many birds have magnetite so they can orient to the magnetic field of the planet. So what this means is that nature doesn't have to continually redesign the brain. Instead, with the principles of brain operation established, all nature has to worry about is designing new peripherals.
Так що я називаю це К. Г. моделлю еволюції, я не хочу заглиблюватись у технічні деталі, але К. Г. означає "Картопляна Голова", і я використовую цей термін, щоб підкреслити, що усі ці органи чуття, які ми знаємо та любимо, такі як наші очі, вуха та кінчики пальців, це всього лише периферійні пристрої plug-and-play: Ви встромляєте їх, і можна рушати. Мозок з'ясовує, що робити з даними, які надходять. І якщо ви поглянете на царство тварин, ви знайдете багато периферійних пристроїв. Так, змії мають теплові западинки, які розпізнають інфрачервоне випромінювання, чорна ножетілка має електрорецептори, кріт-зірконіс має цей придаток з 22 пальцями на ньому, якими він відчуває довкілля та будує 3D модель світу, а багато птахів мають магнетит і можуть орієнтуватися за магнітними полями планети. А значить, природі нема потреби безперестанку робити редизайн мозку. Натомість, встановивши принципи діяльності мозку, природі лишається турбуватись лише про нові периферійні пристрої.
Okay. So what this means is this: The lesson that surfaces is that there's nothing really special or fundamental about the biology that we come to the table with. It's just what we have inherited from a complex road of evolution. But it's not what we have to stick with, and our best proof of principle of this comes from what's called sensory substitution. And that refers to feeding information into the brain via unusual sensory channels, and the brain just figures out what to do with it.
Добре. І означає це ось що: Урок, що звідси випливає, полягає в тому, що не існує нічого дійсно особливого чи фундаментального у біології, щодо чого ми б мали дискутувати. Це лише те, що ми успадкували від складного шляху еволюції, але не те, за що мусимо триматися. І найкраще підтвердження цього принципу - так звана сенсорна заміна. Вона стосується постачання інформації до мозку через незвичайні сенсорні канали, і мозок лише з'ясовує, що з нею робити.
Now, that might sound speculative, but the first paper demonstrating this was published in the journal Nature in 1969. So a scientist named Paul Bach-y-Rita put blind people in a modified dental chair, and he set up a video feed, and he put something in front of the camera, and then you would feel that poked into your back with a grid of solenoids. So if you wiggle a coffee cup in front of the camera, you're feeling that in your back, and amazingly, blind people got pretty good at being able to determine what was in front of the camera just by feeling it in the small of their back. Now, there have been many modern incarnations of this. The sonic glasses take a video feed right in front of you and turn that into a sonic landscape, so as things move around, and get closer and farther, it sounds like "Bzz, bzz, bzz." It sounds like a cacophony, but after several weeks, blind people start getting pretty good at understanding what's in front of them just based on what they're hearing. And it doesn't have to be through the ears: this system uses an electrotactile grid on the forehead, so whatever's in front of the video feed, you're feeling it on your forehead. Why the forehead? Because you're not using it for much else.
Можливо, це звучить надто теоретично, але перша стаття, яка продемонструвала це, вийшла в журналі "Nature" у 1969 році. Науковець на ім'я Пол Бак-і-Ріта саджав сліпих людей у модифіковане крісло дантиста, подавав відеосигнал, і розміщував що-небудь перед камерою, а тоді ви відчували поштовхи в спину від решітки соленоїдів. Так, якщо ви ворушите чашкою кави перед камерою, то відчуваєте це своєю спиною, і, що дивовижно, сліпі люди досить добре стали розрізняти, що саме було перед камерою, відчуваючи це маленькою ділянкою спини. Відтоді було створено багато сучасних версій цього експерименту. Звукові окуляри приймають відеосигнал прямо перед вами і перетворюють його на звуковий ландшафт, коли речі рухаються, наближаються чи віддаляються, це звучить як "Бзз, бзз. бзз". Це звучить як какофонія, але за кілька тижнів сліпі люди починають досить добре розпізнавати, що перед ними, покладаючись лише на те, що вони чують. Звук не мусить надходити через вуха: ця система використовує електротактильну решітку на лобі, і хоч що буде перед відеокамерою, ви відчуваєте це на своєму лобі. Чому саме на лобі? Бо ви його майже не використовуєте.
The most modern incarnation is called the brainport, and this is a little electrogrid that sits on your tongue, and the video feed gets turned into these little electrotactile signals, and blind people get so good at using this that they can throw a ball into a basket, or they can navigate complex obstacle courses. They can come to see through their tongue. Now, that sounds completely insane, right? But remember, all vision ever is is electrochemical signals coursing around in your brain. Your brain doesn't know where the signals come from. It just figures out what to do with them.
Найсучасніша реінкарнація зветься "brainport" - це маленька електрична сітка, яка розміщена у вас на язиці, а відеосигнал перетворюється на маленькі електротактильні сигнали, і сліпі люди так добре вправляються з цим, що можуть закинути м'яча у корзину чи пробиратися через складні маршрути з перешкодами. Вони бачать за допомогою язика. Звучить як абсолютне безумство, чи не так? Але пригадайте, що будь-який зір - це електрохімічні сигнали, які переміщуються у вашому мозку. Ваш мозок не знає, звідки ці сигнали надходять. Він лише вирішує, що з ними робити.
So my interest in my lab is sensory substitution for the deaf, and this is a project I've undertaken with a graduate student in my lab, Scott Novich, who is spearheading this for his thesis. And here is what we wanted to do: we wanted to make it so that sound from the world gets converted in some way so that a deaf person can understand what is being said. And we wanted to do this, given the power and ubiquity of portable computing, we wanted to make sure that this would run on cell phones and tablets, and also we wanted to make this a wearable, something that you could wear under your clothing. So here's the concept. So as I'm speaking, my sound is getting captured by the tablet, and then it's getting mapped onto a vest that's covered in vibratory motors, just like the motors in your cell phone. So as I'm speaking, the sound is getting translated to a pattern of vibration on the vest. Now, this is not just conceptual: this tablet is transmitting Bluetooth, and I'm wearing the vest right now. So as I'm speaking -- (Applause) -- the sound is getting translated into dynamic patterns of vibration. I'm feeling the sonic world around me.
Тож мета моїх досліджень в лабораторії -- сенсорна заміна для глухих, і це проект, за який я взявся разом зі Скоттом Новічем, аспірантом у моїй лабораторії, який обрав цю тему для своєї дисертації. І ось що ми хочемо зробити: ми хочемо зробити так, щоб звук із зовнішнього світу конвертувався певним чином, і щоб глуха людина могла розуміти, що говориться. Ми хочемо використати потужність та розповсюдженість портативних комп'ютерів, хочемо бути певними, що це працюватиме на мобільних телефонах та планшетах, і ще ми хочемо зробити це придатним для одягання, щось таке, що ви могли б носити під одягом. Ось така концепція. Так що коли я розмовляю, планшет захоплює мій звук, а потім відображає у жилеті, який вкритий вібраційними моторами, такими, як мотори у вашому мобільному телефоні. Тож коли я говорю, звук трансформується у послідовність вібрацій на жилеті. І це вже не лише концепція: цей планшет передає Bluetooth-сигнал, і просто зараз на мені одягнений жилет. Тож коли я говорю -- (Оплески) -- звук перетворюється у динамічні послідовності вібрацій. Я відчуваю звуковий світ навколо себе.
So, we've been testing this with deaf people now, and it turns out that after just a little bit of time, people can start feeling, they can start understanding the language of the vest.
Отже, зараз ми випробовуємо це на глухих людях, і виявляється, що за короткий час люди можуть почати відчувати, почати розуміти мову жилета.
So this is Jonathan. He's 37 years old. He has a master's degree. He was born profoundly deaf, which means that there's a part of his umwelt that's unavailable to him. So we had Jonathan train with the vest for four days, two hours a day, and here he is on the fifth day.
Ось Джонатан. Йому 37 років. Він має ступінь магістра. Він народився зовсім глухим, а це значить, що йому недоступна частина його умвельту. Ми вчили Джонатана користуватись жилетом чотири дні, по дві години на день, і ось він на п'ятий день.
Scott Novich: You.
Скотт Новіч: Ви.
David Eagleman: So Scott says a word, Jonathan feels it on the vest, and he writes it on the board.
Девід Іґлман: Скотт вимовляє слово, Джонатан відчуває його жилетом, І пише його на дошці.
SN: Where. Where.
СН: Де. Де.
DE: Jonathan is able to translate this complicated pattern of vibrations into an understanding of what's being said.
ДІ: Джонатан може перетворити цей складний візерунок вібрацій на розуміння того, що було сказано.
SN: Touch. Touch.
СН: Торкатися. Торкатися.
DE: Now, he's not doing this -- (Applause) -- Jonathan is not doing this consciously, because the patterns are too complicated, but his brain is starting to unlock the pattern that allows it to figure out what the data mean, and our expectation is that, after wearing this for about three months, he will have a direct perceptual experience of hearing in the same way that when a blind person passes a finger over braille, the meaning comes directly off the page without any conscious intervention at all. Now, this technology has the potential to be a game-changer, because the only other solution for deafness is a cochlear implant, and that requires an invasive surgery. And this can be built for 40 times cheaper than a cochlear implant, which opens up this technology globally, even for the poorest countries.
ДІ: Наразі він не робить цього - (Оплески) -- Джонатан не робить цього свідомо, оскільки візерунок занадто складний, але його мозок починає розшифровувати візерунок, що дає йому змогу з'ясувати, що ця інформація означає, і ми сподіваємось, що після приблизно трьох місяців носіння жилету, він матиме пряме перцептивне відчуття слуху, так само як коли сліпа людина проводить пальцем по шрифту Брайля, зміст приходить безпосередньо від сторінки без будь-якого свідомого втручання. Ця технологія здатна змінити правила гри, оскільки єдиним іншим розв'язком проблеми глухоти є кохлеарний імплант, а це вимагає інвазивної хірургії. А наш спосіб можете коштувати у 40 разів дешевше, ніж кохлеарний імплант, що робить цю технологію глобальною, навіть для найбідніших країн.
Now, we've been very encouraged by our results with sensory substitution, but what we've been thinking a lot about is sensory addition. How could we use a technology like this to add a completely new kind of sense, to expand the human umvelt? For example, could we feed real-time data from the Internet directly into somebody's brain, and can they develop a direct perceptual experience?
Тож нас дуже надихнули наші результати із сенсорною заміною. Але найбільше ми думаємо про сенсорне доповнення. Як можна використати подібну технологію, щоб додати абсолютно нове відчуття, розширити людський умвельт? Наприклад, чи не могли б ми передавати інформацію в реальному часі з Інтернету прямо у чийсь мозок, і чи могли б люди розвинути досвід прямого сприйняття?
So here's an experiment we're doing in the lab. A subject is feeling a real-time streaming feed from the Net of data for five seconds. Then, two buttons appear, and he has to make a choice. He doesn't know what's going on. He makes a choice, and he gets feedback after one second. Now, here's the thing: The subject has no idea what all the patterns mean, but we're seeing if he gets better at figuring out which button to press. He doesn't know that what we're feeding is real-time data from the stock market, and he's making buy and sell decisions. (Laughter) And the feedback is telling him whether he did the right thing or not. And what we're seeing is, can we expand the human umvelt so that he comes to have, after several weeks, a direct perceptual experience of the economic movements of the planet. So we'll report on that later to see how well this goes. (Laughter)
Ось вам експеримент, який ми проводимо в лабораторії. Об'єкт відчуває потік даних у реальному часі з мережі даних протягом п'яти секунд. Потім з'являються дві кнопки, і він повинен зробити вибір. Він не знає, що відбувається. Він робить вибір та отримує зворотній зв'язок за секунду. А справа ось у чому: об'єкт не має уявлення, що усі візерунки означають, але ми дивимось, чи стане він вправніше визначати, яку кнопку натискати. Він не знає, що ми надаємо йому в реальному часі інформацію з фондової біржі, і він вирішує, купувати чи продавати. (Сміх) А зворотній зв'язок повідомляє йому, вчинив він правильно чи ні. І ми хочемо знати, чи зможемо ми розширити людський умвельт так, щоб він мав за кілька тижнів досвід прямого сприйняття економічних рухів планети. Так що ми повідомимо пізніше, як добре все просувається. (Сміх)
Here's another thing we're doing: During the talks this morning, we've been automatically scraping Twitter for the TED2015 hashtag, and we've been doing an automated sentiment analysis, which means, are people using positive words or negative words or neutral? And while this has been going on, I have been feeling this, and so I am plugged in to the aggregate emotion of thousands of people in real time, and that's a new kind of human experience, because now I can know how everyone's doing and how much you're loving this. (Laughter) (Applause) It's a bigger experience than a human can normally have.
Ось інша річ, яку ми робимо: Під час виступів цього ранку, ми автоматично прочісували Твіттер у пошуках гештеґа TED2015 і автоматично аналізували настрої, тобто визначали -- позитивні, негативні чи нейтральні слова використовували люди? І поки цей аналіз відбувався, я відчував його, тож я підключений до сукупних емоцій тисяч людей у реальному часі, і це новий різновид людського досвіду, оскільки зараз я можу знати, як справи у кожного, і наскільки вам це подобається. (Сміх) (Оплески) Це більший досвід, ніж людина зазвичай може мати.
We're also expanding the umvelt of pilots. So in this case, the vest is streaming nine different measures from this quadcopter, so pitch and yaw and roll and orientation and heading, and that improves this pilot's ability to fly it. It's essentially like he's extending his skin up there, far away.
Ми також розширюємо умвельт пілотів. У цьому випадку жилет передає потік з вимірювань дев'яти різних параметрів цього квадрокоптера, таких як нахил і відхилення від курсу, орієнтація і напрямок, і це покращує спроможність пілота керувати ним. Це подібно до того, ніби його шкіра розтягнулась далеко-далеко.
And that's just the beginning. What we're envisioning is taking a modern cockpit full of gauges and instead of trying to read the whole thing, you feel it. We live in a world of information now, and there is a difference between accessing big data and experiencing it.
І це лише початок. Ми прагнемо до того, щоб узяти сучасну кабіну пілота, повну датчиків, і замість того, щоб намагатись зчитувати усі показники, ви відчували їх. Ми живемо зараз у світі інформації, існує різниця між доступом до великих даних та їх відчутті чи переживанні.
So I think there's really no end to the possibilities on the horizon for human expansion. Just imagine an astronaut being able to feel the overall health of the International Space Station, or, for that matter, having you feel the invisible states of your own health, like your blood sugar and the state of your microbiome, or having 360-degree vision or seeing in infrared or ultraviolet.
Тож я вважаю, що дійсно немає меж можливостей на горизонті розвитку людини. Лише уявіть, астронавт зможе відчувати загальний стан здоров'я на Міжнародній космічній станції, або, якщо продовжити цю тему,ви відчуваєте невидимі параметри стану здоров'я такі, як рівень цукру в крові та стан вашого мікробіома, або маєте 360-градусний зір, або бачите інфрачервоний чи ультрафіолетовий спектри.
So the key is this: As we move into the future, we're going to increasingly be able to choose our own peripheral devices. We no longer have to wait for Mother Nature's sensory gifts on her timescales, but instead, like any good parent, she's given us the tools that we need to go out and define our own trajectory. So the question now is, how do you want to go out and experience your universe?
Так що головна ідея ось у чому: рухаючись у майбутнє, ми матимемо все більше можливостей обирати власні периферійні пристрої. Ми більше не повинні очікувати від Матінки Природи відчуттів у подарунок за її графіком, навпаки, як будь-яка добра матір, вона надала нам інструменти, які нам потрібні, щоб вийти та визначити нашу власну траєкторію. Отже, питання звучить так -- як ви хочете вийти та дослідити ваш всесвіт?
Thank you.
Дякую.
(Applause)
(Оплески)
Chris Anderson: Can you feel it? DE: Yeah.
Кріс Андерсон: Ви відчуваєте це? ДІ: Так.
Actually, this was the first time I felt applause on the vest. It's nice. It's like a massage. (Laughter)
Насправді, це був перший раз, коли я відчував оплески жилетом. Це приємно. Як масаж. (Сміх)
CA: Twitter's going crazy. Twitter's going mad. So that stock market experiment. This could be the first experiment that secures its funding forevermore, right, if successful?
КА: Twitter божеволіє. Twitter втрачає розум. Щодо того експерименту з фондовим ринком. Це може бути перший експеримент, що забезпечить своє фінансування навічно, правильно, якщо експеримент вдасться?
DE: Well, that's right, I wouldn't have to write to NIH anymore.
ДІ: Ну, це правда, мені не довелось би більше писати до НІОЗ.
CA: Well look, just to be skeptical for a minute, I mean, this is amazing, but isn't most of the evidence so far that sensory substitution works, not necessarily that sensory addition works? I mean, isn't it possible that the blind person can see through their tongue because the visual cortex is still there, ready to process, and that that is needed as part of it?
КА: Гаразд, на хвильку станьмо скептиками, це все чудово, але поки що більшість доказів стосуються сенсорної заміни, але це не обов’язково означає що сенсорне доповнення працює? Я хочу сказати, можливо сліпа людина може бачити за допомогою язика, бо у неї все ще є зорова кора, готова до роботи, і це та частина, що потрібна?
DE: That's a great question. We actually have no idea what the theoretical limits are of what kind of data the brain can take in. The general story, though, is that it's extraordinarily flexible. So when a person goes blind, what we used to call their visual cortex gets taken over by other things, by touch, by hearing, by vocabulary. So what that tells us is that the cortex is kind of a one-trick pony. It just runs certain kinds of computations on things. And when we look around at things like braille, for example, people are getting information through bumps on their fingers. So I don't think we have any reason to think there's a theoretical limit that we know the edge of.
ДІ: Влучне питання. Ми дійсно не маємо жодного уявлення, які теоретичні ліміти щодо різновидів даних, що їх здатен сприймати мозок. Хоча взагалі вважається, що він надзвичайно гнучкий. Тож коли людина втрачає зір, те, що було її зоровою корою, починає використовуватись для інших речей, для обробки дотику, слуху, вокабуляру. Це нам говорить про те, що кора схожа на поні, якого навчили лише одного трюку. Вона лише виконує певні види обчислень. І коли ми поглянемо навкруги, наприклад, на шрифт Брайля, люди отримують інформацію через пучки пальців. Тож я не думаю, що є будь-яка причина вважати, що існує теоретичний ліміт, якась відома межа.
CA: If this checks out, you're going to be deluged. There are so many possible applications for this. Are you ready for this? What are you most excited about, the direction it might go? DE: I mean, I think there's a lot of applications here. In terms of beyond sensory substitution, the things I started mentioning about astronauts on the space station, they spend a lot of their time monitoring things, and they could instead just get what's going on, because what this is really good for is multidimensional data. The key is this: Our visual systems are good at detecting blobs and edges, but they're really bad at what our world has become, which is screens with lots and lots of data. We have to crawl that with our attentional systems. So this is a way of just feeling the state of something, just like the way you know the state of your body as you're standing around. So I think heavy machinery, safety, feeling the state of a factory, of your equipment, that's one place it'll go right away.
КА: Якщо це буде доведено, вас просто завалять. Існує так багато можливостей для застосування цього. Ви готові? Що вас хвилює найбільше? Напрямок, у якому це рухається? ДІ: Я вважаю, що є безліч застосувань. Якщо говорити про речі за межами сенсорної заміни, про які я розповідав, про астронавтів на космічній станції, вони витрачають багато часу моніторячи все, а вони могли б натомість відчувати, що відбувається, оскільки ця технологія найбільше підходить саме для багатовимірних даних. Головна ідея: Наші зорові системи добре виявляють плями та краї, але вони погано дають раду тому, чим став наш світ, тобто екранам з величезною кількістю даних. Ми повинні повзати по них з нашими системами уваги. Тож це спосіб просто відчувати стан чого-небудь, подібно до того, як ви відчуваєте стан свого тіла, коли стоїте. Я вважаю, що великі машини, безпека, відчування стану заводу, вашого обладнання, ось найперші місця, де це знадобиться.
CA: David Eagleman, that was one mind-blowing talk. Thank you very much.
КА: Девіде Іґлман, це була запаморочлива промова. Дуже Вам дякую.
DE: Thank you, Chris. (Applause)
ДІ: Дякую, Крісе. (Оплески)