We are built out of very small stuff, and we are embedded in a very large cosmos, and the fact is that we are not very good at understanding reality at either of those scales, and that's because our brains haven't evolved to understand the world at that scale.
Мы состоим из крошечных частиц и сами являемся частью огромного космоса, и мы плохо понимаем, что происходит на таких масштабах, потому что наш мозг не эволюционировал для понимания мира на таких масштабах.
Instead, we're trapped on this very thin slice of perception right in the middle. But it gets strange, because even at that slice of reality that we call home, we're not seeing most of the action that's going on. So take the colors of our world. This is light waves, electromagnetic radiation that bounces off objects and it hits specialized receptors in the back of our eyes. But we're not seeing all the waves out there. In fact, what we see is less than a 10 trillionth of what's out there. So you have radio waves and microwaves and X-rays and gamma rays passing through your body right now and you're completely unaware of it, because you don't come with the proper biological receptors for picking it up. There are thousands of cell phone conversations passing through you right now, and you're utterly blind to it.
Напротив, мы будто в ловушке — нашему восприятию доступна лишь узкая полоска в сáмой середине. Странно то, что даже в этом срезе реальности, нашем «доме», мы не видим большинства происходящего. Взять, например, цвета нашего мира. Это световые волны, электромагнитное излучение — оно отражается от предметов и попадает на специализированные рецепторы в наших глазах. Но мы видим не все существующие волны. На самом деле, мы видим меньше одной десятитриллионной того, что нас окружает. Радиоволны и микроволны, рентгеновское и гамма-излучение проходят через ваше тело прямо сейчас, и вы этого совершенно не замечаете, потому что у вас нет биологических рецепторов, чтобы это почувствовать. Тысячи разговоров по сотовым телефонам проходят сквозь вас прямо сейчас абсолютно незамеченными.
Now, it's not that these things are inherently unseeable. Snakes include some infrared in their reality, and honeybees include ultraviolet in their view of the world, and of course we build machines in the dashboards of our cars to pick up on signals in the radio frequency range, and we built machines in hospitals to pick up on the X-ray range. But you can't sense any of those by yourself, at least not yet, because you don't come equipped with the proper sensors.
Такие вещи не являются невидимыми по сути. В реальности, доступной змеям, существует инфракрасное излучение, а пчёлы видят мир и в ультрафиолете тоже, и, конечно, у нас в автомобилях есть приборы, которые ловят сигналы из радиодиапазона, а в больницах есть устройства, улавливающие рентгеновское излучение. Но ни то, ни другое вы не можете почувствовать непосредственно, по крайней мере пока, потому что у людей в стандартной комплектации нет нужных сенсоров.
Now, what this means is that our experience of reality is constrained by our biology, and that goes against the common sense notion that our eyes and our ears and our fingertips are just picking up the objective reality that's out there. Instead, our brains are sampling just a little bit of the world.
То есть наше восприятие реальности ограничено нашей биологией, и это идёт в разрез с привычной идеей, что наши глаза, и уши, и кончики пальцев просто воспринимают объективную реальность. На самом деле, мозгу доступна лишь малая часть реального мира.
Now, across the animal kingdom, different animals pick up on different parts of reality. So in the blind and deaf world of the tick, the important signals are temperature and butyric acid; in the world of the black ghost knifefish, its sensory world is lavishly colored by electrical fields; and for the echolocating bat, its reality is constructed out of air compression waves. That's the slice of their ecosystem that they can pick up on, and we have a word for this in science. It's called the umwelt, which is the German word for the surrounding world. Now, presumably, every animal assumes that its umwelt is the entire objective reality out there, because why would you ever stop to imagine that there's something beyond what we can sense. Instead, what we all do is we accept reality as it's presented to us.
Если посмотреть на животных, видно, что разные животные воспринимают разные части реальности. В тёмном и беззвучном мире клещей важные сигналы — это температура и масляная кислота; у чёрной ножетелки мир ощущений щедро раскрашен электрическими полями; для летучих мышей, использующих эхолокацию, реальность состоит из волн сжатого воздуха. Это срез их экосистемы, доступный для их восприятия, для этого есть научный термин. Умвельт, по-немецки это означает окружающий мир. Мы предполагаем, все животные считают, что их умвельт и есть вся объективная реальность, ведь зачем пытаться представить что-то недоступное нашим чувствам? Вместо этого мы принимаем реальность такой, какой она нам представляется.
Let's do a consciousness-raiser on this. Imagine that you are a bloodhound dog. Your whole world is about smelling. You've got a long snout that has 200 million scent receptors in it, and you have wet nostrils that attract and trap scent molecules, and your nostrils even have slits so you can take big nosefuls of air. Everything is about smell for you. So one day, you stop in your tracks with a revelation. You look at your human owner and you think, "What is it like to have the pitiful, impoverished nose of a human? (Laughter) What is it like when you take a feeble little noseful of air? How can you not know that there's a cat 100 yards away, or that your neighbor was on this very spot six hours ago?" (Laughter)
Давайте попробуем понять это получше. Представьте, что вы собака породы бладхаунд. Весь мир для вас — это запахи. У вас длинная морда, в которой 200 миллионов обонятельных рецепторов, и мокрый нос, который отлично улавливает молекулы запаха, в ваших ноздрях даже есть прорези, чтобы вы вдыхали сразу много воздуха. Для вас всё — запах. И однажды вас осеняет. Вы смотрите на своего хозяина-человека и думаете: «Каково это — иметь жалкий, убогий нос, как у человека?» (Смех) «Каково это — вдыхать ничтожно малое количество воздуха? Как можно не знать, что в 100 метрах от тебя кот? Или что твой сосед был на этом самом месте шесть часов назад?» (Смех)
So because we're humans, we've never experienced that world of smell, so we don't miss it, because we are firmly settled into our umwelt. But the question is, do we have to be stuck there? So as a neuroscientist, I'm interested in the way that technology might expand our umwelt, and how that's going to change the experience of being human.
Из-за того, что мы — люди, мы никогда не ощущали этот мир запахов, и мы не осознаём, что упускаем его, потому что мы надёжно заперты в своём умвельте. Вопрос в том, можем ли мы выбраться из него. Как нейробиолог, я заинтересован в том, как технологии могут расширить наш умвельт и как это изменит восприятие мира человеком.
So we already know that we can marry our technology to our biology, because there are hundreds of thousands of people walking around with artificial hearing and artificial vision. So the way this works is, you take a microphone and you digitize the signal, and you put an electrode strip directly into the inner ear. Or, with the retinal implant, you take a camera and you digitize the signal, and then you plug an electrode grid directly into the optic nerve. And as recently as 15 years ago, there were a lot of scientists who thought these technologies wouldn't work. Why? It's because these technologies speak the language of Silicon Valley, and it's not exactly the same dialect as our natural biological sense organs. But the fact is that it works; the brain figures out how to use the signals just fine.
Известно, что можно связать технологии и биологию, — сотни тысяч людей разгуливают с искусственным слухом и зрением. Это работает так: микрофон оцифровывает сигнал и направляет его по электродам прямо во внутреннее ухо. В случае с имплантом сетчатки берётся камера, которая оцифровывает сигнал, затем электродная сетка подключается прямо к оптическому нерву. Всего 15 лет назад множество учёных считали, что эти технологии не будут работать. Потому что эти технологии говорят на языке Кремниевой долины, а это не тот язык, который используют биологические органы чувств. Но факт в том, что они работают: мозг прекрасно понимает, как использовать эти сигналы.
Now, how do we understand that? Well, here's the big secret: Your brain is not hearing or seeing any of this. Your brain is locked in a vault of silence and darkness inside your skull. All it ever sees are electrochemical signals that come in along different data cables, and this is all it has to work with, and nothing more. Now, amazingly, the brain is really good at taking in these signals and extracting patterns and assigning meaning, so that it takes this inner cosmos and puts together a story of this, your subjective world.
Как мы это объясняем? Вот большой секрет: ваш мозг ничего не слышит и не видит. Он заперт в тишине и темноте черепной коробки. Всё, что он видит, — электрохимические сигналы, приходящие с разных кабелей с данными, это всё, с чем мозг имеет дело, ничего кроме этого. Поразительно, но мозг так хорошо понимает эти сигналы, распознаёт образы и присваивает значения, что он берёт внутренний мир и создаёт там свою версию всего происходящего — ваш субъективный мир.
But here's the key point: Your brain doesn't know, and it doesn't care, where it gets the data from. Whatever information comes in, it just figures out what to do with it. And this is a very efficient kind of machine. It's essentially a general purpose computing device, and it just takes in everything and figures out what it's going to do with it, and that, I think, frees up Mother Nature to tinker around with different sorts of input channels.
Но вот ключевой момент: ваш мозг не знает, и ему, в общем-то, всё равно, откуда он получает данные. Какая бы информация не приходила, он просто разбирается, что с ней делать. Это очень эффективный механизм. Это, по существу, универсальное вычислительное устройство, мозг просто принимает всё и разбирается, что с этим делать, и это, я думаю, позволяет матери-природе играть с самыми разными входными каналами.
So I call this the P.H. model of evolution, and I don't want to get too technical here, but P.H. stands for Potato Head, and I use this name to emphasize that all these sensors that we know and love, like our eyes and our ears and our fingertips, these are merely peripheral plug-and-play devices: You stick them in, and you're good to go. The brain figures out what to do with the data that comes in. And when you look across the animal kingdom, you find lots of peripheral devices. So snakes have heat pits with which to detect infrared, and the ghost knifefish has electroreceptors, and the star-nosed mole has this appendage with 22 fingers on it with which it feels around and constructs a 3D model of the world, and many birds have magnetite so they can orient to the magnetic field of the planet. So what this means is that nature doesn't have to continually redesign the brain. Instead, with the principles of brain operation established, all nature has to worry about is designing new peripherals.
Я называю эту модель эволюции КГ, не хочу углубляться в технические термины, но КГ означает «картофельная голова», это называние подчёркивает, что все органы чувств, которые мы знаем и любим, — наши глаза, уши, кончики пальцев — всего лишь периферийные устройства стандарта «включил и играй»: вы просто подключаете их, и всё работает. Мозг сам понимает, что делать с входящей информацией. Если взглянуть на царство животных, можно найти множество периферийных устройств. У змей есть тепловые рецепторы, улавливающие инфракрасное излучение, у чёрной ножетелки есть электрорецепторы, а у крота-звездоноса есть отросток с 22 пальцами, которыми он ощупывает окружающий мир и выстраивает его объёмную модель; у многих птиц есть магнитные рецепторы для ориентации по магнитному полю планеты. Это означает, что природе не нужно постоянно переделывать мозг. Вместо этого, после того как сформировались принципы работы мозга, всё, о чём беспокоится природа, — создание новых периферийных устройств.
Okay. So what this means is this: The lesson that surfaces is that there's nothing really special or fundamental about the biology that we come to the table with. It's just what we have inherited from a complex road of evolution. But it's not what we have to stick with, and our best proof of principle of this comes from what's called sensory substitution. And that refers to feeding information into the brain via unusual sensory channels, and the brain just figures out what to do with it.
Итак, что же это означает? Это означает, что нет ничего особенного или основополагающего в биологическом строении наших тел. Это просто то, что мы получили в процессе долгой и непростой эволюции. Но мы не обязаны оставаться в этих рамках, и лучшее доказательство этого — так называемое сенсорное замещение. Это когда информация попадает в мозг по необычным каналам восприятия, а мозг сам понимает, что с ней делать.
Now, that might sound speculative, but the first paper demonstrating this was published in the journal Nature in 1969. So a scientist named Paul Bach-y-Rita put blind people in a modified dental chair, and he set up a video feed, and he put something in front of the camera, and then you would feel that poked into your back with a grid of solenoids. So if you wiggle a coffee cup in front of the camera, you're feeling that in your back, and amazingly, blind people got pretty good at being able to determine what was in front of the camera just by feeling it in the small of their back. Now, there have been many modern incarnations of this. The sonic glasses take a video feed right in front of you and turn that into a sonic landscape, so as things move around, and get closer and farther, it sounds like "Bzz, bzz, bzz." It sounds like a cacophony, but after several weeks, blind people start getting pretty good at understanding what's in front of them just based on what they're hearing. And it doesn't have to be through the ears: this system uses an electrotactile grid on the forehead, so whatever's in front of the video feed, you're feeling it on your forehead. Why the forehead? Because you're not using it for much else.
Может показаться, что это просто болтовня, но первая работа, описывавшая это, появилась в журнале Nature в 1969 году. Учёный Пол Бах-и-Рита сажал слепых людей в модифицированное стоматологическое кресло и включал специальную видеокамеру: когда он помещал что-то перед камерой, люди чувствовали это изображение — оно вдавливалось им в спину с помощью решётки из соленоидов. То есть если он водил кофейной чашкой перед камерой, люди чувствовали это спиной, и, поразительно, но слепые люди стали очень хорошо определять, что стоит перед камерой, просто чувствуя это поясницей. Есть множество более современных вариаций этого опыта. Звуковые очки, которые записывают видео того, что вы видите, и превращают это в звуковой ландшафт: когда что-то движется, приближается и удаляется, оно звучит как «бз-з, бз-з, бз-з-з». Вроде какофония, но через нескольких недель слепые люди начинают очень хорошо понимать, что находится перед ними, основываясь на том, что слышат. Сигнал может поступать как угодно: в этой системе используется электротактильная сетка на лбу, так что вы лбом чувствуете, что находится перед вами. Почему лоб? Вы его ни для чего другого не используете.
The most modern incarnation is called the brainport, and this is a little electrogrid that sits on your tongue, and the video feed gets turned into these little electrotactile signals, and blind people get so good at using this that they can throw a ball into a basket, or they can navigate complex obstacle courses. They can come to see through their tongue. Now, that sounds completely insane, right? But remember, all vision ever is is electrochemical signals coursing around in your brain. Your brain doesn't know where the signals come from. It just figures out what to do with them.
Самая современная версия называется BrainPort: это маленькая электросетка, которая устанавливается на язык, и видеоряд превращается в слабые электротактильные сигналы, и слепые люди так хорошо это осваивают, что могут закинуть мяч в корзину или пройти сложную полосу препятствий. Они видят языком. Звучит безумно, да? Но помните, зрение — это просто электрохимические сигналы, проходящие через ваш мозг. Ваш мозг не знает, откуда эти сигналы приходят. Он только понимает, что с ними делать.
So my interest in my lab is sensory substitution for the deaf, and this is a project I've undertaken with a graduate student in my lab, Scott Novich, who is spearheading this for his thesis. And here is what we wanted to do: we wanted to make it so that sound from the world gets converted in some way so that a deaf person can understand what is being said. And we wanted to do this, given the power and ubiquity of portable computing, we wanted to make sure that this would run on cell phones and tablets, and also we wanted to make this a wearable, something that you could wear under your clothing. So here's the concept. So as I'm speaking, my sound is getting captured by the tablet, and then it's getting mapped onto a vest that's covered in vibratory motors, just like the motors in your cell phone. So as I'm speaking, the sound is getting translated to a pattern of vibration on the vest. Now, this is not just conceptual: this tablet is transmitting Bluetooth, and I'm wearing the vest right now. So as I'm speaking -- (Applause) -- the sound is getting translated into dynamic patterns of vibration. I'm feeling the sonic world around me.
В нашей лаборатории мы работаем над сенсорным замещением для глухих, и я работаю над одним проектом с аспирантом нашей лаборатории Скоттом Новичем, который возглавляет его для своей диссертации. Вот что мы хотим сделать: мы хотим, чтобы звуки окружающего мира преобразовывались так, чтобы глухой человек мог понять, что говорят другие люди. Мы хотели, учитывая распространённость и мощность переносных устройств, чтобы это работало на сотовых телефонах и планшетах и чтобы это можно было носить, например, под одеждой. Вот опытная модель. Когда я говорю, звук записывается планшетом, затем он отображается на жилет, покрытый вибромоторами, такими же как у вас в телефоне. Когда я говорю, звук конвертируется в последовательность вибраций на жилете. Это не просто идея: планшет передаёт сигнал по Bluetooth, а на мне надет этот самый жилет. И когда я говорю... (Аплодисменты) звук переводится в последовательность вибраций. Я чувствую мир звуков.
So, we've been testing this with deaf people now, and it turns out that after just a little bit of time, people can start feeling, they can start understanding the language of the vest.
Мы тестировали всё это вместе с глухими людьми, и оказалось, что после небольшого промежутка времени люди начинают чувствовать, они начинают понимать язык жилета.
So this is Jonathan. He's 37 years old. He has a master's degree. He was born profoundly deaf, which means that there's a part of his umwelt that's unavailable to him. So we had Jonathan train with the vest for four days, two hours a day, and here he is on the fifth day.
Это Джонатан. Ему 37 лет. У него есть степень магистра. Он был рождён глухим, что означает, что часть умвельта ему недоступна. Джонатан тренировался с жилетом по два часа в день четыре дня, и вот он на пятый день.
Scott Novich: You.
Скотт Нович: «Ты».
David Eagleman: So Scott says a word, Jonathan feels it on the vest, and he writes it on the board.
Дэвид Иглмэн: «Скотт говорит слово, Джонатан чувствует его жилетом и пишет его на доске».
SN: Where. Where.
СН: «Где. Где».
DE: Jonathan is able to translate this complicated pattern of vibrations into an understanding of what's being said.
ДИ: «Джонатан способен переводить этот сложный узор вибраций и понимать, что ему говорят».
SN: Touch. Touch.
СН: «Трогать. Трогать».
DE: Now, he's not doing this -- (Applause) -- Jonathan is not doing this consciously, because the patterns are too complicated, but his brain is starting to unlock the pattern that allows it to figure out what the data mean, and our expectation is that, after wearing this for about three months, he will have a direct perceptual experience of hearing in the same way that when a blind person passes a finger over braille, the meaning comes directly off the page without any conscious intervention at all. Now, this technology has the potential to be a game-changer, because the only other solution for deafness is a cochlear implant, and that requires an invasive surgery. And this can be built for 40 times cheaper than a cochlear implant, which opens up this technology globally, even for the poorest countries.
ДИ: Он делает это не... (Аплодисменты) Джонатан не делает это осознанно, потому что узоры вибраций слишком сложны, но его мозг начинает находить закономерности, которые позволяют понять, что означают эти данные, и мы надеемся, что после где-то трёх месяцев использования жилета он сможет напрямую воспринимать информацию на слух, бессознательно, так же как слепые люди, проводя пальцем по символам азбуки Брайля, понимают их значение напрямую, без всякого сознательного вмешательства. Эта технология может изменить мир, потому что единственное другое решение проблемы глухоты — кохлеарный имплантат, для установки которого необходима инвазивная операция. А эта технология может быть в 40 раз дешевле кохлеарного имплантата, что делает её доступной для всего мира, даже для беднейших стран.
Now, we've been very encouraged by our results with sensory substitution, but what we've been thinking a lot about is sensory addition. How could we use a technology like this to add a completely new kind of sense, to expand the human umvelt? For example, could we feed real-time data from the Internet directly into somebody's brain, and can they develop a direct perceptual experience?
Мы были очень воодушевлены результатами по сенсорному замещению, но теперь мы всё больше думаем о сенсорном дополнении. Как можно использовать такие технологии, чтобы добавить новый вид чувств, чтобы расширить умвельт человека? Например, можно ли направить поток данных из Интернета непосредственно в мозг, и смогут ли люди научиться воспринимать этот поток напрямую?
So here's an experiment we're doing in the lab. A subject is feeling a real-time streaming feed from the Net of data for five seconds. Then, two buttons appear, and he has to make a choice. He doesn't know what's going on. He makes a choice, and he gets feedback after one second. Now, here's the thing: The subject has no idea what all the patterns mean, but we're seeing if he gets better at figuring out which button to press. He doesn't know that what we're feeding is real-time data from the stock market, and he's making buy and sell decisions. (Laughter) And the feedback is telling him whether he did the right thing or not. And what we're seeing is, can we expand the human umvelt so that he comes to have, after several weeks, a direct perceptual experience of the economic movements of the planet. So we'll report on that later to see how well this goes. (Laughter)
Вот эксперимент, который мы проводим в лаборатории. Человек чувствует поток данных из Интернета в режиме реального времени в течение пяти секунд. Затем появляются две кнопки, и он должен сделать выбор. Он не знает, что происходит. Он делает выбор и получает отклик через секунду. Вот в чём дело: человек понятия не имеет, что означают сигналы, но мы увидим, станет ли он лучше определять, какую из кнопок нажать. Он не знает, что мы передаём реальные данные с фондовой биржи, он принимает решения о покупке и продаже. (Смех) А отклик говорит, правильно он выбрал или нет. В результате мы увидим, можно ли расширить умвельт человека, чтобы через несколько недель он получил прямое восприятие экономических изменений на планете. Потом мы расскажем вам, насколько удачно всё прошло. (Смех)
Here's another thing we're doing: During the talks this morning, we've been automatically scraping Twitter for the TED2015 hashtag, and we've been doing an automated sentiment analysis, which means, are people using positive words or negative words or neutral? And while this has been going on, I have been feeling this, and so I am plugged in to the aggregate emotion of thousands of people in real time, and that's a new kind of human experience, because now I can know how everyone's doing and how much you're loving this. (Laughter) (Applause) It's a bigger experience than a human can normally have.
Вот ещё одно направление исследований: во время выступлений этим утром мы автоматически сканировали Твиттер по хэштегу TED2015 и проводили автоматический анализ тональности текста — выясняли, какие слова используются: позитивные, негативные или нейтральные. И всё это время я чувствовал это: я подключён к совокупным эмоциям тысяч людей в реальном времени. Это новый вид ощущений для человека, теперь я знаю, как у всех дела и как сильно вам всё это нравится. (Смех) (Аплодисменты) Это больше, чем обычно доступно людям.
We're also expanding the umvelt of pilots. So in this case, the vest is streaming nine different measures from this quadcopter, so pitch and yaw and roll and orientation and heading, and that improves this pilot's ability to fly it. It's essentially like he's extending his skin up there, far away.
Мы также расширяем умвельт пилотов. В данном случае жилет передаёт девять параметров с этого квадрокоптера: тангаж, рыскание, крен, положение и направление, и это улучшает способность пилота им управлять. По сути мы расширили его ощущения при помощи данных с летательного аппарата.
And that's just the beginning. What we're envisioning is taking a modern cockpit full of gauges and instead of trying to read the whole thing, you feel it. We live in a world of information now, and there is a difference between accessing big data and experiencing it.
И это только начало. Мы хотим взять современную кабину, полную измерительных приборов, и сделать так, чтобы вместо считывания показаний, пилоты чувствовали их. Мы живём в мире информации, и есть разница между доступом ко множеству данных и их прямым восприятием.
So I think there's really no end to the possibilities on the horizon for human expansion. Just imagine an astronaut being able to feel the overall health of the International Space Station, or, for that matter, having you feel the invisible states of your own health, like your blood sugar and the state of your microbiome, or having 360-degree vision or seeing in infrared or ultraviolet.
Я думаю, что сейчас перед нами безграничные возможности по расширению возможностей человека. Только представьте космонавта, способного почувствовать общее состояние Международной космической станции, или, например, вас самих, чувствующих незримые показатели вашего здоровья: уровень сахара в крови, состояние микрофлоры. Или представьте 360-градусное зрение или возможность видеть в ИК и УФ диапазоне.
So the key is this: As we move into the future, we're going to increasingly be able to choose our own peripheral devices. We no longer have to wait for Mother Nature's sensory gifts on her timescales, but instead, like any good parent, she's given us the tools that we need to go out and define our own trajectory. So the question now is, how do you want to go out and experience your universe?
Суть вот в чём: чем дальше в будущее мы уходим, тем больше будет выбор периферийных устройств. Нам больше не нужно ждать сенсорных подарков от матери-природы, подарков в её темпе, вместо этого, как любой хороший родитель, она дала нам все инструменты, чтобы мы могли сами определить свой путь. Так что, вопрос теперь стоит так: как вы хотите ощущать вселенную?
Thank you.
Спасибо.
(Applause)
(Аплодисменты)
Chris Anderson: Can you feel it? DE: Yeah.
Крис Андерсон: Вы это чувствуете? ДИ: Да.
Actually, this was the first time I felt applause on the vest. It's nice. It's like a massage. (Laughter)
На самом деле это первый раз, когда я чувствую аплодисменты жилетом. Это приятно. Похоже на массаж.
CA: Twitter's going crazy. Twitter's going mad. So that stock market experiment. This could be the first experiment that secures its funding forevermore, right, if successful?
КА: Твиттер с ума сходит. Просто с катушек слетел. А эксперимент с фондовой биржей, это может быть первый эксперимент, который сам обеспечит себе финансирование навсегда, если всё получится, верно?
DE: Well, that's right, I wouldn't have to write to NIH anymore.
ДИ: Да, мне больше не придётся писать заявки на гранты.
CA: Well look, just to be skeptical for a minute, I mean, this is amazing, but isn't most of the evidence so far that sensory substitution works, not necessarily that sensory addition works? I mean, isn't it possible that the blind person can see through their tongue because the visual cortex is still there, ready to process, and that that is needed as part of it?
КА: Давайте на минуту побудем скептиками, всё это чудесно, но ведь большинство свидетельств подтверждают лишь возможность сенсорного замещения, но не сенсорного дополнения, так? То есть, возможно ли, что слепые люди могут видеть с помощью языка, потому что у них есть зрительная кора, готовая к обработке такой информации, и что это — необходимое условие?
DE: That's a great question. We actually have no idea what the theoretical limits are of what kind of data the brain can take in. The general story, though, is that it's extraordinarily flexible. So when a person goes blind, what we used to call their visual cortex gets taken over by other things, by touch, by hearing, by vocabulary. So what that tells us is that the cortex is kind of a one-trick pony. It just runs certain kinds of computations on things. And when we look around at things like braille, for example, people are getting information through bumps on their fingers. So I don't think we have any reason to think there's a theoretical limit that we know the edge of.
ДИ: Это хороший вопрос. На самом деле мы не знаем даже теоретических пределов способностей мозга по обработке разных типов данных. Однако известно, что мозг — невероятно гибкая штука. Когда человек слепнет, то, что мы называли зрительной корой, захватывают другие процессы: осязание, слух, работа со словарным запасом. Это говорит нам, что кора головного мозга делает всего одну вещь, но очень хорошо. Она просто проводит некоторые виды вычислений. И если мы возьмём разные примеры, скажем, шрифт Брайля, люди получают информацию через подушечки пальцев. Я не думаю, что есть причина считать, что существует теоретический предел, который мы можем определить.
CA: If this checks out, you're going to be deluged. There are so many possible applications for this. Are you ready for this? What are you most excited about, the direction it might go? DE: I mean, I think there's a lot of applications here. In terms of beyond sensory substitution, the things I started mentioning about astronauts on the space station, they spend a lot of their time monitoring things, and they could instead just get what's going on, because what this is really good for is multidimensional data. The key is this: Our visual systems are good at detecting blobs and edges, but they're really bad at what our world has become, which is screens with lots and lots of data. We have to crawl that with our attentional systems. So this is a way of just feeling the state of something, just like the way you know the state of your body as you're standing around. So I think heavy machinery, safety, feeling the state of a factory, of your equipment, that's one place it'll go right away.
КА: Если всё это подтвердится, вас завалят предложениями. Существует невероятно много возможных применений. Вы готовы к этому? Чего вы больше всего ожидаете, развития в каком направлении? ДИ: Существует много приложений. Кроме сенсорного замещения, я уже упоминал о космонавтах на космической станции, они тратят много времени, наблюдая за вещами, которые они могли бы просто почувствовать. Этот способ отлично подходит для восприятия многомерных данных. Суть в том, что наша зрительная система хорошо различает пятна и края, но она очень плохо справляется с современным миром — с экранами с огромным множеством данных. Нам приходится медленно переносить своё внимание. А это способ просто почувствовать состояние чего-то, так же как вы чувствуете состояние вашего тела. Тяжёлая промышленность, безопасность, ощущение состояния завода, вашего оборудования, я думаю, тут сразу найдётся применение.
CA: David Eagleman, that was one mind-blowing talk. Thank you very much.
КА: Дэвид Иглмен, огромное спасибо за сногсшибательное выступление.
DE: Thank you, Chris. (Applause)
ДИ: Спасибо, Крис. (Аплодисменты)