We are built out of very small stuff, and we are embedded in a very large cosmos, and the fact is that we are not very good at understanding reality at either of those scales, and that's because our brains haven't evolved to understand the world at that scale.
Somos feitos de partes bem pequenas, e estamos inseridos num cosmos gigantesco, e a questão é que não somos muito bons em compreender a realidade em qualquer uma dessas escalas, isso porque, nossos cérebros não evoluíram para compreender o mundo nesta escala.
Instead, we're trapped on this very thin slice of perception right in the middle. But it gets strange, because even at that slice of reality that we call home, we're not seeing most of the action that's going on. So take the colors of our world. This is light waves, electromagnetic radiation that bounces off objects and it hits specialized receptors in the back of our eyes. But we're not seeing all the waves out there. In fact, what we see is less than a 10 trillionth of what's out there. So you have radio waves and microwaves and X-rays and gamma rays passing through your body right now and you're completely unaware of it, because you don't come with the proper biological receptors for picking it up. There are thousands of cell phone conversations passing through you right now, and you're utterly blind to it.
Em vez disso, estamos presos nesta fatia bem fina de percepção, bem no meio. Mas é estranho, porque mesmo nesta fatia de realidade que chamamos de lar, não vemos a maioria das coisas que estão acontecendo. Considere as cores do nosso mundo. São ondas de luz, radiações eletromagnéticas refletidas pelos objetos, que atingem receptores especiais no fundo dos nossos olhos. Mas não vemos todas as ondas que existem. Na verdade, vemos menos de 10 trilionésimos de todas que existem. Temos ondas de rádio e micro-ondas, raios X e raios gama que atravessam o seu corpo bem agora, e você está completamente inconsciente disto, porque você não nasceu com os receptores biológicos adequados para capturá-los. Há milhares de conversas de telefones celulares passando através de você bem agora, e você está totalmente cego a isto.
Now, it's not that these things are inherently unseeable. Snakes include some infrared in their reality, and honeybees include ultraviolet in their view of the world, and of course we build machines in the dashboards of our cars to pick up on signals in the radio frequency range, and we built machines in hospitals to pick up on the X-ray range. But you can't sense any of those by yourself, at least not yet, because you don't come equipped with the proper sensors.
Agora, não é que estas coisas sejam inerentemente invisíveis. As cobras registram um pouco de infravermelho em sua realidade; e abelhas registram o ultravioleta em sua visão do mundo; e, é claro, construímos máquinas nos painéis de nossos carros para captar sinais na faixa de frequência de rádio; e construímos máquinas nos hospitais para captar a faixa de raio X. Mas você não pode sentir nenhuma destas faixas por si mesmo, pelo menos ainda não, porque você não vem equipado com os sensores adequados.
Now, what this means is that our experience of reality is constrained by our biology, and that goes against the common sense notion that our eyes and our ears and our fingertips are just picking up the objective reality that's out there. Instead, our brains are sampling just a little bit of the world.
Agora, o que isto quer dizer é que a nossa experiência da realidade é limitada pela nossa biologia, o que contraria a ideia comumente aceita de que os olhos, ouvidos e as pontas dos dedos captam a realidade objetiva ao nosso redor. Em vez disso, nossos cérebros mostram apenas um pouco do mundo.
Now, across the animal kingdom, different animals pick up on different parts of reality. So in the blind and deaf world of the tick, the important signals are temperature and butyric acid; in the world of the black ghost knifefish, its sensory world is lavishly colored by electrical fields; and for the echolocating bat, its reality is constructed out of air compression waves. That's the slice of their ecosystem that they can pick up on, and we have a word for this in science. It's called the umwelt, which is the German word for the surrounding world. Now, presumably, every animal assumes that its umwelt is the entire objective reality out there, because why would you ever stop to imagine that there's something beyond what we can sense. Instead, what we all do is we accept reality as it's presented to us.
Agora, no reino animal, vários animais captam partes diferentes da realidade. Então, no mundo cego e surdo do carrapato, os sinais importantes são: a temperatura e o ácido butírico; no mundo do peixe fantasma negro, o mundo sensorial é ricamente colorido por campos elétricos; e para o morcego, que se orienta pelo eco, a realidade é construída a partir das ondas de compressão de ar. Essa é a fatia do ecossistema que eles podem captar e, na ciência, há uma palavra para isto: "umwelt", que é a palavra alemã para "o mundo ao redor". Provavelmente todo animal crê que o seu umwelt seja toda a realidade objetiva existente, pois, por que deveríamos imaginar que há algo além do que podemos sentir? Em vez disso, o que fazemos é aceitar a realidade do modo que nos é apresentada.
Let's do a consciousness-raiser on this. Imagine that you are a bloodhound dog. Your whole world is about smelling. You've got a long snout that has 200 million scent receptors in it, and you have wet nostrils that attract and trap scent molecules, and your nostrils even have slits so you can take big nosefuls of air. Everything is about smell for you. So one day, you stop in your tracks with a revelation. You look at your human owner and you think, "What is it like to have the pitiful, impoverished nose of a human? (Laughter) What is it like when you take a feeble little noseful of air? How can you not know that there's a cat 100 yards away, or that your neighbor was on this very spot six hours ago?" (Laughter)
Vamos deixar isto mais claro. Imagine que você seja um cão da raça sabujo. O seu mundo é só de cheiros. Você tem um longo focinho com 200 milhões de receptores de odor, e narinas úmidas que atraem e aprisionam moléculas de odor; e suas narinas têm fendas para que você possa tomar bastante ar. Tudo está relacionado ao cheiro para você. Então um dia, você para numa de suas trilhas com uma revelação. Olha para o seu dono e pensa: "Como é ter este lamentável e empobrecido nariz de humano?" (Risos) Como é inalar tão pouco ar? Como é possível não perceber que há um gato a 90 metros de distância, ou que o seu vizinho estava neste mesmo lugar há seis horas?” (Risos)
So because we're humans, we've never experienced that world of smell, so we don't miss it, because we are firmly settled into our umwelt. But the question is, do we have to be stuck there? So as a neuroscientist, I'm interested in the way that technology might expand our umwelt, and how that's going to change the experience of being human.
Então, porque somos humanos e nunca experimentamos esse mundo do cheiro, não sentimos falta, pois estamos firmemente adaptados ao nosso umwelt. Mas a questão é: "Temos que ficar presos nele?" Como neurocientista, me interesso no modo em que a tecnologia pode expandir o nosso umwelt, e como isto vai mudar a experiência de ser humano.
So we already know that we can marry our technology to our biology, because there are hundreds of thousands of people walking around with artificial hearing and artificial vision. So the way this works is, you take a microphone and you digitize the signal, and you put an electrode strip directly into the inner ear. Or, with the retinal implant, you take a camera and you digitize the signal, and then you plug an electrode grid directly into the optic nerve. And as recently as 15 years ago, there were a lot of scientists who thought these technologies wouldn't work. Why? It's because these technologies speak the language of Silicon Valley, and it's not exactly the same dialect as our natural biological sense organs. But the fact is that it works; the brain figures out how to use the signals just fine.
Já sabemos que podemos unir a tecnologia à nossa biologia, porque há centenas de milhares de pessoas andando por aí com audição e visão artificiais. Funciona assim: você pega um microfone e digitaliza o sinal; e você coloca uma tira de eletrodo diretamente no ouvido interno. Ou, com o implante de retina, você pega uma câmera e digitaliza o sinal, então pluga uma rede de eletrodos diretamente no nervo ótico. E, há aproximadamente 15 anos, muitos cientistas pensavam que estas tecnologias não funcionariam. Por quê? Porque estas tecnologias falam a língua do Vale do Silício, e este não é o mesmo dialeto dos nossos órgãos sensoriais naturais. Mas o fato é que funciona; o cérebro descobre como usar os sinais muito bem.
Now, how do we understand that? Well, here's the big secret: Your brain is not hearing or seeing any of this. Your brain is locked in a vault of silence and darkness inside your skull. All it ever sees are electrochemical signals that come in along different data cables, and this is all it has to work with, and nothing more. Now, amazingly, the brain is really good at taking in these signals and extracting patterns and assigning meaning, so that it takes this inner cosmos and puts together a story of this, your subjective world.
Agora, como conseguimos comprender? Bem, aqui está o grande segredo: o cérebro não ouve nem vê nada disto. Ele está trancado num vácuo de silêncio e escuridão dentro do seu crânio. Tudo o que ele vê são sinais eletroquímicos que chegam até ele por meio de vários cabos de dados, e isto é tudo o que ele tem para trabalhar e nada mais. Agora, surpreendentemente, o cérebro é muito eficiente em captar estes sinais, extrair padrões deles e dar-lhes significado, de modo que ele pega o cosmos interno e monta uma história do seu mundo subjetivo.
But here's the key point: Your brain doesn't know, and it doesn't care, where it gets the data from. Whatever information comes in, it just figures out what to do with it. And this is a very efficient kind of machine. It's essentially a general purpose computing device, and it just takes in everything and figures out what it's going to do with it, and that, I think, frees up Mother Nature to tinker around with different sorts of input channels.
Mas aqui esta o ponto-chave: o cérebro não sabe, e nem se importa com de onde ele retira as informações. Ele tenta descobrir o que fazer com qualquer informação que chega. É um tipo de máquina bem eficiente. É essencialmente um dispositivo de computação de propósito geral, e, simplesmente, capta tudo, e descobre o que tem que fazer, e isto, creio eu, libera a Mãe Natureza para experimentar vários tipos de canais de entrada.
So I call this the P.H. model of evolution, and I don't want to get too technical here, but P.H. stands for Potato Head, and I use this name to emphasize that all these sensors that we know and love, like our eyes and our ears and our fingertips, these are merely peripheral plug-and-play devices: You stick them in, and you're good to go. The brain figures out what to do with the data that comes in. And when you look across the animal kingdom, you find lots of peripheral devices. So snakes have heat pits with which to detect infrared, and the ghost knifefish has electroreceptors, and the star-nosed mole has this appendage with 22 fingers on it with which it feels around and constructs a 3D model of the world, and many birds have magnetite so they can orient to the magnetic field of the planet. So what this means is that nature doesn't have to continually redesign the brain. Instead, with the principles of brain operation established, all nature has to worry about is designing new peripherals.
Eu chamo isto de modelo de evolução C.B., eu não quero ser muito técnico, mas C.B. significa Cabeça de Batata, e eu uso este nome para enfatizar que todos estes sensores que nós conhecemos e amamos, como nossos olhos, ouvidos e dedos, são meramente dispositivos periféricos “plug-and-play"; você os conecta e estão prontos para serem usados. O cérebro descobre o que fazer com as informações que chegam. E quando você olha para o reino animal, você encontra muitos dispositivos periféricos. As cobras têm fendas de calor que permitem detectar o infravermelho, o fantasma negro tem receptores elétricos e a toupeira-nariz-de-estrela tem um apêndice, com 22 tentáculos, que permite sentir o ambiente e construir um modelo 3D do mundo; vários pássaros têm magnetita, e assim eles podem se orientar pelo campo magnético do planeta. Isto quer dizer que a natureza não tem que, continuamente, reprojetar o cérebro. Em vez disso, com as bases da operação cerebral estabelecidas, tudo o que a natureza precisa é projetar novos periféricos.
Okay. So what this means is this: The lesson that surfaces is that there's nothing really special or fundamental about the biology that we come to the table with. It's just what we have inherited from a complex road of evolution. But it's not what we have to stick with, and our best proof of principle of this comes from what's called sensory substitution. And that refers to feeding information into the brain via unusual sensory channels, and the brain just figures out what to do with it.
Certo. Isto quer dizer o seguinte: a lição que fica é que não há nada realmente especial ou fundamental sobre a biologia que nós precisamos discutir. É apenas o que nós herdamos de uma complexa estrada da evolução. Mas não somos obrigados a continuar assim, e nossa melhor prova deste princípio vem do que é chamado de substituição sensorial. Isto refere-se a alimentar o cérebro com informações via canais sensoriais incomuns, e o cérebro simplesmente descobre o que fazer com elas.
Now, that might sound speculative, but the first paper demonstrating this was published in the journal Nature in 1969. So a scientist named Paul Bach-y-Rita put blind people in a modified dental chair, and he set up a video feed, and he put something in front of the camera, and then you would feel that poked into your back with a grid of solenoids. So if you wiggle a coffee cup in front of the camera, you're feeling that in your back, and amazingly, blind people got pretty good at being able to determine what was in front of the camera just by feeling it in the small of their back. Now, there have been many modern incarnations of this. The sonic glasses take a video feed right in front of you and turn that into a sonic landscape, so as things move around, and get closer and farther, it sounds like "Bzz, bzz, bzz." It sounds like a cacophony, but after several weeks, blind people start getting pretty good at understanding what's in front of them just based on what they're hearing. And it doesn't have to be through the ears: this system uses an electrotactile grid on the forehead, so whatever's in front of the video feed, you're feeling it on your forehead. Why the forehead? Because you're not using it for much else.
Bom, isto pode soar especulativo, mas o primeiro artigo demonstrando isso foi publicado na revista Nature em 1969. Um cientista chamado Paul Bach-y-Rita colocou pessoas cegas numa cadeira de dentista modificada, montou uma transmissão de vídeo e colocou algo em frente à câmera, então você sentiria que a suas costas eram cutucadas por uma rede de solenoides. Então se você mexesse uma xícara de café, em frente à câmera, você sentiria isso em suas costas e, surpreendentemente, as pessoas cegas foram muito bem em descrever o que estava em frente à câmera, apenas por sentir isso nas costas. Agora, há vários modelos modernos disso. Os óculos sônicos pegam uma transmissão de vídeo na sua frente e a transformam numa paisagem sônica. Conforme as coisas se movem ao redor, e se aproximam ou se afastam, soa como "buzz, buzz, buzz." Soa como uma cacofonia, mas após algumas semanas, as pessoas cegas começam a ter um bom desempenho na compreensão do que está à sua frente, baseando-se apenas no que estão ouvindo. E não precisa ser através do ouvidos: esse sistema usa uma rede eletrotátil na testa; e tudo o que estiver à frente da câmera será sentido pela sua testa. Por que a testa? Porque você não a usa para nada.
The most modern incarnation is called the brainport, and this is a little electrogrid that sits on your tongue, and the video feed gets turned into these little electrotactile signals, and blind people get so good at using this that they can throw a ball into a basket, or they can navigate complex obstacle courses. They can come to see through their tongue. Now, that sounds completely insane, right? But remember, all vision ever is is electrochemical signals coursing around in your brain. Your brain doesn't know where the signals come from. It just figures out what to do with them.
O modelo mais moderno é chamado de BrainPort, uma pequena rede elétrica colocada sobre a língua, as imagens são transformadas em pequenos sinais eletrotáteis; e os cegos se adaptaram tão bem que conseguem jogar uma bola na cesta, ou conseguem percorrer rotas complexas com obstáculos. Eles acabam vendo através da língua. Bem, isto soa completamente insano, não é? Mas lembre-se que toda visão é feita de sinais eletroquímicos que viajam pelo cérebro. O cérebro não sabe de onde vêm os sinais, apenas descobre o que fazer com eles.
So my interest in my lab is sensory substitution for the deaf, and this is a project I've undertaken with a graduate student in my lab, Scott Novich, who is spearheading this for his thesis. And here is what we wanted to do: we wanted to make it so that sound from the world gets converted in some way so that a deaf person can understand what is being said. And we wanted to do this, given the power and ubiquity of portable computing, we wanted to make sure that this would run on cell phones and tablets, and also we wanted to make this a wearable, something that you could wear under your clothing. So here's the concept. So as I'm speaking, my sound is getting captured by the tablet, and then it's getting mapped onto a vest that's covered in vibratory motors, just like the motors in your cell phone. So as I'm speaking, the sound is getting translated to a pattern of vibration on the vest. Now, this is not just conceptual: this tablet is transmitting Bluetooth, and I'm wearing the vest right now. So as I'm speaking -- (Applause) -- the sound is getting translated into dynamic patterns of vibration. I'm feeling the sonic world around me.
Então, meu interesse no meu laboratório é a substituição sensorial para os surdos, e este é um projeto que eu tenho desenvolvido com um aluno de pós-graduação no meu laboratório, Scott Novich, que está encabeçando-o para a sua tese. E aqui está o que queríamos fazer: queríamos que o som do mundo fosse convertido de modo que um surdo pudesse entender o que lhe foi dito. Dado o poder e a onipresença da computação portátil; queríamos ter certeza de que isso funcionaria em celulares e tablets; e também queríamos torná-lo vestível, algo que se pudesse usar por baixo das roupas. Aqui está o conceito. Conforme eu falo, minha voz é capturada pelo tablet e, então, é mapeada sobre um colete coberto por motores vibratórios, iguais aos motores do seu celular. Conforme eu falo, o som é traduzido para um padrão de vibração sobre o colete. Agora, isto não é apenas conceitual: este tablet está transmitindo em Bluetooth e eu estou usando o colete agora. Então, conforme eu falo, o som é traduzido em padrões dinâmicos de vibração. (Aplausos) Estou sentindo o mundo sônico ao meu redor.
So, we've been testing this with deaf people now, and it turns out that after just a little bit of time, people can start feeling, they can start understanding the language of the vest.
Estamos testando isso com surdos agora, e após um curto espaço de tempo, as pessoas começaram a sentir, elas começaram a entender a linguagem do colete.
So this is Jonathan. He's 37 years old. He has a master's degree. He was born profoundly deaf, which means that there's a part of his umwelt that's unavailable to him. So we had Jonathan train with the vest for four days, two hours a day, and here he is on the fifth day.
Este é o Jonathan. Ele tem 37 anos e possui mestrado. Nasceu com surdez profunda, o que significa que uma parte de seu umwelt está indisponível. Então, treinamos Jonathan com o colete por quatro dias, duas horas ao dia, e aqui está ele no quinto dia.
Scott Novich: You.
Scott Novich: Você.
David Eagleman: So Scott says a word, Jonathan feels it on the vest, and he writes it on the board.
David Eagleman: Scott diz uma palavra, Jonathan a sente sobre o colete e a escreve no quadro.
SN: Where. Where.
SN: Onde. Onde.
DE: Jonathan is able to translate this complicated pattern of vibrations into an understanding of what's being said.
DE: Jonathan é capaz de traduzir este complicado padrão de vibrações para uma compreensão do que está sendo dito.
SN: Touch. Touch.
SN: Toque. Toque.
DE: Now, he's not doing this -- (Applause) -- Jonathan is not doing this consciously, because the patterns are too complicated, but his brain is starting to unlock the pattern that allows it to figure out what the data mean, and our expectation is that, after wearing this for about three months, he will have a direct perceptual experience of hearing in the same way that when a blind person passes a finger over braille, the meaning comes directly off the page without any conscious intervention at all. Now, this technology has the potential to be a game-changer, because the only other solution for deafness is a cochlear implant, and that requires an invasive surgery. And this can be built for 40 times cheaper than a cochlear implant, which opens up this technology globally, even for the poorest countries.
DN: Bem, ele não faz isso... (Aplausos) Jonathan não faz isso conscientemente, porque os padrões são bem complicados, mas seu cérebro está começando a decifrar o padrão que lhe permita descobrir o que os dados significam, e nossa expectativa é de que, após o uso do colete por três meses, ele terá uma experiência perceptiva direta de audição, do mesmo modo que uma pessoa cega, ao passar o dedo sobre o braille, entende o significado direto da página sem nenhum tipo de intervenção consciente. Bom, essa tecnologia tem o potencial para ser um divisor de águas, porque a única outra solução para a surdez é um implante coclear, e isso requer uma cirurgia invasiva. E isso pode ser feito 40 vezes mais barato do que um implante coclear, o que torna essa tecnologia acessível, mesmo para os países mais pobres.
Now, we've been very encouraged by our results with sensory substitution, but what we've been thinking a lot about is sensory addition. How could we use a technology like this to add a completely new kind of sense, to expand the human umvelt? For example, could we feed real-time data from the Internet directly into somebody's brain, and can they develop a direct perceptual experience?
Ficamos muito encorajados pelos resultados com a substituição sensorial, mas temos pensado muito sobre a ampliação sensorial. Como podemos usar uma tecnologia como esta para adicionar novos sentidos, expandir o umwelt humano? Por exemplo, poderíamos levar dados da internet, em tempo real, direto para o cérebro de alguém, e esse alguém seria capaz de desenvolver uma experiência perceptiva direta?
So here's an experiment we're doing in the lab. A subject is feeling a real-time streaming feed from the Net of data for five seconds. Then, two buttons appear, and he has to make a choice. He doesn't know what's going on. He makes a choice, and he gets feedback after one second. Now, here's the thing: The subject has no idea what all the patterns mean, but we're seeing if he gets better at figuring out which button to press. He doesn't know that what we're feeding is real-time data from the stock market, and he's making buy and sell decisions. (Laughter) And the feedback is telling him whether he did the right thing or not. And what we're seeing is, can we expand the human umvelt so that he comes to have, after several weeks, a direct perceptual experience of the economic movements of the planet. So we'll report on that later to see how well this goes. (Laughter)
Este é um experimento no laboratório: um sujeito sente, em tempo real, os dados transmitidos pela internet por cinco segundos. Então, dois botões aparecem e ele tem que fazer uma escolha. Ele não sabe o que está acontecendo. Ele faz uma escolha e recebe feedback um segundo depois. Agora veja, o sujeito não tem ideia do que todos os padrões querem dizer, mas estamos vendo se ele fica melhor em descobrir qual botão deve apertar. Ele não sabe que o que estamos fornecendo são dados, em tempo real, do mercado de ações, e ele toma decisões de compra e venda. (Risos) O feedback lhe diz se ele fez a coisa certa ou não. Estamos vendo que podemos expandir o umwelt humano de modo que ele venha a ter, após várias semanas, uma experiência perceptiva direta dos movimentos econômicos do planeta. Então nós apresentaremos um relatório sobre isso depois para ver como foi. (Risos)
Here's another thing we're doing: During the talks this morning, we've been automatically scraping Twitter for the TED2015 hashtag, and we've been doing an automated sentiment analysis, which means, are people using positive words or negative words or neutral? And while this has been going on, I have been feeling this, and so I am plugged in to the aggregate emotion of thousands of people in real time, and that's a new kind of human experience, because now I can know how everyone's doing and how much you're loving this. (Laughter) (Applause) It's a bigger experience than a human can normally have.
Aqui está outra coisa que estamos fazendo: Durante as palestras esta manhã, nós filtramos automaticamente o Twitter com a hashtag TED2015, e fizemos uma análise automatizada de sentimentos, quer dizer: as pessoas usavam palavras positivas, negativas ou neutras? E enquanto tudo acontecia, eu sentia tudo e por isso eu estou plugado à emoção agregada de milhares de pessoas, em tempo real, e isto é um novo tipo de experiência humana, porque agora eu posso saber como todos se sentem e o quanto vocês estão amando isso. (Risos) (Aplausos) É uma experiência maior do que um humano normalmente pode ter.
We're also expanding the umvelt of pilots. So in this case, the vest is streaming nine different measures from this quadcopter, so pitch and yaw and roll and orientation and heading, and that improves this pilot's ability to fly it. It's essentially like he's extending his skin up there, far away.
Também estamos expandindo o umwelt de pilotos. Então, neste caso, o colete transmite nove medidas diferentes a partir deste quadricóptero, então balanço, movimento, giro, orientação e o rumo e isso melhora a habilidade de voar do piloto. É como se ele estendesse a pele até lá em cima, bem longe.
And that's just the beginning. What we're envisioning is taking a modern cockpit full of gauges and instead of trying to read the whole thing, you feel it. We live in a world of information now, and there is a difference between accessing big data and experiencing it.
E isto é só o começo. Pretendemos pegar uma cabine moderna, cheia de medidores, e em vez de tentar ler tudo, você o sentirá. Vivemos num mundo de informação agora, e há uma diferença entre acessar enormes quantidades de dados e experimentá-los.
So I think there's really no end to the possibilities on the horizon for human expansion. Just imagine an astronaut being able to feel the overall health of the International Space Station, or, for that matter, having you feel the invisible states of your own health, like your blood sugar and the state of your microbiome, or having 360-degree vision or seeing in infrared or ultraviolet.
Então, eu acho que não existe um fim para as possibilidades no horizonte para a expansão humana. Imagine um astronauta sendo capaz de sentir a saúde geral da Estação Espacial Internacional, ou, por falar nisso, você sentir o status invisível da sua própria saúde, como o açúcar no sangue e o estado do seu microbioma; ou ter uma visão de 360 graus; ou ver em infravermelho, ou ultravioleta.
So the key is this: As we move into the future, we're going to increasingly be able to choose our own peripheral devices. We no longer have to wait for Mother Nature's sensory gifts on her timescales, but instead, like any good parent, she's given us the tools that we need to go out and define our own trajectory. So the question now is, how do you want to go out and experience your universe?
Então a questão é que, conforme nos movemos para o futuro, seremos cada vez mais capazes de escolher nossos dispositivos periféricos. Não teremos mais que esperar pelos presentes sensoriais da Mãe Natureza com seus prazos, porém, como qualquer boa mãe, ela nos deu as ferramentas necessárias para definirmos nossa própria trajetória. Então a questão agora é: Como você quer sair e experimentar o seu universo?
Thank you.
Obrigado.
(Applause)
(Aplausos)
Chris Anderson: Can you feel it? DE: Yeah.
Chris Anderson: Está sentindo isso? DE: Estou.
Actually, this was the first time I felt applause on the vest. It's nice. It's like a massage. (Laughter)
Na verdade, esta foi a primeira vez que eu senti aplausos no colete. É legal! É como uma massagem. (Risos)
CA: Twitter's going crazy. Twitter's going mad. So that stock market experiment. This could be the first experiment that secures its funding forevermore, right, if successful?
CA: O Twitter está bombando. O experimento com o mercado de ações seria o primeiro experimento a assegurar o próprio financiamento para sempre, se for bem-sucedido, certo?
DE: Well, that's right, I wouldn't have to write to NIH anymore.
DE: Isso mesmo. Eu não teria que escrever mais para o INS.
CA: Well look, just to be skeptical for a minute, I mean, this is amazing, but isn't most of the evidence so far that sensory substitution works, not necessarily that sensory addition works? I mean, isn't it possible that the blind person can see through their tongue because the visual cortex is still there, ready to process, and that that is needed as part of it?
CA: Veja, sendo um pouco cético, quero dizer, isso é incrível, mas há evidência até o momento de que a substituição sensorial funciona, mas não necessariamente a adição sensorial. Bem, não é possível que uma pessoa cega possa ver através da língua porque o córtex visual ainda está lá, pronto para processar, e que isso seja uma parte necessária?
DE: That's a great question. We actually have no idea what the theoretical limits are of what kind of data the brain can take in. The general story, though, is that it's extraordinarily flexible. So when a person goes blind, what we used to call their visual cortex gets taken over by other things, by touch, by hearing, by vocabulary. So what that tells us is that the cortex is kind of a one-trick pony. It just runs certain kinds of computations on things. And when we look around at things like braille, for example, people are getting information through bumps on their fingers. So I don't think we have any reason to think there's a theoretical limit that we know the edge of.
DE: Ótima pergunta. Na verdade, não temos ideia de quais são os limites teóricos de que tipos de dados o cérebro pode assimilar. O fato é que ele é extremamente flexível. Quando uma pessoa fica cega, o que chamávamos de córtex visual é ocupado por outras coisas, pelo tato, audição, vocabulário. Isto nos mostra que o córtex tem um repertório limitado. Ele apenas faz alguns tipos de cálculos sobre as coisas. E quando olhamos ao redor para coisas como o braille, por exemplo, as pessoas obtém informações nos dedos através de protuberâncias. Então, eu não acho que há razão para pensar em limites teóricos que nós conhecemos.
CA: If this checks out, you're going to be deluged. There are so many possible applications for this. Are you ready for this? What are you most excited about, the direction it might go? DE: I mean, I think there's a lot of applications here. In terms of beyond sensory substitution, the things I started mentioning about astronauts on the space station, they spend a lot of their time monitoring things, and they could instead just get what's going on, because what this is really good for is multidimensional data. The key is this: Our visual systems are good at detecting blobs and edges, but they're really bad at what our world has become, which is screens with lots and lots of data. We have to crawl that with our attentional systems. So this is a way of just feeling the state of something, just like the way you know the state of your body as you're standing around. So I think heavy machinery, safety, feeling the state of a factory, of your equipment, that's one place it'll go right away.
CA: Se isto for comprovado, você ficará sobrecarregado de trabalho. Há muitas aplicações para isso. Você está preparado? O que mais o anima nisto, o rumo que pode tomar? DE: Eu creio que há várias aplicações aqui. Além da substituição sensorial, as coisas que eu tinha começado a falar, sobre os astronautas na estação espacial; eles gastam muito tempo monitorando coisas e, em vez disso, poderiam sentir o que está acontecendo, porque isto é muito bom para dados multidimensionais. A questão é que nosso sistema visual é bom em detectar manchas e bordas, mas é péssimo para o nosso mundo atual cheio de telas com uma infinidade de dados. Temos que rastrear isso com o nosso sistema de atenção. Isto é só um jeito de sentir o estado de algo, assim como você sabe qual é o estado do seu corpo quando em repouso. Eu acho que a maquinaria pesada, segurança, sentir o estado de uma fábrica, do seu equipamento, é algo que acontecerá em breve.
CA: David Eagleman, that was one mind-blowing talk. Thank you very much.
CA: David Eagleman, esta foi uma palestra alucinante. Muito obrigado.
DE: Thank you, Chris. (Applause)
DE: Obrigado, Chris. (Aplausos)