We are built out of very small stuff, and we are embedded in a very large cosmos, and the fact is that we are not very good at understanding reality at either of those scales, and that's because our brains haven't evolved to understand the world at that scale.
Siamo fatti di parti molto piccole, ma ci troviamo in un cosmo davvero grande e il punto è che non siamo molto bravi a comprendere la realtà in nessuna delle due dimensioni perché i nostri cervelli non sono ancora abbastanza evoluti per capire il mondo a una tale dimensione.
Instead, we're trapped on this very thin slice of perception right in the middle. But it gets strange, because even at that slice of reality that we call home, we're not seeing most of the action that's going on. So take the colors of our world. This is light waves, electromagnetic radiation that bounces off objects and it hits specialized receptors in the back of our eyes. But we're not seeing all the waves out there. In fact, what we see is less than a 10 trillionth of what's out there. So you have radio waves and microwaves and X-rays and gamma rays passing through your body right now and you're completely unaware of it, because you don't come with the proper biological receptors for picking it up. There are thousands of cell phone conversations passing through you right now, and you're utterly blind to it.
Siamo invece intrappolati in questa piccola fetta di percezione, proprio al centro. Ma la cosa strana è che, anche nella parte di realtà che ci è familiare, in realtà non riusciamo a vedere la maggior parte di ciò che avviene. Prendete i colori del nostro mondo, per esempio. Onde di luce, radiazioni elettromagnetiche che rimbalzano sugli oggetti e colpiscono recettori specializzati che stanno nel retro dei nostri occhi. Ma non vediamo tutte le onde che ci sono in realtà. Infatti ciò che vediamo è meno di un decitrilionesimo dell'esistente. Perciò ci sono onde radio, microonde e raggi X e gamma che stanno passando attraverso il vostro corpo proprio ora e ne siete totalmente inconsapevoli, perché non possedete i recettori biologici adatti per percepirli. Migliaia di conversazioni al cellulare stanno passando attraverso di voi proprio in questo momento e ne siete completamente inconsapevoli.
Now, it's not that these things are inherently unseeable. Snakes include some infrared in their reality, and honeybees include ultraviolet in their view of the world, and of course we build machines in the dashboards of our cars to pick up on signals in the radio frequency range, and we built machines in hospitals to pick up on the X-ray range. But you can't sense any of those by yourself, at least not yet, because you don't come equipped with the proper sensors.
Ora, non è che queste cose siano intrinsecamente invisibili. I serpenti percepiscono alcuni infrarossi nella loro realtà e le api includono gli ultravioletti nella loro visione del mondo e, certo, costruiamo macchine nei cruscotti delle nostre auto per cogliere segnali di una certa gamma di frequenze radio e costruiamo macchine negli ospedali che colgono raggi X. Ma nessuno di questi può essere percepito in completa autonomia, o almeno non ancora, perché non siamo equipaggiati dei sensori adeguati.
Now, what this means is that our experience of reality is constrained by our biology, and that goes against the common sense notion that our eyes and our ears and our fingertips are just picking up the objective reality that's out there. Instead, our brains are sampling just a little bit of the world.
Dunque, questo significa che la nostra esperienza della realtà è vincolata alla nostra biologia e questo va contro la nozione comune che i nostri occhi, le nostre orecchie e le nostre dita colgono la realtà oggettiva che c'è là fuori. Al contrario, il nostro cervello campiona solo una piccola parte di mondo.
Now, across the animal kingdom, different animals pick up on different parts of reality. So in the blind and deaf world of the tick, the important signals are temperature and butyric acid; in the world of the black ghost knifefish, its sensory world is lavishly colored by electrical fields; and for the echolocating bat, its reality is constructed out of air compression waves. That's the slice of their ecosystem that they can pick up on, and we have a word for this in science. It's called the umwelt, which is the German word for the surrounding world. Now, presumably, every animal assumes that its umwelt is the entire objective reality out there, because why would you ever stop to imagine that there's something beyond what we can sense. Instead, what we all do is we accept reality as it's presented to us.
In tutto il regno animale, animali diversi captano parti diverse della realtà. Per cui, nel mondo cieco e sordo della zecca, i segnali importanti sono temperatura e acido butirrico; nella realtà del pesce coltello, il suo mondo sensoriale è riccamente colorato da campi elettrici e per il pipistrello e la sua ecolocalizzazione, la realtà è costruita a partire da onde di aria compressa. È la fetta di ecosistema su cui possono fare affidamento; in scienza c'è una parola per questo. Si chiama umwelt, che è una parola tedesca che indica il mondo circostante. Ora, presumibilmente, ogni animale dà per scontato che il suo umwelt sia l'intera e oggettiva realtà che c'è lì fuori, perché per quale motivo mai ci si dovrebbe fermare a pensare che possa esistere qualcosa oltre ciò che si riesce a percepire. Al contrario, ciò che facciamo noi tutti è accettare la realtà come ci si presenta.
Let's do a consciousness-raiser on this. Imagine that you are a bloodhound dog. Your whole world is about smelling. You've got a long snout that has 200 million scent receptors in it, and you have wet nostrils that attract and trap scent molecules, and your nostrils even have slits so you can take big nosefuls of air. Everything is about smell for you. So one day, you stop in your tracks with a revelation. You look at your human owner and you think, "What is it like to have the pitiful, impoverished nose of a human? (Laughter) What is it like when you take a feeble little noseful of air? How can you not know that there's a cat 100 yards away, or that your neighbor was on this very spot six hours ago?" (Laughter)
Facciamoci un esame di coscienza. Immaginate di essere un cane da caccia. Il vostro intero mondo consiste nell'annusare. Avete un lungo naso che ha 200 milioni di recettori per gli odori e avete narici umide che attraggono e intrappolano le molecole di odore: le vostre narici sono belle grosse, così che possiate inalare tanta aria. Per voi tutto è questione di fiuto. Di colpo, un bel giorno, avete una rivelazione. Guardate il vostro padrone umano e pensate: "Come dev'essere avere quel penoso, piccolo naso impoverito da umano? (Risate) Come dev'essere quando respiri solo una flebile dose d'aria? Come puoi non sapere che c'è un gatto a un centinaio di metri da qui, o che il vicino era proprio in questo punto sei ore fa?" (Risate)
So because we're humans, we've never experienced that world of smell, so we don't miss it, because we are firmly settled into our umwelt. But the question is, do we have to be stuck there? So as a neuroscientist, I'm interested in the way that technology might expand our umwelt, and how that's going to change the experience of being human.
Proprio perché siamo umani, non abbiamo mai avuto esperienza di quel mondo di odori, perciò non ci manca, perché siamo fermamente radicati nel nostro umwelt. Ma il punto è, siamo davvero obbligati a restare bloccati qui? Ecco perché, da neuroscienziato, mi interessa il modo in cui la tecnologia potrebbe espandere il nostro umwelt e a come potrebbe cambiare l'esperienza di essere umani.
So we already know that we can marry our technology to our biology, because there are hundreds of thousands of people walking around with artificial hearing and artificial vision. So the way this works is, you take a microphone and you digitize the signal, and you put an electrode strip directly into the inner ear. Or, with the retinal implant, you take a camera and you digitize the signal, and then you plug an electrode grid directly into the optic nerve. And as recently as 15 years ago, there were a lot of scientists who thought these technologies wouldn't work. Why? It's because these technologies speak the language of Silicon Valley, and it's not exactly the same dialect as our natural biological sense organs. But the fact is that it works; the brain figures out how to use the signals just fine.
Sappiamo già di poter sposare tecnologia e biologia, perché ci sono centinaia di migliaia di persone che camminano intorno a noi con apparecchi acustici e di visione artificiale. Funziona così: si prende un microfono, si digitalizza il segnale e si mette una fascia di elettrodi direttamente nell'orecchio interno. Oppure, nel caso degli impianti retinici, si prende una videocamera, si digitalizza il segnale e si inserisce una griglia di elettrodi direttamente nel nervo ottico. E non più tardi di 15 anni fa, molti scienziati pensavano che queste tecnologie non avrebbero funzionato. Perché? Perché queste tecnologie parlano la lingua della Silicon Valley che non è esattamente lo stesso dialetto dei nostri organi di senso naturali. Ma il fatto è... che funziona: il cervello capisce come usare i segnali.
Now, how do we understand that? Well, here's the big secret: Your brain is not hearing or seeing any of this. Your brain is locked in a vault of silence and darkness inside your skull. All it ever sees are electrochemical signals that come in along different data cables, and this is all it has to work with, and nothing more. Now, amazingly, the brain is really good at taking in these signals and extracting patterns and assigning meaning, so that it takes this inner cosmos and puts together a story of this, your subjective world.
Ora, come lo capiamo? Beh, ecco il segreto: Il vostro cervello non sente né vede niente di tutto questo. Il cervello è rinchiuso in una cripta di silenzio e oscurità nel cranio. L'unica cosa che riceve sono segnali elettrochimici che arrivano tramite cavi dati diversi e questo è tutto ciò con cui ha a che fare, nulla di più. Sorprendentemente, il cervello è molto bravo a ricevere questi segnali, estrarne sequenze e assegnargli un significato, così che possa prendere questo cosmo interiore e creare una storia di questo, il vostro mondo soggettivo.
But here's the key point: Your brain doesn't know, and it doesn't care, where it gets the data from. Whatever information comes in, it just figures out what to do with it. And this is a very efficient kind of machine. It's essentially a general purpose computing device, and it just takes in everything and figures out what it's going to do with it, and that, I think, frees up Mother Nature to tinker around with different sorts of input channels.
Ma ecco il punto chiave: il vostro cervello non sa, e non gli importa di sapere, da dove vengono i dati. Qualsiasi informazione arrivi, semplicemente capisce cosa farne. È un tipo di macchina molto efficiente. Essenzialmente, è un generico dispositivo di computazione, riceve qualsiasi tipo di dato e capisce cosa farne e questo, credo, permette a Madre Natura di dilettarsi con ogni sorta di canali di input.
So I call this the P.H. model of evolution, and I don't want to get too technical here, but P.H. stands for Potato Head, and I use this name to emphasize that all these sensors that we know and love, like our eyes and our ears and our fingertips, these are merely peripheral plug-and-play devices: You stick them in, and you're good to go. The brain figures out what to do with the data that comes in. And when you look across the animal kingdom, you find lots of peripheral devices. So snakes have heat pits with which to detect infrared, and the ghost knifefish has electroreceptors, and the star-nosed mole has this appendage with 22 fingers on it with which it feels around and constructs a 3D model of the world, and many birds have magnetite so they can orient to the magnetic field of the planet. So what this means is that nature doesn't have to continually redesign the brain. Instead, with the principles of brain operation established, all nature has to worry about is designing new peripherals.
Io chiamo questo modello evolutivo "T.P." ovvero, senza andare troppo sul tecnico, "Testa di Patata"; uso questo nome per sottolineare che tutti i sensori che conosciamo e amiamo (occhi, orecchie, dita delle mani), sono semplicemente dispositivi plug-and-play ("collega-e-usa"): Li collegate e il gioco è fatto. Il cervello capisce cosa fare con i dati in ingresso. E quando si osserva il regno animale, si trovano parecchi dispositivi periferici. I serpenti hanno recettori termici con i quali percepiscono gli infrarossi, il pesce coltello ha elettrorecettori la talpa dal muso stellato ha un'appendice con 22 tentacoli con i quali percepisce e costruisce un modello 3D del mondo, e molti uccelli hanno la magnetite che permette loro di orientarsi nel campo magnetico del pianeta. Questo significa che la natura non deve continuamente ridisegnare l'intero cervello. Al contrario, una volta stabiliti i principi che regolano le attività cerebrali, la natura deve preoccuparsi solo di disegnare nuove periferiche.
Okay. So what this means is this: The lesson that surfaces is that there's nothing really special or fundamental about the biology that we come to the table with. It's just what we have inherited from a complex road of evolution. But it's not what we have to stick with, and our best proof of principle of this comes from what's called sensory substitution. And that refers to feeding information into the brain via unusual sensory channels, and the brain just figures out what to do with it.
Ok. Dunque ecco cosa significa: la morale della storia è che non c'è niente di davvero speciale o fondamentale nella biologia con cui siamo venuti al mondo. È semplicemente ciò che abbiamo ereditato da un complesso percorso evolutivo. Ma non è per forza qualcosa a cui dobbiamo attenerci e la prova di questo è ciò che chiamiamo sostituzione sensoriale. Ovvero introdurre informazioni nel cervello tramite canali sensoriali inusuali: il cervello capisce cosa farne.
Now, that might sound speculative, but the first paper demonstrating this was published in the journal Nature in 1969. So a scientist named Paul Bach-y-Rita put blind people in a modified dental chair, and he set up a video feed, and he put something in front of the camera, and then you would feel that poked into your back with a grid of solenoids. So if you wiggle a coffee cup in front of the camera, you're feeling that in your back, and amazingly, blind people got pretty good at being able to determine what was in front of the camera just by feeling it in the small of their back. Now, there have been many modern incarnations of this. The sonic glasses take a video feed right in front of you and turn that into a sonic landscape, so as things move around, and get closer and farther, it sounds like "Bzz, bzz, bzz." It sounds like a cacophony, but after several weeks, blind people start getting pretty good at understanding what's in front of them just based on what they're hearing. And it doesn't have to be through the ears: this system uses an electrotactile grid on the forehead, so whatever's in front of the video feed, you're feeling it on your forehead. Why the forehead? Because you're not using it for much else.
Potrebbe sembrare fantascienza, ma il primo articolo che lo dimostra è stato pubblicato su Nature nel 1969. Uno scienziato di nome Paul Bach-y-Rita mise delle persone cieche su una sedia da dentista modificata, impostò una fonte video e pose un oggetto davanti all'obiettivo che poi sarebbe stato percepito come un pungolare alla schiena tramite una griglia di solenoidi. Quindi, ponendo una tazza di caffè davanti all'obiettivo, lo si sentiva nella schiena e sorprendentemente, i ciechi diventavano piuttosto bravi a determinare quale fosse l'oggetto inquadrato dalla telecamera soltanto sentendolo sulla schiena. Ora, ci sono state diverse interpretazioni moderne di questo meccanismo. Ci sono occhiali che ricevono dati video di ciò che ci sta di fronte e li tramutano in un panorama sonoro, così che, quando le cose si muovono, si avvicinano e si allontanano, si sente un "Bzz, bzz, bzz". Suona come una sorta di cacofonia, ma dopo qualche settimana, i ciechi iniziano a capire molto bene cosa sta di fronte a loro, solo sulla base di ciò che sentono. E non bisogna per forza passare dalle orecchie: il sistema si serve di una griglia elettrica tattile sulla fronte, così qualsiasi sia la cosa di fronte al video, la si sente sulla fronte. Perché la fronte? Perché non la si usa per nient'altro.
The most modern incarnation is called the brainport, and this is a little electrogrid that sits on your tongue, and the video feed gets turned into these little electrotactile signals, and blind people get so good at using this that they can throw a ball into a basket, or they can navigate complex obstacle courses. They can come to see through their tongue. Now, that sounds completely insane, right? But remember, all vision ever is is electrochemical signals coursing around in your brain. Your brain doesn't know where the signals come from. It just figures out what to do with them.
L'incarnazione più moderna si chiama Brainport ed è una piccola griglia elettrica da posizionare sulla lingua così che la fonte video venga tramutata in piccoli segnali elettrici tattili e i ciechi diventano così bravi a usarla che possono lanciare una palla in un cesto o attraversare percorsi con ostacoli complessi. Possono arrivare a vedere attraverso la lingua. Sembra una follia vero? Ma ricordate, la visione in fondo non è altro che segnali elettrochimici che attraversano il cervello. Il cervello non sa da dove vengono questi segnali. Ma capisce cosa farne.
So my interest in my lab is sensory substitution for the deaf, and this is a project I've undertaken with a graduate student in my lab, Scott Novich, who is spearheading this for his thesis. And here is what we wanted to do: we wanted to make it so that sound from the world gets converted in some way so that a deaf person can understand what is being said. And we wanted to do this, given the power and ubiquity of portable computing, we wanted to make sure that this would run on cell phones and tablets, and also we wanted to make this a wearable, something that you could wear under your clothing. So here's the concept. So as I'm speaking, my sound is getting captured by the tablet, and then it's getting mapped onto a vest that's covered in vibratory motors, just like the motors in your cell phone. So as I'm speaking, the sound is getting translated to a pattern of vibration on the vest. Now, this is not just conceptual: this tablet is transmitting Bluetooth, and I'm wearing the vest right now. So as I'm speaking -- (Applause) -- the sound is getting translated into dynamic patterns of vibration. I'm feeling the sonic world around me.
Nel mio laboratorio mi interesso di sostituzione sensoriale per sordi, e questo è un progetto che ho intrapreso con un laureando nel mio laboratorio, Scott Novich, che lo sta conducendo per la tesi. Ed ecco ciò che volevamo fare: volevamo far sì che i suoni del mondo fossero convertiti in un modo per cui i sordi potessero capire cosa veniva detto. E volevamo farlo grazie al potere e all'ubiquità dei dispositivi portatili, volevamo essere sicuri che questo potesse funzionare su telefoni e tablet e volevamo che fosse qualcosa di indossabile, qualcosa che si potesse indossare sotto i vestiti. Quindi ecco il concetto. Io parlo, il suono che emetto viene captato dal tablet e viene mappato su un gilet ricoperto di motori vibranti, come i motori dei cellulari. Quindi, mentre parlo, il suono è tradotto in una sequenza di vibrazioni sul gilet. Beh, non è solo concettuale: il tablet trasmette Bluetooth e sto indossando il gilet proprio ora. Quindi, mentre parlo (Applausi) il suono è tradotto in sequenze dinamiche di vibrazioni. Sto sentendo il mondo sonoro intorno a me.
So, we've been testing this with deaf people now, and it turns out that after just a little bit of time, people can start feeling, they can start understanding the language of the vest.
Stiamo testando questo dispositivo con persone sorde ed è venuto fuori che in breve tempo la gente comincia a sentire, cominciano a capire il linguaggio del gilet.
So this is Jonathan. He's 37 years old. He has a master's degree. He was born profoundly deaf, which means that there's a part of his umwelt that's unavailable to him. So we had Jonathan train with the vest for four days, two hours a day, and here he is on the fifth day.
Lui è Jonathan. Ha 37 anni. Ha una laurea magistrale. È nato con una forma di sordità acuta, che significa che c'è una parte del suo umwelt che non è per lui accessibile. Abbiamo allenato Jonathan con il gilet per quattro giorni, due ore al giorno ed eccolo, il quinto giorno.
Scott Novich: You.
Scott Novich: You.
David Eagleman: So Scott says a word, Jonathan feels it on the vest, and he writes it on the board.
David Eagleman: Scott dice una parola, Jonathan la sente sul gilet e scrive sulla lavagna.
SN: Where. Where.
SN: Where. Where.
DE: Jonathan is able to translate this complicated pattern of vibrations into an understanding of what's being said.
DE: Jonathan è in grado di tradurre questa complicata sequenza di vibrazioni in una comprensione di ciò che viene detto.
SN: Touch. Touch.
SN: Touch. Touch.
DE: Now, he's not doing this -- (Applause) -- Jonathan is not doing this consciously, because the patterns are too complicated, but his brain is starting to unlock the pattern that allows it to figure out what the data mean, and our expectation is that, after wearing this for about three months, he will have a direct perceptual experience of hearing in the same way that when a blind person passes a finger over braille, the meaning comes directly off the page without any conscious intervention at all. Now, this technology has the potential to be a game-changer, because the only other solution for deafness is a cochlear implant, and that requires an invasive surgery. And this can be built for 40 times cheaper than a cochlear implant, which opens up this technology globally, even for the poorest countries.
DE: Ora non lo sta facendo... (Applausi) Jonathan non lo fa consapevolmente, perché le sequenze sono troppo complicate, ma il suo cervello comincia a sbloccare la sequenza che gli permette di capire cosa significano i dati e ci aspettiamo che, indossando il gilet per circa tre mesi, abbia un'esperienza uditiva diretta, nello stesso modo in cui, quando un cieco passa il dito sul braille, il significato arriva diretto dalla pagina senza alcuna mediazione cosciente. Questa tecnologia ha il potenziale di cambiare le carte in tavola, perché l'altra unica soluzione per la sordità è l'impianto cocleare, che richiede una chirurgia invasiva. E questo può essere 40 volte meno costoso di un impianto cocleare, il che rende questa tecnologia fruibile globalmente, anche nei paesi più poveri.
Now, we've been very encouraged by our results with sensory substitution, but what we've been thinking a lot about is sensory addition. How could we use a technology like this to add a completely new kind of sense, to expand the human umvelt? For example, could we feed real-time data from the Internet directly into somebody's brain, and can they develop a direct perceptual experience?
I nostri risultati con la sostituzione sensoriale sono stati molto incoraggianti, ma ciò che ci ha fatto pensare molto è l'addizione sensoriale. Come possiamo usare una tecnologia simile per creare un senso completamente nuovo, per espandere l'umwelt umano? Per esempio, possiamo inserire dati da Internet in tempo reale direttamente nel cervello di qualcuno affinché possa sviluppare un'esperienza percettiva diretta?
So here's an experiment we're doing in the lab. A subject is feeling a real-time streaming feed from the Net of data for five seconds. Then, two buttons appear, and he has to make a choice. He doesn't know what's going on. He makes a choice, and he gets feedback after one second. Now, here's the thing: The subject has no idea what all the patterns mean, but we're seeing if he gets better at figuring out which button to press. He doesn't know that what we're feeding is real-time data from the stock market, and he's making buy and sell decisions. (Laughter) And the feedback is telling him whether he did the right thing or not. And what we're seeing is, can we expand the human umvelt so that he comes to have, after several weeks, a direct perceptual experience of the economic movements of the planet. So we'll report on that later to see how well this goes. (Laughter)
Ecco un esperimento che stiamo conducendo in laboratorio. Un soggetto sente un flusso di dati dal Net in tempo reale per cinque secondi. Poi appaiono due bottoni e deve fare una scelta. Non sa cosa sta succedendo. Compie una scelta e riceve un feedback dopo un secondo. Ora, ecco il punto: Il soggetto non ha idea del significato delle sequenze, ma stiamo testando se migliori nella scelta di quale bottone spingere. Non sa che ciò che stiamo inviando sono dati in tempo reale dalla Borsa e che sta effettuando decisioni di acquisto e di vendita. (Risate) E il feedback gli dice se ha fatto la cosa giusta o no. Cio che stiamo vedendo è se è possibile espandere l'umwelt umano così che arrivi ad avere, dopo qualche settimana, un'esperienza percettiva diretta dei movimenti economici del pianeta. Ma di questo ve ne parleremo più tardi per vedere quanto funziona. (Risate)
Here's another thing we're doing: During the talks this morning, we've been automatically scraping Twitter for the TED2015 hashtag, and we've been doing an automated sentiment analysis, which means, are people using positive words or negative words or neutral? And while this has been going on, I have been feeling this, and so I am plugged in to the aggregate emotion of thousands of people in real time, and that's a new kind of human experience, because now I can know how everyone's doing and how much you're loving this. (Laughter) (Applause) It's a bigger experience than a human can normally have.
Ecco un'altra cosa che stiamo facendo: Durante gli interventi di questa mattina, abbiamo automaticamente cercato su Twitter l'hashtag TED2015 e abbiamo fatto un'analisi d'opinioni automatica, ovvero: le persone stanno usando parole positive, negative o neutre? E mentre ciò avveniva, io l'ho sentito e così sono collegato alle emozioni collettive di migliaia di persone in tempo reale ed è un nuovo tipo di esperienza umana, perché ora posso sapere come state e quanto vi sta piacendo tutto questo! (Risate) (Applausi) È un'esperienza più grande di quella che un umano può avere di solito.
We're also expanding the umvelt of pilots. So in this case, the vest is streaming nine different measures from this quadcopter, so pitch and yaw and roll and orientation and heading, and that improves this pilot's ability to fly it. It's essentially like he's extending his skin up there, far away.
Stiamo espandendo anche l'umwelt dei piloti. In questo caso, il gilet sta captando nove differenti misure da questo quadrimotore: inclinazione, rotazione, ondeggiamento, orientamento e direzione e questo migliora l'abilità del pilota di volare. È come se, essenzialmente, la sua pelle sia estesa lassù, lontano.
And that's just the beginning. What we're envisioning is taking a modern cockpit full of gauges and instead of trying to read the whole thing, you feel it. We live in a world of information now, and there is a difference between accessing big data and experiencing it.
E siamo solo all'inizio. Ciò che abbiamo in mente è prendere una moderna cabina di pilotaggio piena di strumenti che, invece di essere letti, siano sentiti. Viviamo in un mondo di informazioni e c'è una grande differenza tra l'accedere a tanti dati e viverli.
So I think there's really no end to the possibilities on the horizon for human expansion. Just imagine an astronaut being able to feel the overall health of the International Space Station, or, for that matter, having you feel the invisible states of your own health, like your blood sugar and the state of your microbiome, or having 360-degree vision or seeing in infrared or ultraviolet.
Penso che non ci sia fine alle possibilità all'orizzonte dell'espansione umana. Immaginate un astronauta in grado di sentire lo stato complessivo dell'intera Stazione Spaziale Internazionale, o, sulla stessa linea, di sentire i valori invisibili della vostra salute, come gli zuccheri nel sangue e lo stato del vostro microbioma, o di vedere a 360 gradi o vedere a infrarossi o ultravioletti.
So the key is this: As we move into the future, we're going to increasingly be able to choose our own peripheral devices. We no longer have to wait for Mother Nature's sensory gifts on her timescales, but instead, like any good parent, she's given us the tools that we need to go out and define our own trajectory. So the question now is, how do you want to go out and experience your universe?
Perciò il punto è: andando verso il futuro, saremo sempre più in grado di scegliere i nostri dispositivi periferici. Non dobbiamo più aspettare i doni sensoriali di Madre Natura al suo ritmo, ma, come ogni bravo genitore, ci ha dato gli strumenti che ci servivano per uscire e crearci la nostra propria traiettoria. Perciò la questione è: in che modo volete uscire e fare esperienza dell'universo?
Thank you.
Grazie.
(Applause)
(Applausi)
Chris Anderson: Can you feel it? DE: Yeah.
Chris Anderson: Lo senti? DE: Sì.
Actually, this was the first time I felt applause on the vest. It's nice. It's like a massage. (Laughter)
In realtà, questa è stata la prima volta che ho sentito un applauso sul gilet. È bello. È come un massaggio. (Risate)
CA: Twitter's going crazy. Twitter's going mad. So that stock market experiment. This could be the first experiment that secures its funding forevermore, right, if successful?
CA: Twitter sta impazzendo. Twitter sta impazzendo. Dunque, quell'esperimento sulla Borsa. Questo è il primo esperimento i cui risultati durerebbero per sempre, giusto? se avete successo?
DE: Well, that's right, I wouldn't have to write to NIH anymore.
DE: Beh, è giusto, non dovrei più scrivere al NIH.
CA: Well look, just to be skeptical for a minute, I mean, this is amazing, but isn't most of the evidence so far that sensory substitution works, not necessarily that sensory addition works? I mean, isn't it possible that the blind person can see through their tongue because the visual cortex is still there, ready to process, and that that is needed as part of it?
CA: Allora, giusto per essere scettici per un minuto, intendo, è fantastico, ma non è forse vero che ci sono prove del funzionamento della sostituzione sensoriale ma non necessariamente dell'addizione sensoriale? Intendo, non è possibile che il cieco veda attraverso la lingua perché la corteccia visiva è già lì, pronta a processare e che questo sia una parte necessaria?
DE: That's a great question. We actually have no idea what the theoretical limits are of what kind of data the brain can take in. The general story, though, is that it's extraordinarily flexible. So when a person goes blind, what we used to call their visual cortex gets taken over by other things, by touch, by hearing, by vocabulary. So what that tells us is that the cortex is kind of a one-trick pony. It just runs certain kinds of computations on things. And when we look around at things like braille, for example, people are getting information through bumps on their fingers. So I don't think we have any reason to think there's a theoretical limit that we know the edge of.
DE: È un'ottima domanda. In realtà non abbiamo idea di quali siano i limiti teorici del tipo di dati che il cervello può ricevere. La storia generale, però, è che sia estremamente flessibile. Quando una persona diventa cieca, ciò che chiamiamo corteccia visiva viene presa in consegna da altre cose, tatto, udito, vocabolario. Questo ci dice che la corteccia è una sorta di arco a una freccia. Elabora solo certi tipi di computazione sulle cose. Quando guardiamo al braille, per esempio, si tratta di persone che colgono informazioni attraverso le dita. Quindi non credo ci sia alcuna ragione per ritenere che esista un limite teorico di cui conosciamo il confine.
CA: If this checks out, you're going to be deluged. There are so many possible applications for this. Are you ready for this? What are you most excited about, the direction it might go? DE: I mean, I think there's a lot of applications here. In terms of beyond sensory substitution, the things I started mentioning about astronauts on the space station, they spend a lot of their time monitoring things, and they could instead just get what's going on, because what this is really good for is multidimensional data. The key is this: Our visual systems are good at detecting blobs and edges, but they're really bad at what our world has become, which is screens with lots and lots of data. We have to crawl that with our attentional systems. So this is a way of just feeling the state of something, just like the way you know the state of your body as you're standing around. So I think heavy machinery, safety, feeling the state of a factory, of your equipment, that's one place it'll go right away.
CA: Se questo si dimostrasse vero, verresti sommerso di richieste. Ci potrebbero essere tante applicazioni per una cosa del genere. Sei pronto per questo? Quale potenzialità ti esalta di più? DE: Beh, penso che ci siano molte possibili applicazioni. Riguardo alla sostituzione sensoriale, le cose che menzionavo poco fa degli astronauti nelle stazioni spaziali, che spendono così tanto tempo a monitorare, mentre potrebbero semplicemente captare cosa sta succedendo, perché se c'è un'applicazione per questa tecnologia, sono i dati multidimensionali. La chiave è: i nostri sistemi visivi sono ottimi per cogliere macchie e bordi, ma non lo sono altrettanto per ciò che è diventato il nostro mondo, ovvero schermi con tanti, tanti dati. Dobbiamo procedere a carponi tramite i nostri sistemi attentivi. Perciò questo è un modo, in pratica, per percepire lo stato di qualcosa. proprio come, dallo stato del tuo corpo, percepisci di essere in piedi. Penso a macchinari pesanti, sicurezza, sentire lo stato di un'industria della tua attrezzatura, ecco qualche applicazione per cui funzionerebbe.
CA: David Eagleman, that was one mind-blowing talk. Thank you very much.
CA: David Eagleman, è stato un intervento straordinario. Grazie mille.
DE: Thank you, Chris. (Applause)
DE: Grazie a te, Chris. (Applausi)