We are built out of very small stuff, and we are embedded in a very large cosmos, and the fact is that we are not very good at understanding reality at either of those scales, and that's because our brains haven't evolved to understand the world at that scale.
אנו עשויים מדברים מאוד קטנים, אבל נמצאים ביקום מאוד גדול, והאמת היא שאנו לא מצטיינים במיוחד בהבנת המציאות בשני סדרי-הגודל הללו, וזה מפני שמוחותינו לא מפותחים מספיק לתפיסת המציאות בסדרי-גודל אלו.
Instead, we're trapped on this very thin slice of perception right in the middle. But it gets strange, because even at that slice of reality that we call home, we're not seeing most of the action that's going on. So take the colors of our world. This is light waves, electromagnetic radiation that bounces off objects and it hits specialized receptors in the back of our eyes. But we're not seeing all the waves out there. In fact, what we see is less than a 10 trillionth of what's out there. So you have radio waves and microwaves and X-rays and gamma rays passing through your body right now and you're completely unaware of it, because you don't come with the proper biological receptors for picking it up. There are thousands of cell phone conversations passing through you right now, and you're utterly blind to it.
במקום זה, אנו לכודים בתוך הפיסה הצרה הזו של תפיסת המציאות ממש באמצע. אבל גם זה מוזר כי אפילו באותה פיסת מציאות שנחשבת אצלנו לביתית, אנו לא מבחינים ברוב הפעילות שמתרחשת. קחו למשל את צבעי העולם. אלו הם גלי אור, קרינה אלקטרומגנטית המוחזרת מעצמים והיא פוגעת בקולטנים יעודיים בחלק האחורי של עינינו. אבל אנו לא רואים את כל הגלים. למעשה, מה שאנו רואים הוא פחות מ-10 טריליוניות ממה שקיים. כך שיש גלי רדיו וגלי-מיקרו וקרני-X וקרני גאמא שעוברים דרך גופכם ברגע זה ואתם לחלוטין לא מודעים להם, כי אין לכם את הקולטנים הביולוגיים המתאימים כדי לגלותם. ישנן אלפי שיחות סלולר העוברות דרככם ממש עכשיו, ואתם כלל לא מודעים לזה.
Now, it's not that these things are inherently unseeable. Snakes include some infrared in their reality, and honeybees include ultraviolet in their view of the world, and of course we build machines in the dashboards of our cars to pick up on signals in the radio frequency range, and we built machines in hospitals to pick up on the X-ray range. But you can't sense any of those by yourself, at least not yet, because you don't come equipped with the proper sensors.
וזה לא שהדברים הללו בלתי נראים מטבעם. במציאות של נחשים יש חלק מהאינפרא-אדום, ובמציאות של דבורים יש חלק מהאולטרה-סגול, וכידוע אנו מתקינים מכשירים בלוח-המחוונים של מכוניותינו כדי לגלות אותות מתחום הרדיו, ואנו מתקינים מכשירים בבתי-חולים כדי לגלות קרני-X. אבל אתם לא יכולים לחוש אותם בעצמכם, לפחות עדיין לא, כי אתם לא מצויידים בחיישנים המתאימים.
Now, what this means is that our experience of reality is constrained by our biology, and that goes against the common sense notion that our eyes and our ears and our fingertips are just picking up the objective reality that's out there. Instead, our brains are sampling just a little bit of the world.
פירוש הדבר הוא שחוויית המציאות שלנו מוגבלת על-ידי הביולוגיה שלנו, וזה בניגוד לתחושה הטבעית שלנו שהעיניים שלנו, אוזנינו וקצות אצבעותינו פשוט קולטים את המציאות האובייקטיבית כפי שהיא קיימת שם בחוץ. אבל מוחותינו דוגמים רק חלק קטן מהעולם.
Now, across the animal kingdom, different animals pick up on different parts of reality. So in the blind and deaf world of the tick, the important signals are temperature and butyric acid; in the world of the black ghost knifefish, its sensory world is lavishly colored by electrical fields; and for the echolocating bat, its reality is constructed out of air compression waves. That's the slice of their ecosystem that they can pick up on, and we have a word for this in science. It's called the umwelt, which is the German word for the surrounding world. Now, presumably, every animal assumes that its umwelt is the entire objective reality out there, because why would you ever stop to imagine that there's something beyond what we can sense. Instead, what we all do is we accept reality as it's presented to us.
בעולם החיות, חיות שונות קולטות חלקים שונים של המציאות. בעולמה העיוור והחרש של הקרצייה, האותות החשובים הם טמפרטורה וחומצת שומן; בעולמו של דג knifefish, המציאות הנקלטת בחושים שלו צבועה בצבעים עזים כתוצאה משדות חשמליים; ועבור העטלף קולט ההד, המציאות שלו מורכבת מגלי קול. זוהי פיסה מהמערכת האקולוגית שלהם שהם יכולים לקלוט, ובמדע יש לנו מילה לזה. היא נקראת אומוולט, שהיא מילה גרמנית לעולם שנקלט בחושים. כפי הנראה, כל בעל-חיים מניח שהאומוולט שלו היא כל המציאות האובייקטיבית הקיימת, כי למה שמישהו יעלה בדעתו שקיים משהו מעבר למה שאנו קולטים בחושינו? במקום זה, אנו פשוט מקבלים את המציאות כפי שהיא מוצגת בפנינו.
Let's do a consciousness-raiser on this. Imagine that you are a bloodhound dog. Your whole world is about smelling. You've got a long snout that has 200 million scent receptors in it, and you have wet nostrils that attract and trap scent molecules, and your nostrils even have slits so you can take big nosefuls of air. Everything is about smell for you. So one day, you stop in your tracks with a revelation. You look at your human owner and you think, "What is it like to have the pitiful, impoverished nose of a human? (Laughter) What is it like when you take a feeble little noseful of air? How can you not know that there's a cat 100 yards away, or that your neighbor was on this very spot six hours ago?" (Laughter)
הבה נתוודע יותר לסוגיה. תחשבו שאתם כלב גישוש. כל עולמך סובב סביב ריח. יש לך חוטם ארוך שיש בו 200 מיליון קולטני ריח ויש לך נחיריים לחים המושכים ולוכדים מולקולות ריח, ובנחיריים שלך יש אפילו חריצים כך שתוכל לשאוף אויר מלוא הנחיריים. בשבילך הכל זה ריח. יום אחד, יש לך התגלות. אתה מביט בבעלך האדם ואתה חושב, "איך זה להיות עם אף פתטי ומדולדל של אדם? (צחוק) איך זה לשאוף אויר באופן קלוש באף הקטן? איך הוא לא מגלה שיש חתול במרחק 100 מטר, או שהשכן שלך היה בדיוק בנקודה זו לפני 6 שעות?" (צחוק)
So because we're humans, we've never experienced that world of smell, so we don't miss it, because we are firmly settled into our umwelt. But the question is, do we have to be stuck there? So as a neuroscientist, I'm interested in the way that technology might expand our umwelt, and how that's going to change the experience of being human.
כך, בהיותנו בני-אדם, מעולם לא חווינו את עולם הריחות, ולכן אנו לא מרגישים בחסרונו, מאחר ואנו נטועים עמוק בתוך האומוולט שלנו. אבל השאלה היא האם אנו חייבים להיות תקועים שם? בתור חוקר מערכות עצבים, אני מתעניין בכיצד טכנולוגיה עשויה להרחיב את האומוולט, וכיצד זה עשוי לשנות את חוויית המין האנושי.
So we already know that we can marry our technology to our biology, because there are hundreds of thousands of people walking around with artificial hearing and artificial vision. So the way this works is, you take a microphone and you digitize the signal, and you put an electrode strip directly into the inner ear. Or, with the retinal implant, you take a camera and you digitize the signal, and then you plug an electrode grid directly into the optic nerve. And as recently as 15 years ago, there were a lot of scientists who thought these technologies wouldn't work. Why? It's because these technologies speak the language of Silicon Valley, and it's not exactly the same dialect as our natural biological sense organs. But the fact is that it works; the brain figures out how to use the signals just fine.
אנו כבר יודעים שניתן לזווג בין טכנולוגיה לביולוגיה, כי ישנם מאות אלפים המסתובבים עם שמיעה וראיה מלאכותיות. לוקחים מיקרופון והופכים את האות לדיגיטלי, ושמים אלקטרודה ישירות לתוך האוזן הפנימית. או, עם השתלה רשתית, לוקחים מצלמה והופכים את האות לדיגיטלי, ואז מחברים את האלקטרודות ישירות לתוך עצב-הראיה. עד לפני 15 שנה, היו הרבה מדענים שסברו שטכנולוגיות כאלו לא יעבדו. מדוע? כי טכנולוגיות אלו מדברות בשפת עמק הסיליקון, וזה לא בדיוק הניב של איברי החישה הביולוגיים שלנו. אבל העובדה היא שזה עובד; המוח מפענח כיצד להשתמש באותות בסדר.
Now, how do we understand that? Well, here's the big secret: Your brain is not hearing or seeing any of this. Your brain is locked in a vault of silence and darkness inside your skull. All it ever sees are electrochemical signals that come in along different data cables, and this is all it has to work with, and nothing more. Now, amazingly, the brain is really good at taking in these signals and extracting patterns and assigning meaning, so that it takes this inner cosmos and puts together a story of this, your subjective world.
אז כיצד אנו עושים זאת? הנה הסוד שבעניין: המוח שלנו לא שומע או רואה את כל זה. המוח נעול בתוך כספת של דממה וחושך בתוך הגולגולת. כל מה שהוא רואה זה אותות אלקטרוכימיים המגיעים דרך כבלי נתונים שונים, ועליו לעבוד רק עם זה ולא עם שום דבר אחר. באופן פלאי, המוח ממש מצטיין בנטילת אותם אותות ובמיצוי תבניות מהם ומתן משמעויות, כך שהוא לוקח את הקוסמוס הפנימי הזה ומרכיב ממנו סיפור זה, העולם הסובייקטיבי שלנו.
But here's the key point: Your brain doesn't know, and it doesn't care, where it gets the data from. Whatever information comes in, it just figures out what to do with it. And this is a very efficient kind of machine. It's essentially a general purpose computing device, and it just takes in everything and figures out what it's going to do with it, and that, I think, frees up Mother Nature to tinker around with different sorts of input channels.
אבל הנקודה החשובה היא זו: מוחנו לא יודע ולא איכפת לו מהיכן הוא מקבל את הנתונים. כל מידע שמגיע, הוא רק מפענח מה לעשות איתו. זוהי מכונה מאוד יעילה. עקרונית זהו התקן חישוב למטרות כלליות, והוא פשוט לוקח כל דבר ומפענח מה עליו לעשות עם זה, וזה, כמדומני, משחרר את הטבע מהמלאכה של יצירת ערוצי-קלט מסוגים שונים.
So I call this the P.H. model of evolution, and I don't want to get too technical here, but P.H. stands for Potato Head, and I use this name to emphasize that all these sensors that we know and love, like our eyes and our ears and our fingertips, these are merely peripheral plug-and-play devices: You stick them in, and you're good to go. The brain figures out what to do with the data that comes in. And when you look across the animal kingdom, you find lots of peripheral devices. So snakes have heat pits with which to detect infrared, and the ghost knifefish has electroreceptors, and the star-nosed mole has this appendage with 22 fingers on it with which it feels around and constructs a 3D model of the world, and many birds have magnetite so they can orient to the magnetic field of the planet. So what this means is that nature doesn't have to continually redesign the brain. Instead, with the principles of brain operation established, all nature has to worry about is designing new peripherals.
אני מכנה זאת מודל ה-P.H. של אבולוציה, ואני לא רוצה להיות טכני מדי, אבל P.H. זה ראש תפוח אדמה, ואני משתמש במונח זה כדי להדגיש שכל החיישנים הללו שאנו מכירים ואוהבים, כמו העיניים, האוזניים, קצות האצבעות, הם רק התקנים היקפיים של "הכנס והפעל": אנו מתחברים אליהם ואנו מוכנים לפעולה. המוח מפענח מה לעשות עם המידע שנכנס. וכאשר בודקים מה קורה אצל החיות, מוצאים הרבה התקנים היקפיים. כך שלנחשים יש שקעי חום כדי לגלות גלי אינפרא-אדום, ולדג knifefish יש קולטני שדות חשמליים, ולחפרפרת עם אף בצורת כוכב יש את התוספת בעלת 22 האצבעות שבאמצעותן היא חשה את הסביבה ובונה תמונה תלת-מימדית של העולם, ולציפורים רבות יש תחמוצת-ברזל כך שהן יכולות להתמצא על-פי השדה המגנטי של כדור-הארץ. כל זה אומר שהטבע לא צריך כל הזמן לתכנן מחדש את המוח. במקום זה, כאשר עיקרון פעולת המוח כבר נקבע, כל מה שהטבע צריך לדאוג לו הוא לבנות התקנים חדשים.
Okay. So what this means is this: The lesson that surfaces is that there's nothing really special or fundamental about the biology that we come to the table with. It's just what we have inherited from a complex road of evolution. But it's not what we have to stick with, and our best proof of principle of this comes from what's called sensory substitution. And that refers to feeding information into the brain via unusual sensory channels, and the brain just figures out what to do with it.
משמעות כל הדברים היא זו: הלקח שמבצבץ מכל זה הוא שאין שום דבר מיוחד ובסיסי בביולוגיה שאנו נושאים עימנו. היא רק מה שירשנו בדרך הפתלתלה של האבולוציה. אבל לדעתי אין אנו חייבים להיות תקועים איתה, וההוכחה הכי טובה לכך מגיעה ממה שקרוי תחליף חושי. זה מתייחס להזנת מידע למוח באמצעות ערוצים חושיים לא רגילים, והמוח פשוט יודע לפענח מה לעשות איתו.
Now, that might sound speculative, but the first paper demonstrating this was published in the journal Nature in 1969. So a scientist named Paul Bach-y-Rita put blind people in a modified dental chair, and he set up a video feed, and he put something in front of the camera, and then you would feel that poked into your back with a grid of solenoids. So if you wiggle a coffee cup in front of the camera, you're feeling that in your back, and amazingly, blind people got pretty good at being able to determine what was in front of the camera just by feeling it in the small of their back. Now, there have been many modern incarnations of this. The sonic glasses take a video feed right in front of you and turn that into a sonic landscape, so as things move around, and get closer and farther, it sounds like "Bzz, bzz, bzz." It sounds like a cacophony, but after several weeks, blind people start getting pretty good at understanding what's in front of them just based on what they're hearing. And it doesn't have to be through the ears: this system uses an electrotactile grid on the forehead, so whatever's in front of the video feed, you're feeling it on your forehead. Why the forehead? Because you're not using it for much else.
זה עשוי להישמע דימיוני, אבל המאמר הראשון שהראה זאת פורסם בכתב-העת Nature ב-1969. מדען בשם פול באקי ריטה הושיב עיוורים בכסא לטיפול שיניים שעבר הסבה, התקין הזנת-מידע דרך וידאו ושם משהו מול המצלמה, והנבדק היה אמור לחוש שאותו משהו נתקע לו בגב באמצעות סולנואידים. כך שאם מנענעים כוס קפה מול המצלמה, הנבדק יחוש זאת בגבו, ובאופן מפתיע, אנשים עיוורים נהיו די טובים בלקבוע מה נמצא מול המצלמה רק עלי-ידי התחושה שנוצרה להם בגב. יש עכשיו הרבה גרסאות מודרניות של זה. המשקפיים הקוליים נוטלים את תמונת הסביבה מלפנים והופכים אותה לנוף קולי, כך שכאשר העצמים נעים, מתקרבים ומתרחקים, שומעים מין בזז, בזז, בזז. זה נשמע כאילו יש בליל של צלילים, אבל לאחר כמה שבועות, עיוורים מתחילים להבין די טוב מה נמצא לפניהם רק בהתבסס על מה שהם שומעים. וזה לא חייב להיות דרך האוזניים: מערכת זו עושה שימוש ברשת מישוש חשמלית כך שמה שמופיע בתמונת הוידאו, חשים אותו על המצח. מדוע מצח? כי המצח לא משמש למשהו אחר.
The most modern incarnation is called the brainport, and this is a little electrogrid that sits on your tongue, and the video feed gets turned into these little electrotactile signals, and blind people get so good at using this that they can throw a ball into a basket, or they can navigate complex obstacle courses. They can come to see through their tongue. Now, that sounds completely insane, right? But remember, all vision ever is is electrochemical signals coursing around in your brain. Your brain doesn't know where the signals come from. It just figures out what to do with them.
הגירסה האחרונה קרויה ממשק-מוח, שזה רשת חשמלית קטנה היושבת על הלשון, ונתוני הוידאו הופכים למין אותות מישוש חשמליים, שעיוורים מצטיינים כל-כך בשימוש בזה עד שהם מצליחים לקלוע סל, או שהם מצליחים לנווט דרך מסלולי מכשולים מורכבים. הם מצליחים לראות באמצעות לשונותיהם. זה נשמע הזוי לגמרי, נכון? אבל תזכרו שכל הראיה היא בעצם אותות אלקטרוכימיים החגים במוח. המוח אינו יודע מהיכן מגיעים האותות. הוא רק מפענח מה לעשות איתם.
So my interest in my lab is sensory substitution for the deaf, and this is a project I've undertaken with a graduate student in my lab, Scott Novich, who is spearheading this for his thesis. And here is what we wanted to do: we wanted to make it so that sound from the world gets converted in some way so that a deaf person can understand what is being said. And we wanted to do this, given the power and ubiquity of portable computing, we wanted to make sure that this would run on cell phones and tablets, and also we wanted to make this a wearable, something that you could wear under your clothing. So here's the concept. So as I'm speaking, my sound is getting captured by the tablet, and then it's getting mapped onto a vest that's covered in vibratory motors, just like the motors in your cell phone. So as I'm speaking, the sound is getting translated to a pattern of vibration on the vest. Now, this is not just conceptual: this tablet is transmitting Bluetooth, and I'm wearing the vest right now. So as I'm speaking -- (Applause) -- the sound is getting translated into dynamic patterns of vibration. I'm feeling the sonic world around me.
לכן אני שואף במעבדה שלי ליצור תחליף עבור החרשים, וזה מיזם שנטלתי על עצמי ביחד עם סטודנט למחקר, סקוט נוביק, שמקדם את הנושא כעבודת מחקר לתואר שלו. וזה מה שהוא רוצה לעשות: להמיר קולות מהסביבה באופן כזה שחרש יוכל להבין את מה שנאמר. ורצינו לבצע זאת, בהתחשב בעוצמה וזמינות של יכולת מיחשוב ניידת, שזה יעבוד על טלפונים סלולריים וטבלטים, וגם רצינו להפוך הכל ללביש, משהו שניתן ללבוש מתחת לבגדים. הרעיון הוא כזה. בזמן שמדברים, הקול ייקלט בטבלט, ומשם הוא יעבור מיפוי על גבי אפוד המכוסה במנועי רטט, בדיוק כמו הרטט בסלולריים. כך שבעודני מדבר, הקול עובר המרה לתבנית של רטט על גבי האפוד. זה לא רק בתאוריה: טבלט זה מעביר אותות Bluetooth, ואני לובש את האפוד כרגע. כך שבעודני מדבר -- (מחיאות כפיים) -- הקול עובר המרה לתבניות דינמיות של רטט. אני חווה את העולם הקולי סביבי.
So, we've been testing this with deaf people now, and it turns out that after just a little bit of time, people can start feeling, they can start understanding the language of the vest.
אנו כרגע בוחנים את המערכת עם חרשים, ומתברר שלאחר התנסות קצרה, אנשים מתחילים לחוש, הם מתחילים להבין את שפת האפוד.
So this is Jonathan. He's 37 years old. He has a master's degree. He was born profoundly deaf, which means that there's a part of his umwelt that's unavailable to him. So we had Jonathan train with the vest for four days, two hours a day, and here he is on the fifth day.
זהו ג'ונתן, הוא בן 37. יש לו תואר שני. הוא נולד חרש גמור, שזה אומר שחלק מהאומוולט אינו זמין כלל עבורו. ג'ונתן התאמן עם האפוד 4 ימים, שעתיים בכל יום, וכאן הוא ביומו החמישי.
Scott Novich: You.
סקוט נוביץ': אתה.
David Eagleman: So Scott says a word, Jonathan feels it on the vest, and he writes it on the board.
דייויד איגלמן: סקוט אומר מילה, ג'ונתן חש אותה על אפודו, והוא כותב אותה על הלוח.
SN: Where. Where.
ס.נ.: איפה. איפה.
DE: Jonathan is able to translate this complicated pattern of vibrations into an understanding of what's being said.
ד.א.: ג'ונתן מסוגל לתרגם את התבנית המורכבת של רטט להבנה של מה שנאמר.
SN: Touch. Touch.
ס.נ.: מגע. מגע.
DE: Now, he's not doing this -- (Applause) -- Jonathan is not doing this consciously, because the patterns are too complicated, but his brain is starting to unlock the pattern that allows it to figure out what the data mean, and our expectation is that, after wearing this for about three months, he will have a direct perceptual experience of hearing in the same way that when a blind person passes a finger over braille, the meaning comes directly off the page without any conscious intervention at all. Now, this technology has the potential to be a game-changer, because the only other solution for deafness is a cochlear implant, and that requires an invasive surgery. And this can be built for 40 times cheaper than a cochlear implant, which opens up this technology globally, even for the poorest countries.
ד.א.: כעת הוא לא עושה זאת -- (מחיאות כפיים) ג'ונתן אינו עושה זאת באופן מודע, כי התבניות מסובכות מדי, אבל מוחו מתחיל לפצח את התבנית המאפשרת לו לפענח את משמעות המידע, ואנו מצפים שלאחר שילבש אותו כ-3 חודשים, יהיה לו ניסיון תפיסתי ישיר של שמיעה באותו אופן שאדם עיוור מעביר את אצבעו על כתב ברייל, המשמעות מתהווה אצלו ישירות מהעמוד בלי התערבות מודעת כלשהי. לטכנולוגיה זו יש הפוטנציאל לשנות את כללי המשחק, כי הפיתרון היחידי הנוסף עבור חרשות הוא שתל שבלולי, וזה מצריך ניתוח פולשני. ניתן להתקין את כל זאת בעלות זולה פי-40 מאשר השתל השבלולי, דבר המאפשר את יישומו גלובלית, אפילו במדינות הכי עניות.
Now, we've been very encouraged by our results with sensory substitution, but what we've been thinking a lot about is sensory addition. How could we use a technology like this to add a completely new kind of sense, to expand the human umvelt? For example, could we feed real-time data from the Internet directly into somebody's brain, and can they develop a direct perceptual experience?
מאוד התעודדנו מהתוצאות של התחליף החושי, אבל מה שמאוד מעסיק אותנו זה תוספת חושית. כיצד ניתן להשתמש בטכנולוגיה זו כדי להוסיף חוש חדש לגמרי, על-מנת להרחיב את האומוולט האנושי? לדוגמא, הנוכל להזין נתונים בזמן-אמת מהאינטרנט ישירות אל תוך מוח של מישהו, והאם הוא יוכל לפתח ניסיון תפיסתי ישיר?
So here's an experiment we're doing in the lab. A subject is feeling a real-time streaming feed from the Net of data for five seconds. Then, two buttons appear, and he has to make a choice. He doesn't know what's going on. He makes a choice, and he gets feedback after one second. Now, here's the thing: The subject has no idea what all the patterns mean, but we're seeing if he gets better at figuring out which button to press. He doesn't know that what we're feeding is real-time data from the stock market, and he's making buy and sell decisions. (Laughter) And the feedback is telling him whether he did the right thing or not. And what we're seeing is, can we expand the human umvelt so that he comes to have, after several weeks, a direct perceptual experience of the economic movements of the planet. So we'll report on that later to see how well this goes. (Laughter)
הנה ניסיון שאנו עושים במעבדה. נבחן חש הזנת נתונים בזמן-אמת מהרשת למשך 5 שניות. אז מופיעים שני כפתורים ועליו לבחור. הוא אינו יודע מה קורה. הוא בוחר, ומקבל משוב לאחר שניה. וזו הנקודה החשובה: לנבחן אין מושג מה משמעות כל התבניות, אבל אנו רואים אם הוא משתפר בזיהוי איזה כפתור ללחוץ. אין הוא יודע שמה שאנו מזינים הם נתוני זמן-אמת מהבורסה, ושהוא מקבל החלטות בנוגע לקניה-מכירה. (צחוק) המשוב אומר לו אם הוא עשה את הדבר הנכון או לא. ומה שאנו רואים זה אם ניתן להרחיב את האומוולט האנושי כך שיהיה לו לאחר מספר שבועות ניסיון תפיסתי ישיר לגבי התנועות הפיננסיות בעולם. נדווח על כך יותר מאוחר כדי להראות איך זה מתקדם. (צחוק)
Here's another thing we're doing: During the talks this morning, we've been automatically scraping Twitter for the TED2015 hashtag, and we've been doing an automated sentiment analysis, which means, are people using positive words or negative words or neutral? And while this has been going on, I have been feeling this, and so I am plugged in to the aggregate emotion of thousands of people in real time, and that's a new kind of human experience, because now I can know how everyone's doing and how much you're loving this. (Laughter) (Applause) It's a bigger experience than a human can normally have.
הנה דבר נוסף שאנו עושים: במהלך ההרצאות הבוקר, אנו סרקנו את הטוויטר אוטומטית בנוגע ל-TED2015, ואנו מבצעים ניתוח תחושות אוטומטי של הצופים, שזה לבחון אם אנשים משתמשים במילים חיוביות, שליליות או נייטרליות. ובזמן שזה קרה, הרגשתי זאת, וכך התחברתי לתחושה המצטברת של אלפי אנשים בזמן-אמת, וזה סוג חדש של התנסות אנושית, כי אני יכול לדעת איך כל אחד חש ועד כמה אתם אוהבים את זה. (צחוק) (מחיאות כפיים) זוהי חוויה יותר גדולה ממה שאדם מתנסה במצב רגיל.
We're also expanding the umvelt of pilots. So in this case, the vest is streaming nine different measures from this quadcopter, so pitch and yaw and roll and orientation and heading, and that improves this pilot's ability to fly it. It's essentially like he's extending his skin up there, far away.
אנו גם מרחיבים את האומוולט של טייסים. במקרה כזה, האפוד רוחש אותות מ-9 מדידות שונות מרחפן זה, עילרוד, סיבסוב, גלגול, מיקום וכיוון תנועה, וזה משפר את יכולת הטייס להטיס אותו. זה בעצם כאילו הוא מרחיב את עור-ידו הרחק עד לשם.
And that's just the beginning. What we're envisioning is taking a modern cockpit full of gauges and instead of trying to read the whole thing, you feel it. We live in a world of information now, and there is a difference between accessing big data and experiencing it.
וזו רק ההתחלה. אנו צופים שנשלוט על כל מכשירי הטיסה בתא-הטייס המודרני ובמקום לנסות ולקרוא את הכל, פשוט נחוש זאת. אנו חיים היום בעולם של מידע, ויש הבדל בין לגשת לביג דאטה לבין לחוש אותו.
So I think there's really no end to the possibilities on the horizon for human expansion. Just imagine an astronaut being able to feel the overall health of the International Space Station, or, for that matter, having you feel the invisible states of your own health, like your blood sugar and the state of your microbiome, or having 360-degree vision or seeing in infrared or ultraviolet.
לכן אני סבור שאין גבול לאפשרויות שבאופק עבור התקדמות האדם. תחשבו על אסטרונאוט המסוגל לחוש את מצב התקינות הכללי של תחנת החלל, או, לצורך העניין, שתחושו את המצבים הבלתי-נראים של בריאותכם, כמו סוכר בדם או מצב כלל המיקרואורגניזמים בגופכם, או שתהיה ראיה 360 מעלות או באינפרא-אדום או אולטרא-סגול.
So the key is this: As we move into the future, we're going to increasingly be able to choose our own peripheral devices. We no longer have to wait for Mother Nature's sensory gifts on her timescales, but instead, like any good parent, she's given us the tools that we need to go out and define our own trajectory. So the question now is, how do you want to go out and experience your universe?
על-כן נקודת המפתח היא זו: ככל שאנו נעים לעבר העתיד, נהיה מסוגלים יותר לבחור את ההתקנים ההיקפיים שלנו. אין אנו צריכים להמתין יותר למתנות החישה של הטבע וללוחות-הזמנים של הטבע, אלא במקום זה, כמו כל הורה טוב, הטבע העניק לנו הכלים שאנו צריכים כדי לצאת ולהגדיר את דרכנו. לכן השאלה עכשיו היא, כיצד אתם רוצים לצאת ולחוות את היקום?
Thank you.
תודה.
(Applause)
(מחיאות כפיים)
Chris Anderson: Can you feel it? DE: Yeah.
כריס אנדרסון: האם אתה מרגיש את זה? כן.
Actually, this was the first time I felt applause on the vest. It's nice. It's like a massage. (Laughter)
למעשה, זוהי הפעם הראשונה בה חשתי מחיאות כפיים על האפוד. זה נחמד. זה כמו מסאג'. (צחוק)
CA: Twitter's going crazy. Twitter's going mad. So that stock market experiment. This could be the first experiment that secures its funding forevermore, right, if successful?
כ.א.: הטוויטר עולה על גדותיו. הטוויטר משתגע. אז ניסוי הבורסה הזה. זה יכול להיות הניסוי הראשון שמבטיח את מימונו מעתה ועד עולם, נכון, במידה וזה יצליח?
DE: Well, that's right, I wouldn't have to write to NIH anymore.
ד.א.: זה נכון. לא אצטרך יותר לכתוב למכון הבריאות הלאומי.
CA: Well look, just to be skeptical for a minute, I mean, this is amazing, but isn't most of the evidence so far that sensory substitution works, not necessarily that sensory addition works? I mean, isn't it possible that the blind person can see through their tongue because the visual cortex is still there, ready to process, and that that is needed as part of it?
תראה, אהיה קצת ספקן לרגע, כלומר, זה מדהים, אבל האם נכון שרוב הממצאים עד היום מעידים שתחליף חושי עובד, אבל לא בהכרח שתוספת חושית עובדת? כלומר, האם לא ייתכן שהעיוור יכול לראות באמצעות לשונו כי אזור הראיה במוח עדיין מתפקד, והוא מוכן ומזומן לעבד מידע, ושזהו השלב החיוני כחלק מהתהליך?
DE: That's a great question. We actually have no idea what the theoretical limits are of what kind of data the brain can take in. The general story, though, is that it's extraordinarily flexible. So when a person goes blind, what we used to call their visual cortex gets taken over by other things, by touch, by hearing, by vocabulary. So what that tells us is that the cortex is kind of a one-trick pony. It just runs certain kinds of computations on things. And when we look around at things like braille, for example, people are getting information through bumps on their fingers. So I don't think we have any reason to think there's a theoretical limit that we know the edge of.
ד.א.: זו שאלה מצויינת. פשוט אין לנו מושג מה הם הגבולות התאורטיים לגבי איזה סוג של מידע המוח יכול לקלוט. עם זאת, ההנחה היא שהדבר מאוד גמיש. כך שכאשר האדם מתעוור, מה שנהוג לקרוא אזור הראיה במוח מתחיל להישלט על-ידי דברים אחרים, כמו מגע, שמיעה, יכולת מילולית. זה אומר לנו שקליפת המוח היא מין יצור חד-התמחותי. היא פשוט מריצה חישובים מסוג מסויים. וכאשר מסתכלים על דברים כמו כתב-ברייל למשל, אנשים פשוט קולטים מידע דרך גבשושיות בקצות אצבעותיהם. לכן איני סבור שיש לנו סיבה לחשוב שיש גבול תאורטי שאנו יודעים את סופו.
CA: If this checks out, you're going to be deluged. There are so many possible applications for this. Are you ready for this? What are you most excited about, the direction it might go? DE: I mean, I think there's a lot of applications here. In terms of beyond sensory substitution, the things I started mentioning about astronauts on the space station, they spend a lot of their time monitoring things, and they could instead just get what's going on, because what this is really good for is multidimensional data. The key is this: Our visual systems are good at detecting blobs and edges, but they're really bad at what our world has become, which is screens with lots and lots of data. We have to crawl that with our attentional systems. So this is a way of just feeling the state of something, just like the way you know the state of your body as you're standing around. So I think heavy machinery, safety, feeling the state of a factory, of your equipment, that's one place it'll go right away.
כ.א.: אם זה מצליח, תהיה מוצף בפניות. יש כל-כך הרבה יישומים אפשריים לזה. האם אתה מוכן לזה? מה הכי מרגש אותך בקשר לכיוון בו זה יכול להתקדם? ד.א.: אני חושב שיש המון יישומים. בקשר לדברים מעבר לתחליף חושי, מה שהזכרתי בקשר לאסטרונאוטים בתחנת-חלל, הם מעבירים הרבה מהזמן בבקרה על דברים, אז במקום זה הם פשוט יוכלו לחוש מה שמתרחש, כי היתרון הגדול של זה הוא בקליטת נתונים רב-ערוציים. העניין הוא כזה: מערכת הראיה שלנו טובה בקליטת ניגודים וקצוות, אבל היא ממש גרועה בהתמודדות עם מה שהעולם הוא כיום, שזה מסכים עם המוני נתונים. עלינו להסתדר בסבך הזה עם מערכות הקשב שלנו. אז זו הדרך פשוט לחוש את המצב של משהו, כמו הדרך בה אתה חש את מצב גופך בזמן שאתה סתם מסתובב. לכן, אני חושב שמכונות כבדות, בטיחות, תחושה לגבי מצב המפעל, מצב הציוד, הם אחת האפשרויות שזה יכול להתקבל שם מייד.
CA: David Eagleman, that was one mind-blowing talk. Thank you very much.
כ.א.: דייויד איגלמן, זו היתה הרצאה מטריפת-חושים. תודה רבה לך.
DE: Thank you, Chris. (Applause)
ד.א.: תודה, כריס. (מחיאות כפיים)