نحن مخلوقون من أشياء صغيرة جدًا، وكذلك نحن جزء لا يتجزأ من هذا الكون الواسع، الحقيقة أننا لسنا جيدون في فهمنا للواقع فى كلتا هاتين الحالتين، وذلك لأن عقولنا لم تتطور بشكل كافٍ لتفهم العالم عند هذا المستوى.
We are built out of very small stuff, and we are embedded in a very large cosmos, and the fact is that we are not very good at understanding reality at either of those scales, and that's because our brains haven't evolved to understand the world at that scale.
إن إدراكنا ينحصر في جزء صغير جداً من الإدراك تحديدًا في المنتصف. وهذا غريب، لأنه حتى هذا الجزء الصغير من الواقع الذي نطلق عليه "الموطن"، لا نرى فيه معظم الأحداث التي تدور حولنا. لنأخذ مثلًا، الألوان التي تزين عالمنا إنها موجات ضوئية وإشعاعات كهرومغناطيسية تنعكس على الأجسام ثم تصطدم بمستقبلات معينة في الجزء الخلفي من أعيننا، لكننا لا نرى كل الموجات الموجودة من حولنا. في الحقيقة، ما نراه هو جزء واحد فقط من 10 تريليونات مما هو موجود. مثلًا لديكم، موجات دقيقة وموجات الراديو والأشعة السينية وأشعة غاما تعبر أجسامكم الآن، وأنتم قطعًا لا تدركون وجودها، لأنكم لستم مجهزين بالمستقبلات الحيوية المناسبة حتى تستطيعوا التقاطها. ثمة آلاف من المحادثات الهاتفية تعبر من خلالكم في هذه اللحظة، وأنتم مغيبين عنها تمامًا.
Instead, we're trapped on this very thin slice of perception right in the middle. But it gets strange, because even at that slice of reality that we call home, we're not seeing most of the action that's going on. So take the colors of our world. This is light waves, electromagnetic radiation that bounces off objects and it hits specialized receptors in the back of our eyes. But we're not seeing all the waves out there. In fact, what we see is less than a 10 trillionth of what's out there. So you have radio waves and microwaves and X-rays and gamma rays passing through your body right now and you're completely unaware of it, because you don't come with the proper biological receptors for picking it up. There are thousands of cell phone conversations passing through you right now, and you're utterly blind to it.
لكن، هذا لا يعني أن هذه الأشياء غير مرئية بطبيعتها. فالثعابين مثلًا، تستشعر الأشعة تحت الحمراء والنحل له قدرة على رؤية الأشعة فوق البنفسجية. وها هي لوحات القيادة في سياراتنا مزودة بآلات تلتقط بها الإشارات في نطاق التردد اللاسلكي. وزودنا المستشفيات بآلات لالتقاط صور بأشعة إكس، لكنك لا تستطيع الشعور بأيًا منها، أو على الأقل ليس بعد، لأنك غير مجهّز بأجهزة الاستشعار المناسبة.
Now, it's not that these things are inherently unseeable. Snakes include some infrared in their reality, and honeybees include ultraviolet in their view of the world, and of course we build machines in the dashboards of our cars to pick up on signals in the radio frequency range, and we built machines in hospitals to pick up on the X-ray range. But you can't sense any of those by yourself, at least not yet, because you don't come equipped with the proper sensors.
ما يعنيه هذا، أن تجربتنا عن الواقع محدودة بطبيعتنا البشرية، وذلك يدحض المفهوم الشائع للحواس بأن أعيننا وآذاننا وأناملنا تشعر بكل ما هو محسوس من حولنا. لكن الحقيقة أن عقولنا تدرك القليل فقط مما هو موجود.
Now, what this means is that our experience of reality is constrained by our biology, and that goes against the common sense notion that our eyes and our ears and our fingertips are just picking up the objective reality that's out there. Instead, our brains are sampling just a little bit of the world.
ففي مملكة الحيوانات، كل حيوان له القدرة على التقاط جزء مختلف من الواقع الحسي مثلًا في عالم القُراد الأعمى و الأصم أهم الإشارات هي الحرارة و حمض البيوتريك أما عالم "السمكة الفراشة " فهو ملوّن تماما بالمجال الكهربائي أما بالنسبة للخفاش الذي يعتمد على الصدى فواقعه يتكون من انضغاط موجات الهواء هذه هي حدود نظامها البيئي التي تستطيع التقاطه، وثمة مصطلح لهذا المجال العلمي يدعى " البيئة الحسية" وهي كلمة ألمانية تعني العالم المحيط بنا. من المحتمل أن كل حيوان يفترض أن البيئة الحسية هو الواقع الكلي الموجود هناك، فلماذا لا نذهب بخيالنا أن هنالك شيء ما وراء حدود حواسنا ولكن بدلا عن ذلك نتقبل الواقع كما يُقدّم لنا.
Now, across the animal kingdom, different animals pick up on different parts of reality. So in the blind and deaf world of the tick, the important signals are temperature and butyric acid; in the world of the black ghost knifefish, its sensory world is lavishly colored by electrical fields; and for the echolocating bat, its reality is constructed out of air compression waves. That's the slice of their ecosystem that they can pick up on, and we have a word for this in science. It's called the umwelt, which is the German word for the surrounding world. Now, presumably, every animal assumes that its umwelt is the entire objective reality out there, because why would you ever stop to imagine that there's something beyond what we can sense. Instead, what we all do is we accept reality as it's presented to us.
دعنا ننعش أدمغتنا ولتتخيل أنك كلب صيدٍ، إذاً، سيتمحورعالمك كله حول حاسة الشم. فلديك أنف طويل به 200 مليون خلية من مستقبلات الروائح، ولديك فتحتي أنف رطبتين يقومان بجذب جزيئات الروائح ويوجد بها شقوق تمكن من التقاط أكبر كم من الانبعاثات في الهواء كل شيء بالنسبة لك هو عن الشم، ويوماً ما تدرك الحقيقة، تنظر لصاحبك البشري وتطرق مفكراً "كيف كنت لأبدو لو أن أنفي صغير مسلوب القدرة يرثى له كأنوف البشر؟ (ضحك) كيف يبدو حالك عندما يمتلئ أنفك باستنشاقك كمية لا تذكر من الهواء؟ كيف لا تدرك أنه توجد قطة على بعد 100 ياردة أو أن جارك كان في هذا المكان منذ ست ساعات بالضبط؟" (ضحك)
Let's do a consciousness-raiser on this. Imagine that you are a bloodhound dog. Your whole world is about smelling. You've got a long snout that has 200 million scent receptors in it, and you have wet nostrils that attract and trap scent molecules, and your nostrils even have slits so you can take big nosefuls of air. Everything is about smell for you. So one day, you stop in your tracks with a revelation. You look at your human owner and you think, "What is it like to have the pitiful, impoverished nose of a human? (Laughter) What is it like when you take a feeble little noseful of air? How can you not know that there's a cat 100 yards away, or that your neighbor was on this very spot six hours ago?" (Laughter)
ولأننا بشر، لم نجرب قط عالم الرائحة ذلك لذلك لا نكترث به لأننا مرتبطون وبقوة بما هو حولنا. والسؤال الذي يطرح نفسه : هل نبقى مكتوفي الأيدي ؟ وبصفتي متخصص في علم الأعصاب، فأنا مولع بمسار التكنولوجيا وتطورها ربما توسع آفاق معرفتنا بالبيئة المحيطة، وكيف ستغير التكنولوجيا تجربة الإنسان:
So because we're humans, we've never experienced that world of smell, so we don't miss it, because we are firmly settled into our umwelt. But the question is, do we have to be stuck there? So as a neuroscientist, I'm interested in the way that technology might expand our umwelt, and how that's going to change the experience of being human.
ذلك بأنه بات معلوماً من الممكن المزاوجة بين التكنولوجيا وعلم الأحياء، لأن هنالك مئات الآلاف من البشر يتجولون حولنا بسمع صناعي ونظر صناعي الطريقة التي يعمل بها الجهاز أنّ مايكروفون يحوِّل الموجات إلى إشارات رقمية ويُوضع شريطاً كهربائياً في الأذن الداخلية أو عملية زرع شبكية العين، حيث تستعين بكاميرا وتحول الإشارة إلى إشارة رقمية ثم تُلصق بشبكة كهربائية مباشرة على العصب البصري. منذ 15 عاماً شكك الكثير من العلماء في نجاح تلك التقنيات لماذا؟ لأن هذه التقنيات ذات طابع متفرد إنها تتحدث بلغة وادي السيليكون وهي ليست نفس لهجة أعضاء الحس الحيوية لدينا ولكن الواقع أثبت أنها نجحت، فالعقل يجيد استخدام هذه الإشارات
So we already know that we can marry our technology to our biology, because there are hundreds of thousands of people walking around with artificial hearing and artificial vision. So the way this works is, you take a microphone and you digitize the signal, and you put an electrode strip directly into the inner ear. Or, with the retinal implant, you take a camera and you digitize the signal, and then you plug an electrode grid directly into the optic nerve. And as recently as 15 years ago, there were a lot of scientists who thought these technologies wouldn't work. Why? It's because these technologies speak the language of Silicon Valley, and it's not exactly the same dialect as our natural biological sense organs. But the fact is that it works; the brain figures out how to use the signals just fine.
والسؤال الآن، كيف نفهم ذلك؟ إليكم السر الخطير: عقلك لا يسمع ولا يرى أيًا من تلك الإشارات إن العقل متقوقع في محيط صامت ومظلم داخل الجمجمة العقل لا يرى سوى الإشارات الكهروكيميائية والتي تأتيه عبر وصلات مختلفة وهذا كل ما في الأمر، ليس أكثر من ذلك والمدهش أن العقل بارع وبشدة في التقاط هذه الإشارات واستخلاص الأنماط وتعريفها بحيث يكوّن عوالم داخلية ويجمعها سوية في قصة وبذلك ينشأ عالمك الخاص.
Now, how do we understand that? Well, here's the big secret: Your brain is not hearing or seeing any of this. Your brain is locked in a vault of silence and darkness inside your skull. All it ever sees are electrochemical signals that come in along different data cables, and this is all it has to work with, and nothing more. Now, amazingly, the brain is really good at taking in these signals and extracting patterns and assigning meaning, so that it takes this inner cosmos and puts together a story of this, your subjective world.
لكن الفكرة الرئيسية أن عقلك لا يعلم ولا يكترث بمصدر الحصول على المعلومات فمهما كانت المعلومات الوافدة، يقوم العقل باكتشاف كيفية توظيفها وهذا أشبه ما يكون بآلة على درجة عالية من الكفاءة كجهاز حاسوب متعدد الأغراض يتفحّص كل شيء ثم يكتشف كيفية توظيفها وذلك من شأنه تحرير "الطبيعة الأم" من العبث بالأنواع المختلفة من قنوات الإدخال
But here's the key point: Your brain doesn't know, and it doesn't care, where it gets the data from. Whatever information comes in, it just figures out what to do with it. And this is a very efficient kind of machine. It's essentially a general purpose computing device, and it just takes in everything and figures out what it's going to do with it, and that, I think, frees up Mother Nature to tinker around with different sorts of input channels.
أطلق على ذلك نموذج التطور P.H لا أريد أن أخوض في مصطلحات تقنية معقّدة لكن P.H هو اختصار لمصطلح "رأس البطاطا" وأستخدم هذه التسمية للتأكيد على أن جميع أجهزة الاستشعار هذه التي نعرفها ونحبها كأعيننا وآذاننا وأطراف أصابعنا تعمل تماماً كالأجهزة الملحقة بالحاسوب: نستطيع استخدامها حالما تقوم بتركيبها. يعمل الدماغ على توظيف المعلومات التي يتلقاها. عندما نلقي نظرة على مملكة الحيوانات تجد الكثير من الأجهزة الملحقة تمتلك الأفاعي مثلاً تجاويف تتحسس الحرارة أما السمكة الفراشة فتمتلك مستقبلات كهربائية ويمتلك الخلد ذو الأنف النجمي ذيلاً ملحقاً يتألف من 22 إصبعاً يشعر من خلاله بما يحيط به ويبني بواسطته عالماً ثلاثي الأبعاد وتمتلك الكثير من الطيور مغناطيساً يمكنها من التوجيه عبر الحقل المغناطيسي للكرة الأرضية. ما يعنيه هذا أن الطبيعة ليس عليها دائما إعادة تصميم الدماغ وإنما من خلال إنشاء مبادئ لعمل الدماغ يجب أن يتمحور دور الطبيعة على تصميم أجهزة ملحقة جديدة
So I call this the P.H. model of evolution, and I don't want to get too technical here, but P.H. stands for Potato Head, and I use this name to emphasize that all these sensors that we know and love, like our eyes and our ears and our fingertips, these are merely peripheral plug-and-play devices: You stick them in, and you're good to go. The brain figures out what to do with the data that comes in. And when you look across the animal kingdom, you find lots of peripheral devices. So snakes have heat pits with which to detect infrared, and the ghost knifefish has electroreceptors, and the star-nosed mole has this appendage with 22 fingers on it with which it feels around and constructs a 3D model of the world, and many birds have magnetite so they can orient to the magnetic field of the planet. So what this means is that nature doesn't have to continually redesign the brain. Instead, with the principles of brain operation established, all nature has to worry about is designing new peripherals.
بمعنى آخر العبرة التي تطفو على السطح أن ليس ثمة ما هو خاص أو أساسي حيال علم الأحياء الذي أتينا به هو فقط الإرث الذي جنيناه عبر مسيرة معقدة من التطور. لكن لا ينبغي التعلق به، وأفضل دليل على هذا المبدأ يأتي مما نطلق عليه "البديل الحسي". وهذا يشير للمعلومات الوافدة إلى الدماغ عبر قنوات حسية خاصة، والدماغ يتدبر أمر التصرف بها.
Okay. So what this means is this: The lesson that surfaces is that there's nothing really special or fundamental about the biology that we come to the table with. It's just what we have inherited from a complex road of evolution. But it's not what we have to stick with, and our best proof of principle of this comes from what's called sensory substitution. And that refers to feeding information into the brain via unusual sensory channels, and the brain just figures out what to do with it.
قد يبدو ذلك تأملياً لكن الورقة الأولى التي شرحت هذا وقع نشرها في صحيفة "ناتشر" في عام 1969. قام عالم يدعى (بول باخ واي ريتا) بوضع أناس كفيفين على كرسي أسنان معدّل، وقام بتركيب كاميرا تسجيل، ووضع شيئاً أمام الكاميرا، حينها ستشعر أنه ثمة شيء مغروس في ظهرك بشبكة من الملفات اللولبية. فإذا كان هناك فنجان قهوة أمام الكاميرا، فستشعر بذلك في ظهرك، وقد تجاوب المكفوفون بشكل مذهل في تحديد الجسم القابع أمام الكاميرا وكل ذلك من خلال الشعور به في منطقة الظهر. ثمة الكثير من الدراسات الحديثة التي تجسد هذا الطرح. تعرض النظارات الصوتية الفيديو أمامك ثم تحوله إلى مشهد صوتي، وعندما تتحرك الأشياء وتقترب وتبتعد، يصدر عن النظارات صوت مميز. أشبه بنغمات متنافرة، لكن بعد عدة أسابيع يبلي الكفيف حسناً بإدراك ما هو أمامه بناء على ما يسمعه. وليس بالضرورة عن طريق الآذان: فالنظام يستخدم شبكة حسية كهربائية يتم تثبيتها على الجبهة، وكل ما يقبع أمام الكاميرا تشعر به في جبهتك. لماذا الجبهة؟ لأنك لا تستعملها لأي غرض آخر.
Now, that might sound speculative, but the first paper demonstrating this was published in the journal Nature in 1969. So a scientist named Paul Bach-y-Rita put blind people in a modified dental chair, and he set up a video feed, and he put something in front of the camera, and then you would feel that poked into your back with a grid of solenoids. So if you wiggle a coffee cup in front of the camera, you're feeling that in your back, and amazingly, blind people got pretty good at being able to determine what was in front of the camera just by feeling it in the small of their back. Now, there have been many modern incarnations of this. The sonic glasses take a video feed right in front of you and turn that into a sonic landscape, so as things move around, and get closer and farther, it sounds like "Bzz, bzz, bzz." It sounds like a cacophony, but after several weeks, blind people start getting pretty good at understanding what's in front of them just based on what they're hearing. And it doesn't have to be through the ears: this system uses an electrotactile grid on the forehead, so whatever's in front of the video feed, you're feeling it on your forehead. Why the forehead? Because you're not using it for much else.
أحدث الاختراعات اليوم يدعى "منفذ الدماغ"، وهو عبارة عن شبكة كهربائية صغيرة يتم تثبيتها على اللسان، تقوم بتحويل الصورة إلى إشارات حسية كهربائية صغيرة، ويجيد الكفيف استخدام هذه التقنية لدرجة أن بإمكانهم إدخال الكرة في السلة، كما يمكنهم الملاحة في مسارات معقدة. يستطيع الرؤية من خلال لسانه. يبدو الأمر ضرباً من الجنون، أليس كذلك؟ لكن تذكروا، الرؤية ما هي إلا.. إشارات كهروكيماوية تتجول في أنحاء دماغك. يجهل دماغك مصدر هذه الإشارات. كل ما يفعله أنه يقوم بتوظيفها.
The most modern incarnation is called the brainport, and this is a little electrogrid that sits on your tongue, and the video feed gets turned into these little electrotactile signals, and blind people get so good at using this that they can throw a ball into a basket, or they can navigate complex obstacle courses. They can come to see through their tongue. Now, that sounds completely insane, right? But remember, all vision ever is is electrochemical signals coursing around in your brain. Your brain doesn't know where the signals come from. It just figures out what to do with them.
يتركز اهتمامي في تجاربي على البديل الحسي للصم، وقد تبنّيت هذا المشروع مع أحد الطلاب المتخرجين في مختبري (سكوت نوفيتش)، والذي يتخذه موضوعاً لأطروحته. إليكم ما أردنا فعله: أردنا أن نبتكر جهازاً لتحويل الصوت الصادر بحيث يستطيع الأصم فهم ما يُقال. وأردنا القيام بذلك بالاستعانة بالأدوات الحاسوبية المحمولة، أردنا التأكد من أن هذا الجهاز يعمل على الهواتف النقالة والأجهزة اللوحية، وكنا ننوي أن نجعل هذا الجهاز قابلاً للارتداء، جهاز يمكن ارتداؤه تحت الملابس. هذه هي الفكرة. عندما أتحدث، يلتقط الجهاز اللوحي صوتي، ثم يتحول إلى رسم على سترة مزوّدة برجّاجات، تماماً كالموجود في هاتفك النقال عندما أتحدث، يتم ترجمة الصوت إلى ذبذبات على السترة. لم يعد هذا محض خيال: هذا الجهاز اللوحي يرسل بالبلوتوث وها أنا أرتدي السترة الآن. عندما أتحدث -- (تصفيق) -- يتم ترجمة الصوت إلى نمط ديناميكي من الاهتزاز إنني أشعر بالعالم الصوتي من حولي.
So my interest in my lab is sensory substitution for the deaf, and this is a project I've undertaken with a graduate student in my lab, Scott Novich, who is spearheading this for his thesis. And here is what we wanted to do: we wanted to make it so that sound from the world gets converted in some way so that a deaf person can understand what is being said. And we wanted to do this, given the power and ubiquity of portable computing, we wanted to make sure that this would run on cell phones and tablets, and also we wanted to make this a wearable, something that you could wear under your clothing. So here's the concept. So as I'm speaking, my sound is getting captured by the tablet, and then it's getting mapped onto a vest that's covered in vibratory motors, just like the motors in your cell phone. So as I'm speaking, the sound is getting translated to a pattern of vibration on the vest. Now, this is not just conceptual: this tablet is transmitting Bluetooth, and I'm wearing the vest right now. So as I'm speaking -- (Applause) -- the sound is getting translated into dynamic patterns of vibration. I'm feeling the sonic world around me.
نقوم باختبار هذا الاختراع على الصم الآن، وتبين أنه بعد فترة ليست بطويلة، سيبدأ الناس بالشعور بها وباستيعاب لغة السترة.
So, we've been testing this with deaf people now, and it turns out that after just a little bit of time, people can start feeling, they can start understanding the language of the vest.
ها هو (جوناثان)، عمره 27 عاماً. حاصل على شهادة ماجستير لقد ولد أصماً ما يعني أن جزءً من وسيلة الإدراك غير متوفر بالنسبة له خضع (جوناثان) للتدريب على السترة لأربعة أيام، ساعتان يومياً وها هو يتدرب لليوم الخامس.
So this is Jonathan. He's 37 years old. He has a master's degree. He was born profoundly deaf, which means that there's a part of his umwelt that's unavailable to him. So we had Jonathan train with the vest for four days, two hours a day, and here he is on the fifth day.
سكوت نوفيتش: أنت.
Scott Novich: You.
دافيد إنغليمان: يقول (سكوت) كلمة ويشعر (جوناثان) بها من خلال السترة ثم يكتبها على اللّوح
David Eagleman: So Scott says a word, Jonathan feels it on the vest, and he writes it on the board.
سكوت نوفيتش: أين.
SN: Where. Where.
يستطيع (جوناثان) ترجمة هذا النمط المعقد من الاهتزازات إلى إدراك ما يُقال.
DE: Jonathan is able to translate this complicated pattern of vibrations into an understanding of what's being said.
سكوت نوفيتش: لمس.
SN: Touch. Touch.
لا يقوم بذلك-- (تصفيق)-- لا يقوم (جوناثان) بذلك بعقله الواعي لأن الأنماط معقدة جداً، لكن دماغه بدأ بفك شيفرة الأنماط مما أتاح له فهم معنى البيانات، ونتوقع أنه بعد ثلاثة أشهر من ارتداء هذه السترة، سيتمكن من فهم كل ما يُقال بنفس الطريقة التي يمرر بها الكفيف أصبعه على طريقة بريل، حيث يتم استيعاب المعنى مباشرة دون تدخل العقل الواعي. لهذه التقنية القدرة على إحداث تغيير في قواعد اللعبة، فالبديل الوحيد للصم هو زرع قوقعة، وهذا يتطلب تدخلاً جراحيا. أما هذا الاختراع فهو أرخص من زرع القوقعة بأربعين مرة، مما يفتح الباب أمام هذه التقنية عالمياً حتى في البلدان الأكثر فقراً.
DE: Now, he's not doing this -- (Applause) -- Jonathan is not doing this consciously, because the patterns are too complicated, but his brain is starting to unlock the pattern that allows it to figure out what the data mean, and our expectation is that, after wearing this for about three months, he will have a direct perceptual experience of hearing in the same way that when a blind person passes a finger over braille, the meaning comes directly off the page without any conscious intervention at all. Now, this technology has the potential to be a game-changer, because the only other solution for deafness is a cochlear implant, and that requires an invasive surgery. And this can be built for 40 times cheaper than a cochlear implant, which opens up this technology globally, even for the poorest countries.
إن النتائج المنبثقة عن البديل الحسي مشجعة جداً، لكن ما يشغل تفكيرنا كثيراً هو إضافة حاسة جديدة كيف نوظف تقنية كهذه في إضافة حاسة جديدة لتوسيع حيز الإدراك البشري؟ مثلاً، هل نستطيع تزويد العقل البشري ببيانات مباشرة من الإنترنت وهل نستطيع بذلك تطوير الأجهزة الملحقة؟
Now, we've been very encouraged by our results with sensory substitution, but what we've been thinking a lot about is sensory addition. How could we use a technology like this to add a completely new kind of sense, to expand the human umvelt? For example, could we feed real-time data from the Internet directly into somebody's brain, and can they develop a direct perceptual experience?
إليكم تجربة نقوم بها في المختبر شخص يشعر بالبيانات المزودة مباشرة من الإنترنت لمدة 5 ثوانٍ ثم يظهر اثنين من الأزرار ويجب على الشخص الاختيار إنه لا يعلم ما الذي يحدث يقوم بالاختيار ثم يتلقى إفادة في ثانية واحدة الآن، هذا هو المثير الشخص ليست لديه فكرة عما تعنيه أي من تلك الأنماط، لكننا سنرى إن كان سيكتشف أي زر هو الصحيح، هو لا يعرف أن ما نغذيه من بيانات هي بيانات فورية من سوق الأسهم، لكنه يتخذ قرارات بيع وشراء. (ضحك) ثم يحصل على رد يخبره هل كان قراره صحيحا أم لا. وما نراه أننا يمكننا توسيع مدارك الإنسان وبالتالي يصبح بعد عدة أسابيع خبير مُدرك للحركة الاقتصادية في العالم. سنتحدث عن ذلك لاحقا، لنريكم كيف يجري الأمر (ضحك)
So here's an experiment we're doing in the lab. A subject is feeling a real-time streaming feed from the Net of data for five seconds. Then, two buttons appear, and he has to make a choice. He doesn't know what's going on. He makes a choice, and he gets feedback after one second. Now, here's the thing: The subject has no idea what all the patterns mean, but we're seeing if he gets better at figuring out which button to press. He doesn't know that what we're feeding is real-time data from the stock market, and he's making buy and sell decisions. (Laughter) And the feedback is telling him whether he did the right thing or not. And what we're seeing is, can we expand the human umvelt so that he comes to have, after several weeks, a direct perceptual experience of the economic movements of the planet. So we'll report on that later to see how well this goes. (Laughter)
وهذا شيء آخر سنفعله: أثناء محادثات TED منذ الصباح، ونحن نقوم بالبحث آليًا في تويتر عن هاشتاغ TED2015 # وأيضا نقوم بالتحليل الآلي للآراء، ما يعني، هل يستخدم الناس كلمات إيجابية أم سلبية أم آراءهم محايدة، وفي هذه الأثناء، وأنا أشعر بهذا، وبالتالي أنا موصول بأحاسيس تشمل آلاف البشر فوريًا وفي الزمن الفعلي وهذه تجربة جديدة للإنسان، لأنني أعلم الآن كيف يشعر الجميع، ولأي مدى أنتم مستمتعون بهذه المحادثة. (ضحك) (تصفيق) إنها تجربة أكبر مما اعتاد عليه الإنسان.
Here's another thing we're doing: During the talks this morning, we've been automatically scraping Twitter for the TED2015 hashtag, and we've been doing an automated sentiment analysis, which means, are people using positive words or negative words or neutral? And while this has been going on, I have been feeling this, and so I am plugged in to the aggregate emotion of thousands of people in real time, and that's a new kind of human experience, because now I can know how everyone's doing and how much you're loving this. (Laughter) (Applause) It's a bigger experience than a human can normally have.
قمنا أيضا باستخدام التجربة مع الطيارين في هذه الحالة، السترة تقوم بحساب 9 مقاييس مختلفة ابتداءً من الطوافة، والميل والتعرجات والدوران والتوجيه والعنوان وهذا يطوّر قدرة الطيار على القيادة. فهذا كأنه يمدّد جسده ويذهب به بعيدًا وهو جالس في مكانه.
We're also expanding the umvelt of pilots. So in this case, the vest is streaming nine different measures from this quadcopter, so pitch and yaw and roll and orientation and heading, and that improves this pilot's ability to fly it. It's essentially like he's extending his skin up there, far away.
وهذه مجرد بداية نحن نتطلع لقمرة قيادة حديثة، مليئة بأجهزة القياس وبدلًا من محاولة قراءة كل شيء، فقط نشعر به. نحن اليوم نعيش في عصر المعلومات، ويوجد فرق بين الحصول على البيانات وبين تجربة هذه البيانات والشعور بها.
And that's just the beginning. What we're envisioning is taking a modern cockpit full of gauges and instead of trying to read the whole thing, you feel it. We live in a world of information now, and there is a difference between accessing big data and experiencing it.
لذلك أعتقد أنه لا نهاية لإمكانيات على صعيد التوسّع البشري. فقط تخيّل رائد فضاء له القدرة على الشعور بجملة الحالة الصحية للكوكب من محطة الفضاء الدولية أو في ذات السياق، شعورك بحالتك الصحية للأعراض غير المرئية، كنسبة السكر في دمك أو الميكروبات في جسمك أو القدرة على الرؤية في نطاق 360 درجة أو رؤية الأشعة تحت الحمراء وفوق البنفسجية
So I think there's really no end to the possibilities on the horizon for human expansion. Just imagine an astronaut being able to feel the overall health of the International Space Station, or, for that matter, having you feel the invisible states of your own health, like your blood sugar and the state of your microbiome, or having 360-degree vision or seeing in infrared or ultraviolet.
بيت القصيد أنه، بينما نحن نتقدم في المستقبل ستزداد فرص إمكانية اختيار أجهزة خارجية لن يكون علينا انتظار ما تجود علينا الطبيعة به الأم من حواس أو جداولها الزمنية بدلًا من ذلك، كأي أم جيّدة، ستمنحنا فقط الأدوات التي نحتاج إليها لنذهب خارجًا ونحدد مسارنا الخاص. لكن السؤال الذي يطرح نفسه: بأي طريقة تريد اكتشاف عالمك؟
So the key is this: As we move into the future, we're going to increasingly be able to choose our own peripheral devices. We no longer have to wait for Mother Nature's sensory gifts on her timescales, but instead, like any good parent, she's given us the tools that we need to go out and define our own trajectory. So the question now is, how do you want to go out and experience your universe?
شكرًا.
Thank you.
(تصفيق)
(Applause)
كريس أندرسون: هل تشعر بهذا؟ ديفيد: نعم.
Chris Anderson: Can you feel it? DE: Yeah.
في الحقيقة كانت هذه المرة الأولى التي أشعر فيها بالإطراء على السترة إنها جميلة، تشبه التدليك. (ضحك)
Actually, this was the first time I felt applause on the vest. It's nice. It's like a massage. (Laughter)
كريس: التويتر سيصبح مجنونا ومهوسا. تلك التجربة عن سوق الأسهم يمكن أن تكون التجربة الأولى التي تؤمّن تمويل أبدي إذا نجحت، صحيح؟
CA: Twitter's going crazy. Twitter's going mad. So that stock market experiment. This could be the first experiment that secures its funding forevermore, right, if successful?
ديفيد: هذا صحيح، لن أحتاج لمعاهد الصحة الوطنية الأمريكية بعد الآن
DE: Well, that's right, I wouldn't have to write to NIH anymore.
كريس: حسنًا ، دعني أكون محايدا نعم هذا مدهش، لكن أليست معظم الشواهد حتى الآن تؤكد أن نجاح البدائل الحسية، ليس بالضرورة أن يعني نجاح الإضافات الحسية؟ أعني، أليس من الممكن أن يرى الأعمي عبر لسانه لأن القشرة البصرية للدماغ موجودة فيه وهذا مطلوب كجزء من العملية؟
CA: Well look, just to be skeptical for a minute, I mean, this is amazing, but isn't most of the evidence so far that sensory substitution works, not necessarily that sensory addition works? I mean, isn't it possible that the blind person can see through their tongue because the visual cortex is still there, ready to process, and that that is needed as part of it?
ديفيد: هذا سؤال جميل، في الحقيقة ليست لدينا فكرة عن الحدود النظرية لنوع المعلومات التي يمكن أن يتقبلها الدماغ لكن عموما، الدماغ مرِن بصورة غريبة فعندما يصبح الشخص أعمى، ما نستخدمه للاتصال بالقشرة البصرية يمكن أن يكون اللمس أو السمع أو المفردات. ما يعنيه هذا أن القشرة البصرية نوع من المترجمات. تطبق نوع معين من العمليات الحسابية على الأشياء إذا أخذنا طريقة بريل، على سبيل المثال فإن الناس يحصلون على المعلومات عبر أناملهم لذلك أعتقد أنه لا يوجد حدود نظرية نحن نعلم نهايتها.
DE: That's a great question. We actually have no idea what the theoretical limits are of what kind of data the brain can take in. The general story, though, is that it's extraordinarily flexible. So when a person goes blind, what we used to call their visual cortex gets taken over by other things, by touch, by hearing, by vocabulary. So what that tells us is that the cortex is kind of a one-trick pony. It just runs certain kinds of computations on things. And when we look around at things like braille, for example, people are getting information through bumps on their fingers. So I don't think we have any reason to think there's a theoretical limit that we know the edge of.
كريس: إذا تحقق هذا، ستُصبح مشغولا جدا. فهناك العديد من التطبيقات ستكون بإنتظارك هل أنت جاهز لهذا؟ ولأي تطبيق متحمسٌ أكثر؟ ديفيد: نعم هناك الكثير من التطبيقات من ناحية البدائل الحسية، لكن ما بدأت أذكره عن رواد الفضاء في المحطة الفضائية، إنهم يبذلون الكثير من وقتهم في مراقبة الأشياء، فباستطاعتهم معرفة كل مايجري فقط في لحظة، لأن هذا فعلاً مناسب بالنسبة للبيانات متعددة الأبعاد. يعتبر نظامنا البصري جيّد في التقاط النقط والحواف، لكنه سيء جدًا مقارنة بما أصبح عليه عالمنا حيث الشاشات المليئة بالكثير من البيانات تحتاج للكثير من التركيز والانتباه. لذلك بهذه الطريقة فقط نستطيع إدراك حالة الشيء، بنفس الطريقة التي تعرف بها موضع جسدك وأنت تقف في مكان ما. مثلا الآليات الثقيلة والأمن تعي بحالة المصنع وبحالة معداتك، في هذا المسار سيكون نجاحه المشروع.
CA: If this checks out, you're going to be deluged. There are so many possible applications for this. Are you ready for this? What are you most excited about, the direction it might go? DE: I mean, I think there's a lot of applications here. In terms of beyond sensory substitution, the things I started mentioning about astronauts on the space station, they spend a lot of their time monitoring things, and they could instead just get what's going on, because what this is really good for is multidimensional data. The key is this: Our visual systems are good at detecting blobs and edges, but they're really bad at what our world has become, which is screens with lots and lots of data. We have to crawl that with our attentional systems. So this is a way of just feeling the state of something, just like the way you know the state of your body as you're standing around. So I think heavy machinery, safety, feeling the state of a factory, of your equipment, that's one place it'll go right away.
ديفيد إيغلمان، لقد كانت هذه من المحادثات التي تعصف بالذهن، شكرا جزيلًا.
CA: David Eagleman, that was one mind-blowing talk. Thank you very much.
ديفيد: شكرًا كريس. (تصفيق)
DE: Thank you, Chris. (Applause)