غريغ غيج: قراءة الأفكار، لقد شاهدت ذلك في أفلام الخيال العلمي؛ الآلات التي بوسعها قراءة أفكارنا. غير أنّ هناك تقنيات اليوم بوسعها قراءة النشاط الكهربائي لأدمغتنا. نسميها مخطط كهربية الدماغ "EEG". هل يوجد معلومات مُضمّنة في موجات الدماغ؟ وإن كان كذلك، هل باستطاعتنا تدريب حاسوب على قراءة أفكارنا؟
Greg Gage: Mind-reading. You've seen this in sci-fi movies: machines that can read our thoughts. However, there are devices today that can read the electrical activity from our brains. We call this the EEG. Is there information contained in these brainwaves? And if so, could we train a computer to read our thoughts?
عكف صديقي نيثان على اختراق تخطيط الأمواج الدماغية من أجل بناء آلة تقرأ الأفكار.
My buddy Nathan has been working to hack the EEG to build a mind-reading machine.
[جرّب علم الأعصاب بنفسك]
[DIY Neuroscience]
حسنًا إليك طريقة عمل نظام تخطيط الدماغ. يوجد في داخل الرأس دماغ، ويتكون هذا الدماغ من مليارات الخلايا العصبية، تقوم هذه الخلايا العصبية بإرسال إشارات كهربائية بين بعضها. تتجمع هذه الرسائل الصغيرة لتشكيل موجة كهربائية نستطيع كشفها على شاشة الحاسوب عادةً، يستطيع جهاز تخطيط الدماغ قراءة الأشياء بصورة عامة، على سبيل المثال: إذا كنت نائما أو إذا جرى تنبيهك. لكن هل يمكنه إخبارنا بأشياء أخرى؟ هل حقًا بوسعه قراءة أفكارنا؟ سنقوم بتجربة ذلك، ولن نبدأ ذلك مع أفكار معقدة. سنقوم بإجراءات بسيطة جدًا. هل بوسعنا تفسير ما يراه الشخص باستخدام الأمواج الدماغية فقط؟
So this is how the EEG works. Inside your head is a brain, and that brain is made out of billions of neurons. Each of those neurons sends an electrical message to each other. These small messages can combine to make an electrical wave that we can detect on a monitor. Now traditionally, the EEG can tell us large-scale things, for example if you're asleep or if you're alert. But can it tell us anything else? Can it actually read our thoughts? We're going to test this, and we're not going to start with some complex thoughts. We're going to do something very simple. Can we interpret what someone is seeing using only their brainwaves?
سيبدأ نيثان بوضع أقطاب كهربائية على رأس كريستي
Nathan's going to begin by placing electrodes on Christy's head.
نيثان: حياتي متشابكة.
Nathan: My life is tangled.
(ضحك)
(Laughter)
غ غ: ومن ثم سيعرض عليها مجموعة من الصور من أربع فئات مختلفة.
GG: And then he's going to show her a bunch of pictures from four different categories.
نيثان: وجه، ومنزل، ومشهد طبيعي، وصور غريبة.
Nathan: Face, house, scenery and weird pictures.
غ غ: فيما نعرض على كريستي المئات من هذه الصور، نقوم أيضًا بتسجيل الأمواج الكهربائية على حاسوب نيثان. سنرى إن كان بوسعنا رصد أية معلومات متعلقة بالصور وردت في الموجات الدماغية، وهكذا عندما ننتهي، سنرى إن كان بوسع جهاز التخطيط أن يخبرنا عن نوعية الصور التي تنظر إليها كريستي، وإن حدث ذلك، ينبغي على كل فئة أن تثير إشارة دماغية مختلفة.
GG: As we show Christy hundreds of these images, we are also capturing the electrical waves onto Nathan's computer. We want to see if we can detect any visual information about the photos contained in the brainwaves, so when we're done, we're going to see if the EEG can tell us what kind of picture Christy is looking at, and if it does, each category should trigger a different brain signal.
حسنًا، إذًا لقد جمعنا كل بيانات جهاز التخطيط الأولية، وهذا ما حصلنا عليه. تبدو جميعها مبعثرة جدًا، لذا سنرتبها وفقًا للصورة. الآن ما زال هناك تشويش نوعًا ما يعيقنا عن رؤية أي فروقات، لكن إذا ما عدّلنا المخططات الدماغية عبر جميع أنواع الصور من خلال ربطها باللحظة التي ظهرت بها الصورة أولًا، نستطيع التخلص من ذلك التشويش، وسرعان ما سنستطيع رؤية بعض الأنماط البارزة تظهر لكل فئة.
OK, so we collected all the raw EEG data, and this is what we got. It all looks pretty messy, so let's arrange them by picture. Now, still a bit too noisy to see any differences, but if we average the EEG across all image types by aligning them to when the image first appeared, we can remove this noise, and pretty soon, we can see some dominant patterns emerge for each category.
الآن لا تزال الإشارات متشابهة جدًا. دعونا نلقي نظرة قريبة. بعد ظهور الصورة بحوالي 100 ملي ثانية، نرى نتوءًا بارزًا في الحالات الأربعة جميعها، ونطلق عليه تسمية "ب100"، والذي نعتقده هو أنّ هذا ما يحصل لدماغك عندما تدرك شيئًا ما. لكن يا إلهي! انظر إلى الرمز الذي يظهر للوجه. يبدو مختلفًا عن الرموز الأخرى. هناك هبوط سلبي بعد حوالي 170 ميلي ثانية من ظهور الصورة.
Now the signals all still look pretty similar. Let's take a closer look. About a hundred milliseconds after the image comes on, we see a positive bump in all four cases, and we call this the P100, and what we think that is is what happens in your brain when you recognize an object. But damn, look at that signal for the face. It looks different than the others. There's a negative dip about 170 milliseconds after the image comes on.
ما الذي يحدث هنا؟ تشير الأبحاث إلى وجود العديد من الخلايا العصبية وظيفتها تمييز الوجوه البشرية، وبالتالي هذا ال"ن170" قد يكون عبارة عن إشارات تطلقها هذه الخلايا العصبية في نفس الوقت والمكان ويمكننا كشف ذلك من خلال هذا الجهاز.
What could be going on here? Research shows that our brain has a lot of neurons that are dedicated to recognizing human faces, so this N170 spike could be all those neurons firing at once in the same location, and we can detect that in the EEG.
وبالتالي هناك فائدتان هنا، أولًا؛ لا يمكن لأعيننا تمييز الفروق في الأنماط من دون أن تبلغ معدل التشويش، وثانيًا؛ حتى بعد إزالة التشويش، تستطيع أعيننا أن تلتقط الإشارات المرتبطة بالوجوه فقط.
So there are two takeaways here. One, our eyes can't really detect the differences in patterns without averaging out the noise, and two, even after removing the noise, our eyes can only pick up the signals associated with faces.
إذًا هنا حيث نعود إلى تعلم الآلة. الآن، عيوننا ليست بتلك الجودة في التقاط الأشكال من بيانات مشوشة، ولكن آلة تتعلم الخوارزميات مصممة لتقوم بذلك فحسب، إذًا هل نستطيع أخذ العديد من الصور والبيانات وتغذية حاسوب وتدريبه ليكون قادرًا على تفسير ما تنظر إليه كريستي في الوقت الحقيقي؟
So this is where we turn to machine learning. Now, our eyes are not very good at picking up patterns in noisy data, but machine learning algorithms are designed to do just that, so could we take a lot of pictures and a lot of data and feed it in and train a computer to be able to interpret what Christy is looking at in real time?
نحاول ترميز المعلومات التي تصدر من الرسوم البيانية لدماغها "EEG" في الوقت الحقيقي والتنبأ بما تنظر إليه عيناها. وإذا تم ذلك، ما ينبغي أن نراه في كل مرة تحصل فيها على صورة مشهد
We're trying to code the information that's coming out of her EEG in real time and predict what it is that her eyes are looking at. And if it works, what we should see is every time that she gets a picture of scenery,
ينبغي أن يقول مشهد، مشهد، مشهد، مشهد.
it should say scenery, scenery, scenery, scenery.
وجه...وجه، وجه، وجه، وجه،
A face -- face, face, face, face,
ولكن الأمر لا يعمل على هذا النحو تمامًا، وهذا ما نكتشفه. (ضحك) حسنًا.
but it's not quite working that way, is what we're discovering. (Laughter) OK.
المخرجة: إذا ما الذي يجري هنا؟ غ غ: أعنقد أننا نحتاج وظيفة جديدة.
Director: So what's going on here? GG: We need a new career, I think.
(ضحك)
(Laughter)
حسنًا، لقد كان هذا إخفاقًا جسيمًا. ولكن لا يزال ينتابنا الفضول: إلى أي مدى يسعنا التقدم في هذه التقنية؟ وأعدنا النظر إلى ما فعلناه من قبل. ولاحظنا أنّ البيانات كانت تدخل حاسوبنا بشكل سريع جدًا. بدون تعيين الوقت عندما تظهر الصور، وهذا مثل قراءة جملة طويلة جدًا بدون فراغات بين الكلمات. سيكون من الصعب قراءتها، ولكن بمجرد أن نضع الفراغات، تظهر لنا كلمات مفردة وتصبح الجملة مفهومة أكثر بكثير.
OK, so that was a massive failure. But we're still curious: How far could we push this technology? And we looked back at what we did. We noticed that the data was coming into our computer very quickly, without any timing of when the images came on, and that's the equivalent of reading a very long sentence without spaces between the words. It would be hard to read, but once we add the spaces, individual words appear and it becomes a lot more understandable.
ولكن ماذا لو غششنا قليلًا؟ باستخدام جهاز استشعار، يمكننا أن نقول للحاسوب عندما تظهر الصورة لأول مرة، بهذه الطريقة، تتوقف الموجة الدماغية عن كونها تدفقًا مستمرًا من المعلومات. وتصبح عوضًا عن ذلك حُزمًا مفردة ذات معنى، سنقوم كذلك بالغش قليلًا بعد، بتقليل الأصناف إلى اثنين. لنرى إن كان بوسعنا قراءة الأفكار في الوقت الفعلي.
But what if we cheat a little bit? By using a sensor, we can tell the computer when the image first appears. That way, the brainwave stops being a continuous stream of information, and instead becomes individual packets of meaning. Also, we're going to cheat a little bit more, by limiting the categories to two. Let's see if we can do some real-time mind-reading.
في هذه التجربة الجديدة، سنُقلصها قليلًا أكثر، وهكذا نعرف بداية الصورة وسنقوم بالحد من الأصناف إلى "وجه" أو "مشهد".
In this new experiment, we're going to constrict it a little bit more so that we know the onset of the image and we're going to limit the categories to "face" or "scenery."
نيثان: وجه. هذا صحيح. مشهد. صحيح.
Nathan: Face. Correct. Scenery. Correct.
غ غ: إذًا الآن، في كل مرة تظهر الصورة، نلتقط شكلًا لبداية الصورة ونفك تشفير الرسوم الدماغية "EEG" لقد بدأت تعمل بشكل صحيح.
GG: So right now, every time the image comes on, we're taking a picture of the onset of the image and decoding the EEG. It's getting correct.
نيثان: أجل. وجه. صحيح.
Nathan: Yes. Face. Correct.
غ غ: هناك إذًا معلومات في إشارة تخطيط الدماغ وهذا أمر رائع كل ما علينا فعله هو جعلها تتواءم مع بداية الصورة.
GG: So there is information in the EEG signal, which is cool. We just had to align it to the onset of the image.
نيثان: مشهد. صحيح. وجه. نعم.
Nathan: Scenery. Correct. Face. Yeah.
غ غ: هذا يعني وجود بعض المعلومات هناك، لذا لو استطعنا أن نعرف متى تظهر الصورة، سيكون بوسعنا أن نحدد من أي الأشكال كانت، هذا ممكن، ولو بمعدل متوسط، بالنظر إلى تلك الموجات الدماغية.
GG: This means there is some information there, so if we know at what time the picture came on, we can tell what type of picture it was, possibly, at least on average, by looking at these evoked potentials.
نيثان: تمامًا.
Nathan: Exactly.
غ غ: لو أنّك أخبرتني أنّ هذا ممكن في بداية المشروع، لأجبتك بأنّ هذا مستحيل. أنا حرفيًا لم أعتقد أنّ بوسعنا تحقيق هذا.
GG: If you had told me at the beginning of this project this was possible, I would have said no way. I literally did not think we could do this.
هل نجحت تجربتنا في قراءة الأفكار بحق؟ نعم، ولكن اضطُررنا للقيام بالكثير من الحيل. يبدو أنّك تستطيع إيجاد بعض الأشياء المُثيرة في الموجات الدماغية، على سبيل المثال: إذا كنت تنظر إلى وجه أحدهم، ولكنها مُقيّدة إلى حدٍ كبير. لربما التطورات في تعلم الآلة ستقطع أشواطًا هائلة. ويومًا ما سنكون قادرين على ترجمة ما يحدث في أفكارنا ولكن للآن، المرة القادمة التي تقول فيها شركة أنّ بوسعها استغلال موجات دماغك لتتمكّن من التحكم في الأجهزة. إنّه لمن حقك وواجبك أن تُشكّك بذلك.
Did our mind-reading experiment really work? Yes, but we had to do a lot of cheating. It turns out you can find some interesting things in the EEG, for example if you're looking at someone's face, but it does have a lot of limitations. Perhaps advances in machine learning will make huge strides, and one day we will be able to decode what's going on in our thoughts. But for now, the next time a company says that they can harness your brainwaves to be able to control devices, it is your right, it is your duty to be skeptical.