Greg Gage: Mind-reading. You've seen this in sci-fi movies: machines that can read our thoughts. However, there are devices today that can read the electrical activity from our brains. We call this the EEG. Is there information contained in these brainwaves? And if so, could we train a computer to read our thoughts?
گِرِگ گیج: ذهنخوانی. در فیلم های علمی-تخیلی دیدید: ماشینهایی که میتوانند افکار ما را بخوانند. هرچند، امروزه دستگاههایی وجود دارند که فعالیت الکتریکی مغزهایمان را میخوانند. ما این را ایایجی مینامیم. آیا اطلاعاتی در این امواج مغزی وجود دارند؟ اگر بله، آیا قادریم رایانهای برای خواندن افکارمان آموزش دهیم؟
My buddy Nathan has been working to hack the EEG to build a mind-reading machine.
رفقیم ناتان در حال هک یک ایایجی برای ساخت یک ماشین ذهنخوان است.
[DIY Neuroscience]
[خودتان انجام دهید: علوم اعصاب]
So this is how the EEG works. Inside your head is a brain, and that brain is made out of billions of neurons. Each of those neurons sends an electrical message to each other. These small messages can combine to make an electrical wave that we can detect on a monitor. Now traditionally, the EEG can tell us large-scale things, for example if you're asleep or if you're alert. But can it tell us anything else? Can it actually read our thoughts? We're going to test this, and we're not going to start with some complex thoughts. We're going to do something very simple. Can we interpret what someone is seeing using only their brainwaves?
پس ایایجی این گونه عمل میکند. درون سر شما یک مغز وجود دارد، که از میلیاردها سلول عصبی ساخته شده است. هر کدام از آن سلولهای عصبی پیامی الکتریکی به یکدیگر میفرستند. پیامها میتوانند با هم ترکیب شوند و یک موج الکتریکی ایجاد کنند که میتوانیم روی نمایشگر ببینیم. حالا به طور سنتی، ایایجی چیزهای در مقیاس بزرگ به ما بگوید، برای مثال این که شما خواب هستید یا هشیار. ولی آیا چیز دیگری هم به ما میگوید؟ آیا واقعا افکار ما را میخواند؟ ما قصد آزمایش این را داریم، و نمیخواهیم با افکار پیچیده شروع کنیم. میخواهیم کاری بسیار ساده انجام دهیم. آیا میتوانیم آنچه را که شخصی میبیند تنها با استفاده از امواج مغزی تفسیر کنیم؟
Nathan's going to begin by placing electrodes on Christy's head.
ناتان قرار است با قرار دادن الکترود روی سر کریستی شروع کند.
Nathan: My life is tangled.
ناتان: زندگی من گره خورده است.
(Laughter)
(صدای خنده)
GG: And then he's going to show her a bunch of pictures from four different categories.
گِرِگ: و سپس یک دسته از چهار دسته مختلف عکس را به او نشان میدهد. ناتان: چهره، خانه، منظره و تصاویر عجیبوغریب.
Nathan: Face, house, scenery and weird pictures.
گِرِگ: در حالی که تصاویر را به کریستی نشان میدهیم،
GG: As we show Christy hundreds of these images, we are also capturing the electrical waves onto Nathan's computer. We want to see if we can detect any visual information about the photos contained in the brainwaves, so when we're done, we're going to see if the EEG can tell us what kind of picture Christy is looking at, and if it does, each category should trigger a different brain signal.
همچنین امواج الکتریکی را روی رایانه ناتان ثبت میکنیم. میخواهیم ببینیم میتوانیم اطلاعات بصری عکسها را که در امواج مغزی است تشخیص دهیم، پس وقتی کارمان تمام شد، خواهیم دید که آیا ایایجی میتواند به ما بگوید که کریستی به چه نوع تصویری نگاه میکند، و اگر این کار را کرد، هر دسته باید سیگنال مغزی متفاوتی را تحریک کند. خوب، بنابراین ما تمام دادههای خام ایایجی را جمعآوری کردیم،
OK, so we collected all the raw EEG data, and this is what we got. It all looks pretty messy, so let's arrange them by picture. Now, still a bit too noisy to see any differences, but if we average the EEG across all image types by aligning them to when the image first appeared, we can remove this noise, and pretty soon, we can see some dominant patterns emerge for each category.
و این چیزی است که حاصل شد. همه چیز آشفته به نظر میرسد، بیایید آنها را بر اساس تصویر مرتب کنیم. هنوز برای دیدن هر گونه تفاوت، زیاد اغتشاش دارد، اما اگر ما میانگین ایایجی را با تراز کردن آنها با زمانی که تصویر اول ظاهر شد، در تمام تصاویر حساب کنیم، ما میتوانیم این اغتشاشات را حذف کنیم، و سریع میتوانیم برخی از الگوهای غالب را که برای هر دسته ظاهر میشوند ببینیم.
Now the signals all still look pretty similar. Let's take a closer look. About a hundred milliseconds after the image comes on, we see a positive bump in all four cases, and we call this the P100, and what we think that is is what happens in your brain when you recognize an object. But damn, look at that signal for the face. It looks different than the others. There's a negative dip about 170 milliseconds after the image comes on.
اما هنوز همهی سیگنالها شبیه هم هستند. بیایید دقیقتر نگاه کنیم. حدود صد میلیثانیه پس از نمایش تصویر، در هر چهار مورد یک برآمدگی مثبت میبینیم، و آن را پی۱۰۰ مینامیم، و آنچه ما فکر میکنیم این است که زمانی که شئای را تشخیص میدهید چنین چیزی در مغز شما اتفاق میافتد. اما لعنتی، به سیگنال چهره نگاه کنید. به نظر با بقیه تفاوت دارد. یک شیب منفی حدوداً ۱۷۰ میلیثانیهای بعد از اینکه تصویر ظاهر میشود وجود دارد.
What could be going on here? Research shows that our brain has a lot of neurons that are dedicated to recognizing human faces, so this N170 spike could be all those neurons firing at once in the same location, and we can detect that in the EEG.
اینجا چه اتفاقی میتواند در جریان باشد؟ تحقیقات نشان میدهد که مغز ما سلولهای زیادی دارد که مختص تشخیص چهره انسان هستند، پس این جهش «ان۱۷۰» میتواند تمام آن سلولهای عصبی باشد که هم زمان به یک مکان شلیک میکنند، و میتوانیم آن را در ایایجی تشخیص دهیم.
So there are two takeaways here. One, our eyes can't really detect the differences in patterns without averaging out the noise, and two, even after removing the noise, our eyes can only pick up the signals associated with faces.
بنابراین دو نکته در اینجا وجود دارد. یک، چشمان ما واقعاً نمیتوانند تفاوتهای الگوها را بدون میانگین گرفتن اغتشاشات تشخیص دهند، و دو، حتی پس از حذف اغتشاشات، چشمان ما فقط میتوانند سیگنالهای مربوط به چهرهها را برگزینند.
So this is where we turn to machine learning. Now, our eyes are not very good at picking up patterns in noisy data, but machine learning algorithms are designed to do just that, so could we take a lot of pictures and a lot of data and feed it in and train a computer to be able to interpret what Christy is looking at in real time?
بنابراین اینجاست که ما به یادگیری ماشین روی میآوریم. حالا، چشمان ما در انتخاب الگوها در دادههای پر اغتشاش چندان خوب نیستند، اما الگوریتمهای یادگیری ماشین برای انجام این کار طراحی شدهاند، بنابراین آیا میتوانیم تعداد زیادی عکس و داده بگیریم و وارد رایانه کرده و آنها را آموزش دهیم تا بتواند آنچه را که کریستی در زمان حاضر به آن نگاه میکند تفسیر کند؟
We're trying to code the information that's coming out of her EEG in real time and predict what it is that her eyes are looking at. And if it works, what we should see is every time that she gets a picture of scenery, it should say scenery, scenery, scenery, scenery. A face -- face, face, face, face, but it's not quite working that way, is what we're discovering.
ما سعی میکنیم اطلاعات ایایجی او را به صورت لحظهای رمزگذاری کنیم و پیشبینی کنیم که چشمان او به چه چیزی نگاه میکنند. و اگر کار کند، چه چیزی باید ببینیم هر بار که او عکسی از منظره میگیرد، باید بگوید منظره، منظره، منظره، منظره. یک صورت -- صورت، صورت، صورت، صورت، اما کاملاً به این شکل کار نمیکند، چیزی است که ما در حال کشف کردن هستیم.
(Laughter)
(صدای خنده)
OK.
خوب.
Director: So what's going on here? GG: We need a new career, I think.
کارگردان: خب اینجا چه خبر است؟ گِرِگ: فکر کنم ما یک حرفه جدید نیاز داریم.
(Laughter)
(صدای خنده)
OK, so that was a massive failure. But we're still curious: How far could we push this technology? And we looked back at what we did. We noticed that the data was coming into our computer very quickly, without any timing of when the images came on, and that's the equivalent of reading a very long sentence without spaces between the words. It would be hard to read, but once we add the spaces, individual words appear and it becomes a lot more understandable.
خوب، پس این یک شکست عظیم بود. اما ما هنوز کنجکاو هستیم: تا کجا میتوانیم این فناوری را پیش ببریم؟ و ما به آنچه انجام دادیم نگاه کردیم. ما متوجه شدیم که دادهها خیلی سریع وارد رایانه ما میشوند، بدون هیچ زمانبندی برای وقتی که تصاویر ظاهر شدند، و این معادل خواندن یک جمله بسیار طولانی بدون فاصله بین کلمات است. خواندن آن سخت خواهد بود، اما هنگامی که فاصله ها را اضافه میکنیم، کلمات جداگانه ظاهر می شوند و بسیار قابل درکتر میشوند.
But what if we cheat a little bit? By using a sensor, we can tell the computer when the image first appears. That way, the brainwave stops being a continuous stream of information, and instead becomes individual packets of meaning. Also, we're going to cheat a little bit more, by limiting the categories to two. Let's see if we can do some real-time mind-reading.
اما اگر کمی تقلب کنیم چه؟ با یک حسگر، میتوانیم به رایانه بگوییم که تصویر برای اولینبار چه زمانی ظاهر میشود به این ترتیب، موج مغزی دیگر یک جریان مداوم اطلاعات نیست، و در عوض تبدیل به بستههای مجزای معنیدار می شوند. همچنین، ما قصد داریم با محدود کردن دستهها به دو دسته کمی بیشتر تقلب کنیم. ببینیم آیا میتوانیم ذهنخوانی را در لحظهای انجام دهیم.
In this new experiment, we're going to constrict it a little bit more so that we know the onset of the image and we're going to limit the categories to "face" or "scenery."
در این آزمایش جدید، ما آن را کمی بیشتر محدود میکنیم به طوری که ما شروع تصویر را بدانیم و دسته بندیها را به «چهره» یا «منظره» محدود میکنیم.
Nathan: Face. Correct. Scenery. Correct.
ناتان: صورت. درست. منظره. درست.
GG: So right now, every time the image comes on, we're taking a picture of the onset of the image and decoding the EEG. It's getting correct.
گِرِگ: بنابراین در حال حاضر، هر بار که تصویر میآید، ما از شروع تصویر عکس میگیریم و نوار مغزی را رمزگشایی میکنیم. در حال درست شدن است.
Nathan: Yes. Face. Correct.
ناتان: بله. صورت. درست.
GG: So there is information in the EEG signal, which is cool. We just had to align it to the onset of the image.
گِرِگ: بنابراین اطلاعاتی در ایایجی وجود دارد که جالب است. ما فقط باید آن را با ابتدای تصویر تراز میکردیم.
Nathan: Scenery. Correct. Face. Yeah.
ناتان: منظره. درست. صورت. آره.
GG: This means there is some information there, so if we know at what time the picture came on, we can tell what type of picture it was, possibly, at least on average, by looking at these evoked potentials.
گِرِگ: به این معنی که آنجا مقداری اطلاعات وجود دارد، بنابراین اگر ما بدانیم در چه زمانی عکس ظاهر شد، احتمالاً میتوانیم حداقل به طور متوسط، با نگاه کردن به این پتانسیلهای برانگیخته بگوییم چه نوع تصویری بود.
Nathan: Exactly.
ناتان: دقیقا.
GG: If you had told me at the beginning of this project this was possible, I would have said no way. I literally did not think we could do this.
گِرِگ: اگر در شروع این پروژه به من گفته بودید که این امکانپذیر است، من میگفتم به هیچ وجه. واقعا فکر نمیکردم بتوانیم انجامش دهیم.
Did our mind-reading experiment really work? Yes, but we had to do a lot of cheating. It turns out you can find some interesting things in the EEG, for example if you're looking at someone's face, but it does have a lot of limitations. Perhaps advances in machine learning will make huge strides, and one day we will be able to decode what's going on in our thoughts. But for now, the next time a company says that they can harness your brainwaves to be able to control devices, it is your right, it is your duty to be skeptical.
آیا آزمایش ذهنخوانی ما واقعاً کار کرد؟ بله، اما مجبور شدیم زیاد تقلب کنیم. معلوم شد میتوانید چیزهای جالبی را در ایایجی پیدا کنید، برای مثال اگر به صورت کسی نگاه میکنید، اما محدودیتهای زیادی دارند. شاید پیشرفت در یادگیری ماشین گامهای بزرگی برخواهد داشت، و روزی قادر خواهیم بود آنچه را که در افکارمان میگذرد رمزگشایی کنیم. اما برای حالا، دفعه بعد که یک شرکت میگوید که آنها قادر به مهار امواج مغزی شما هستند قادر به کنترل دستگاهها، این حق شماست، این وظیفه شماست که شک داشته باشید.