Greg Gage: Mind-reading. You've seen this in sci-fi movies: machines that can read our thoughts. However, there are devices today that can read the electrical activity from our brains. We call this the EEG. Is there information contained in these brainwaves? And if so, could we train a computer to read our thoughts?
Greg Gage: Đọc suy nghĩ. Trong các bộ phim viễn tưởng, các cỗ máy có thể đọc được suy nghĩ. Thế nhưng ngày nay, có các thiết bị có thể đọc tính hiệu điện từ não chúng ta. Đó là điện não đồ - EEG. Liệu có thông tin gì ẩn sau các sóng điện não? Nếu có, liệu ta có thể tạo ra máy tính để đọc suy nghĩ không?
My buddy Nathan has been working to hack the EEG to build a mind-reading machine.
Bạn tôi Nathan đã tìm hiểu về điện não đồ để tạo ra cỗ máy đọc được suy nghĩ.
[DIY Neuroscience]
[DIY Khoa học thần kinh]
So this is how the EEG works. Inside your head is a brain, and that brain is made out of billions of neurons. Each of those neurons sends an electrical message to each other. These small messages can combine to make an electrical wave that we can detect on a monitor. Now traditionally, the EEG can tell us large-scale things, for example if you're asleep or if you're alert. But can it tell us anything else? Can it actually read our thoughts? We're going to test this, and we're not going to start with some complex thoughts. We're going to do something very simple. Can we interpret what someone is seeing using only their brainwaves?
Đây là cách điện não hoạt động. Trong đầu bạn là một bộ não, cấu thành từ hàng tỉ neuron (tế bào thần kinh) Mỗi neuron trao đổi các tín hiệu điện với nhau. Những tín hiệu này có thể hợp thành một sóng điện từ mà ta phát hiện được qua máy theo dõi. Thông thường, điện não cho ta biết về trạng thái chung, ví dụ như việc bạn đang ngủ hay thức. Nhưng liệu nó còn cho ta biết gì khác? Liệu chúng có thể đọc được suy nghĩ? Chúng tôi sẽ thử điều này, chúng tôi không bắt đầu với các suy nghĩ phức tạp. Chúng tôi bắt đầu với vài thứ đơn giản. Liệu ta có thể biết ai đó đang thấy gì dựa vào sóng điện não?
Nathan's going to begin by placing electrodes on Christy's head.
Nathan sẽ bắt đầu bằng việc gắn các điện cực lên đầu Christy.
Nathan: My life is tangled.
Nathan: Đời tôi rối bời.
(Laughter)
(Cười)
GG: And then he's going to show her a bunch of pictures from four different categories.
GG: Sau đó anh sẽ cho cô ấy xem một mớ hình ảnh từ bốn nhóm khác nhau.
Nathan: Face, house, scenery and weird pictures.
Nathan: Khuôn mặt, nhà, phong cảnh và ảnh kì lạ.
GG: As we show Christy hundreds of these images, we are also capturing the electrical waves onto Nathan's computer. We want to see if we can detect any visual information about the photos contained in the brainwaves, so when we're done, we're going to see if the EEG can tell us what kind of picture Christy is looking at, and if it does, each category should trigger a different brain signal.
GG: Khi chúng tôi cho Christy xem qua hàng trăm ảnh, chúng tôi cũng lưu lại sóng điện não vào máy tính của Nathan. Chúng tôi muốn biết liệu có thể nhận ra thông tin gì về các bức ảnh, ẩn chứa trong sóng não, thế nên khi xong việc, tôi sẽ xem liệu điện não có thể cho ta biết Christy đang xem loại ảnh nào, và nếu được, mỗi loại ảnh sẽ kích hoạt một dạng sóng não khác nhau.
OK, so we collected all the raw EEG data, and this is what we got. It all looks pretty messy, so let's arrange them by picture. Now, still a bit too noisy to see any differences, but if we average the EEG across all image types by aligning them to when the image first appeared, we can remove this noise, and pretty soon, we can see some dominant patterns emerge for each category.
Xong, bọn tôi đã thu thập tất cả dữ liệu thô về sóng não, và đây là thành quả. Nhìn có vẻ khá bừa bộn, vậy ta hãy sắp xếp chúng theo loại ảnh Giờ nhìn vẫn hơi lộn xộn để thấy bất kì khác biệt nào, nhưng nếu ta trung bình hóa sóng não từ tất cả loại ảnh bằng cách xếp chúng theo thời gian mà ảnh xuất hiện ta có thể loại bỏ tín hiệu nhiễu, và sớm thôi, ta có thể thấy vài khuôn mẫu nổi bật hiện ra từ mỗi loại ảnh.
Now the signals all still look pretty similar. Let's take a closer look. About a hundred milliseconds after the image comes on, we see a positive bump in all four cases, and we call this the P100, and what we think that is is what happens in your brain when you recognize an object. But damn, look at that signal for the face. It looks different than the others. There's a negative dip about 170 milliseconds after the image comes on.
Giờ tất cả tín hiệu nhìn khá giống nhau. Hãy nhìn kĩ hơn nhé. Khoảng một trăm mili-giây sau khi ảnh xuất hiện, ta thấy một đỉnh dương trong cả bốn nhóm, chúng tôi gọi nó là P100 và nghĩ đây là điều xảy ra khi não bạn nhận ra một vật thể. Nhưng trời ơi, xem tín hiệu nhóm khuôn mặt kìa. Nó khác biệt với phần còn lại. Có một lõm sâu lúc 170 mili-giây sau khi ảnh xuất hiện.
What could be going on here? Research shows that our brain has a lot of neurons that are dedicated to recognizing human faces, so this N170 spike could be all those neurons firing at once in the same location, and we can detect that in the EEG.
Điều gì có thể xảy ra nhỉ? Nghiên cứu cho thấy não bộ có nhiều neuron chuyên biệt để nhận biết khuôn mặt người, thế nên lõm N170 này có thể do nhóm neuron đó cùng phát tín hiệu, và ta phát hiện được trên điện não.
So there are two takeaways here. One, our eyes can't really detect the differences in patterns without averaging out the noise, and two, even after removing the noise, our eyes can only pick up the signals associated with faces.
Vậy có hai bài học ở đây. Một, mắt thường không phát hiện bất thường trong khuôn mẫu nào mà không trung bình hóa sự nhiễu, và hai, thậm chí sau khi loại bỏ nhiễu, mắt thường chỉ có thể nhận ra tín hiệu liên quan đến khuôn mặt.
So this is where we turn to machine learning. Now, our eyes are not very good at picking up patterns in noisy data, but machine learning algorithms are designed to do just that, so could we take a lot of pictures and a lot of data and feed it in and train a computer to be able to interpret what Christy is looking at in real time?
Đây là lúc chúng tôi nhờ đến Học máy. Mắt thường không giỏi trong việc nhận ra bất thường trong dữ liệu nhiễu, nhưng thuật toán học máy được thiết kế để làm điều đó, nên ta có thể lấy thật nhiều ảnh và thật nhiều dữ liệu cho vào máy tính và dạy nó để có thể diễn giải điều Christy đang thấy trong thời gian thực.
We're trying to code the information that's coming out of her EEG in real time and predict what it is that her eyes are looking at. And if it works, what we should see is every time that she gets a picture of scenery, it should say scenery, scenery, scenery, scenery. A face -- face, face, face, face, but it's not quite working that way, is what we're discovering.
Bọn tôi đang cố gắng mã hóa thông tin trích xuất từ điện não trong thời gian thực và dự đoán xem cô ấy đang nhìn thấy gì. Và nếu thành công, ta có thể thấy mỗi lần cô ấy thấy hình phong cảnh nó sẽ trả lời phong cảnh, phong cảnh. Khuôn mặt -- khuôn mặt, khuôn mặt, Nhưng nó không hoạt động được vậy, đó là điều bọn tôi đang thấy.
(Laughter)
(Cười)
OK.
Được rồi.
Director: So what's going on here? GG: We need a new career, I think.
Đạo diễn: Điều gì đang diễn ra vậy? GG: Tôi nghĩ mình phải kiếm việc mới.
(Laughter)
(Cười)
OK, so that was a massive failure. But we're still curious: How far could we push this technology? And we looked back at what we did. We noticed that the data was coming into our computer very quickly, without any timing of when the images came on, and that's the equivalent of reading a very long sentence without spaces between the words. It would be hard to read, but once we add the spaces, individual words appear and it becomes a lot more understandable.
Vâng đó là một thất bại thảm hại. Nhưng chúng tôi vẫn tò mò liệu ta có thể đưa công nghệ này đến đâu? Nhìn lại những gì đã làm, Chúng tôi nhận ra dữ liệu đi vào máy tính rất nhanh, mà không có thời gian ảnh xuất hiện, và nó giống như việc đọc một câu dài mà thiếu khoảng trắng giữa các từ. Sẽ khó mà đọc được, nhưng khi ta thêm khoảng trắng vào, từng từ hiện rõ và ta dễ hiểu được cả câu hơn.
But what if we cheat a little bit? By using a sensor, we can tell the computer when the image first appears. That way, the brainwave stops being a continuous stream of information, and instead becomes individual packets of meaning. Also, we're going to cheat a little bit more, by limiting the categories to two. Let's see if we can do some real-time mind-reading.
Nhưng nếu ta ăn gian một tí thì sao? Bằng cách dùng cảm biến, ta giúp máy tính biết khi nào ảnh hiện lên. Qua đó, sóng não không còn là một dòng thông tin liên tục, mà trở thành từng gói thông tin mang ý nghĩa riêng. Đồng thời, bọn tôi gian lận hơn chút nữa, bằng cách giới hạn còn 2 nhóm thôi. Thử đọc suy nghĩ trong thời gian thực xem nào.
In this new experiment, we're going to constrict it a little bit more so that we know the onset of the image and we're going to limit the categories to "face" or "scenery."
Trong thí nghiệm mới này, ta sẽ giới hạn lại thêm chút nữa để biết thời điểm bắt đầu của ảnh và ta sẽ giới hạn còn hai nhóm: “khuôn mặt” và “phong cảnh”.
Nathan: Face. Correct. Scenery. Correct.
Nathan: Khuôn mặt. Chính xác. Phong cảnh. Chính xác.
GG: So right now, every time the image comes on, we're taking a picture of the onset of the image and decoding the EEG. It's getting correct.
GG: Bây giờ, mỗi khi ảnh xuất hiện, ta sẽ lấy thời điểm ảnh xuất hiện và giải mã sóng não. Nó đang cho kết quả tốt.
Nathan: Yes. Face. Correct.
Nathan: Vâng. Khuôn mặt. Chính xác.
GG: So there is information in the EEG signal, which is cool. We just had to align it to the onset of the image.
GG: Vậy là có thông tin trong điện não, khá là hay đấy. Ta chỉ phải xếp chúng đúng thời điểm ảnh xuất hiện.
Nathan: Scenery. Correct. Face. Yeah.
Nathan: Phong cảnh. Chính xác. Khuôn mặt. Đúng rồi.
GG: This means there is some information there, so if we know at what time the picture came on, we can tell what type of picture it was, possibly, at least on average, by looking at these evoked potentials.
GG: Điều này nghĩa là có vài thông tin ở đây, nếu ta biết thời điểm ảnh xuất hiện, ta có thể biết loại ảnh mà cô ấy thấy, ít ra là trung bình, dựa trên những tiềm năng này.
Nathan: Exactly.
Nathan: Chính xác.
GG: If you had told me at the beginning of this project this was possible, I would have said no way. I literally did not think we could do this.
GG: Nếu từ đầu bạn nói với tôi điều này là khả dĩ, tôi sẽ chẳng tin đâu. Thật sự tôi đã chẳng tin chúng tôi có thể làm được.
Did our mind-reading experiment really work? Yes, but we had to do a lot of cheating. It turns out you can find some interesting things in the EEG, for example if you're looking at someone's face, but it does have a lot of limitations. Perhaps advances in machine learning will make huge strides, and one day we will be able to decode what's going on in our thoughts. But for now, the next time a company says that they can harness your brainwaves to be able to control devices, it is your right, it is your duty to be skeptical.
Vậy thí nghiệm đọc suy nghĩ này thành công chứ? Có đó. Nhưng bọn tôi đã ăn gian khá nhiều. Hóa ra bạn thể thấy nhiều điều thú vị từ điện não, ví dụ như việc bạn đang thấy khuôn mặt ai đó, nhưng nó cũng còn nhiều giới hạn. Có lẽ các tiến bộ trong học máy sẽ tạo nên các bước tiến lớn, ngày nào đó, ta có thể giải mã được những gì đang xảy ra trong suy nghĩ. Nhưng hiện tại, nếu công ty nào đó nói họ có thể khai thác sóng não của bạn để điều khiển các thiết bị, bạn có quyền và nghĩa vụ nghi ngờ điều đó.