Greg Gage: Mind-reading. You've seen this in sci-fi movies: machines that can read our thoughts. However, there are devices today that can read the electrical activity from our brains. We call this the EEG. Is there information contained in these brainwaves? And if so, could we train a computer to read our thoughts?
Membaca pikiran. Anda melihatnya di film sci-fi: mesin yang dapat membaca pikiran kita. Namun, saat ini, ada alat yang dapat membaca aktivitas listrik otak kita. Kita menyebut alat itu EEG. Apakah ada informasi dalam gelombang otak ini? Jika ada, apakah kita bisa melatih komputer membaca pikiran?
My buddy Nathan has been working to hack the EEG to build a mind-reading machine.
Rekan saya Nathan sedang mencoba meretas mesin EEG untuk membuat mesin pembaca pikiran.
[DIY Neuroscience]
[DIY Neurosains]
So this is how the EEG works. Inside your head is a brain, and that brain is made out of billions of neurons. Each of those neurons sends an electrical message to each other. These small messages can combine to make an electrical wave that we can detect on a monitor. Now traditionally, the EEG can tell us large-scale things, for example if you're asleep or if you're alert. But can it tell us anything else? Can it actually read our thoughts? We're going to test this, and we're not going to start with some complex thoughts. We're going to do something very simple. Can we interpret what someone is seeing using only their brainwaves?
Beginilah cara kerja EEG. Terdapat otak di kepala Anda, dan otak tersebut terdiri dari milyaran neuron. Masing-masing neuron saling mengirimkan pesan elektrik. Pesan kecil ini dapat digabungkan menjadi gelombang elektrik yang kita deteksi di layar. Pada prinsipnya, EEG dapat menunjukkan hal-hal berskala besar, misalnya saat Anda sedang tidur atau terjaga. Bisakah ia menunjukkan hal lain? Apakah ia sungguh membaca pikiran? Kita akan mengujinya, dan kita tidak akan mulai dari ide-ide rumit. Namun dari yang sederhana. Dapatkah kita menafsir penglihatan orang hanya dari gelombang otaknya?
Nathan's going to begin by placing electrodes on Christy's head.
Nathan memulai dengan menempelkan elektroda ke kepala Christy.
Nathan: My life is tangled.
Nathan: Hidupku rasanya kusut.
(Laughter)
(tertawa)
GG: And then he's going to show her a bunch of pictures from four different categories.
Greg Gage: Dia akan memperlihatkan Christy gambar dari empat kategori berbeda.
Nathan: Face, house, scenery and weird pictures.
Nathan: wajah, rumah, pemandangan, dan gambar aneh.
GG: As we show Christy hundreds of these images, we are also capturing the electrical waves onto Nathan's computer. We want to see if we can detect any visual information about the photos contained in the brainwaves, so when we're done, we're going to see if the EEG can tell us what kind of picture Christy is looking at, and if it does, each category should trigger a different brain signal.
GG: Saat kami menunjukkan Christy ratusan gambar tadi, kami juga menangkap gelombang elektrik ke komputer Nathan. Kami ingin mendeteksi adanya informasi visual foto tersebut yang dikandung gelombang otak, jadi saat selesai, kami akan melihat apakah EEG dapat memberi tahu jenis gambar apa yang Christy lihat, dan jika terjadi, tiap kategori seharusnya memicu sinyal otak yang berbeda.
OK, so we collected all the raw EEG data, and this is what we got. It all looks pretty messy, so let's arrange them by picture. Now, still a bit too noisy to see any differences, but if we average the EEG across all image types by aligning them to when the image first appeared, we can remove this noise, and pretty soon, we can see some dominant patterns emerge for each category.
OK, setelah kami mengumpulkan semua data mentah EEG, inilah hasilnya. Ini terlihat berantakan. Mari kita susun berdasarkan gambar. Nah, ini masih terlihat riuh untuk mencari perbedaannya, tetapi jika kita merata-rata EEG di semua jenis gambar dengan menyelaraskannya saat gambar muncul, kita bisa menghilangkan derau ini dan nantinya, kita bisa melihat pola dominan muncul dari tiap kategori.
Now the signals all still look pretty similar. Let's take a closer look. About a hundred milliseconds after the image comes on, we see a positive bump in all four cases, and we call this the P100, and what we think that is is what happens in your brain when you recognize an object. But damn, look at that signal for the face. It looks different than the others. There's a negative dip about 170 milliseconds after the image comes on.
Sekarang, semua sinyal masih sangat mirip. Mari kita cermati. Sekitar seratus milidetik setelah gambar muncul, kami melihat lonjakan positif dalam keempat kasus, dan kami menyebutnya P100, dan kami berpendapat inilah yang terjadi di otak Anda saat mengenali sebuah benda. Tapi astaga, coba lihat sinyal wajah. Terlihat berbeda dari yang lain. Ada penurunan negatif sekitar 170 milidetik setelah gambarnya muncul.
What could be going on here? Research shows that our brain has a lot of neurons that are dedicated to recognizing human faces, so this N170 spike could be all those neurons firing at once in the same location, and we can detect that in the EEG.
Apa penyebab terjadinya hal ini? Penelitian menunjukkan otak kita punya banyak neuron yang bertugas mengenali wajah manusia, jadi lonjakan N170 ini bisa jadi karena neuron-neuron itu bekerja sekaligus di posisi yang sama, dan kita bisa mendeteksinya di EEG.
So there are two takeaways here. One, our eyes can't really detect the differences in patterns without averaging out the noise, and two, even after removing the noise, our eyes can only pick up the signals associated with faces.
Sekarang ada dua kesimpulan. Satu, mata kita tak bisa benar-benar mendeteksi perbedaan pola tanpa merata-ratakan deraunya, dan dua, bahkan setelah menghilangkan deraunya, mata kita hanya bisa menangkap sinyal yang terkait wajah.
So this is where we turn to machine learning. Now, our eyes are not very good at picking up patterns in noisy data, but machine learning algorithms are designed to do just that, so could we take a lot of pictures and a lot of data and feed it in and train a computer to be able to interpret what Christy is looking at in real time?
Di sinilah kita beralih ke machine learning. Mata kita tidak terampil dalam menemukan pola pada derau data, namun algoritma machine learning dirancang melakukan hal itu, jadi bisakah kita mengambil berbagai foto dan gambar lalu mengumpankannya dan melatih komputer agar dapat menafsirkan apa yang Christy lihat di saat yang sama?
We're trying to code the information that's coming out of her EEG in real time and predict what it is that her eyes are looking at. And if it works, what we should see is every time that she gets a picture of scenery, it should say scenery, scenery, scenery, scenery. A face -- face, face, face, face, but it's not quite working that way, is what we're discovering.
Kami mencoba untuk mengkode informasi yang keluar dari EEG-nya di saat yang sama dan memperkirakan apa yang dilihatnya. Jika berhasil, yang perlu dilihat adalah tiap kali dia mendapat gambar pemandangan, mesinnya harus menyebut pemandangan, pemandangan. Wajah -- wajah, wajah, wajah, wajah, tetapi yang kita temukan justru tidak bekerja seperti itu.
(Laughter)
(tertawa)
OK.
OK.
Director: So what's going on here? GG: We need a new career, I think.
Sutradara: Ada apa? GG: Kurasa kita perlu pekerjaan baru.
(Laughter)
(tertawa)
OK, so that was a massive failure. But we're still curious: How far could we push this technology? And we looked back at what we did. We noticed that the data was coming into our computer very quickly, without any timing of when the images came on, and that's the equivalent of reading a very long sentence without spaces between the words. It would be hard to read, but once we add the spaces, individual words appear and it becomes a lot more understandable.
OK, ternyata yang tadi gagal besar. Tapi kami masih penasaran: Seberapa jauh kita bisa dorong teknologi ini? Kami meninjau ulang usaha kami. Kami sadar bahwa data masuk dengan sangat cepat ke komputer kami, tanpa adanya rentang kapan gambar itu muncul, dan itu seperti membaca kalimat yang sangat panjang tanpa spasi pada kata-katanya. Ini akan sulit dibaca, namun jika kita tambahkan spasi, kata individual akan muncul dan kalimat menjadi mudah dipahami.
But what if we cheat a little bit? By using a sensor, we can tell the computer when the image first appears. That way, the brainwave stops being a continuous stream of information, and instead becomes individual packets of meaning. Also, we're going to cheat a little bit more, by limiting the categories to two. Let's see if we can do some real-time mind-reading.
Namun bagaimana jika kita mengakalinya? Dengan sensor, kita bisa melihat saat gambar muncul di komputer. Dengan begitu, gelombang otak berhenti menjadi aliran informasi tanpa henti, dan sebagai gantinya, menjadi kumpulan makna individual. Kita juga akan sedikit mengakalinya, dengan membatasi kategori jadi dua. Lihat jika kita bisa membaca pikiran langsung.
In this new experiment, we're going to constrict it a little bit more so that we know the onset of the image and we're going to limit the categories to "face" or "scenery."
Dalam percobaan baru ini, kami akan sedikit menyempitkannya sehingga kita tahu permulaan gambarnya dan kita akan membatasi kategori ke “wajah” atau “pemandangan.”
Nathan: Face. Correct. Scenery. Correct.
Nathan: Wajah. Benar. Pemandangan. Benar.
GG: So right now, every time the image comes on, we're taking a picture of the onset of the image and decoding the EEG. It's getting correct.
GG: Nah sekarang, tiap kali ada gambar muncul, kita akan memotret awal gambar dan menguraikan EEG-nya. Mesinnya mulai benar.
Nathan: Yes. Face. Correct.
Nathan: Ya. Wajah. Benar.
GG: So there is information in the EEG signal, which is cool. We just had to align it to the onset of the image.
GGL: Jadi ada informasi di sinyal EEG. Keren sekali. Kita hanya harus menyelaraskannya dengan awal gambar.
Nathan: Scenery. Correct. Face. Yeah.
Nathan: Pemandangan. Benar. Wajah. Oke.
GG: This means there is some information there, so if we know at what time the picture came on, we can tell what type of picture it was, possibly, at least on average, by looking at these evoked potentials.
GG: Artinya ada informasi di balik itu, yang berarti jika kita tahu kapan gambar akan muncul, kita bisa tahu apa kategori gambar itu, mungkin, setidaknya secara umum, dengan melihat potensi yang timbul.
Nathan: Exactly.
Nathan: Tepat sekali.
GG: If you had told me at the beginning of this project this was possible, I would have said no way. I literally did not think we could do this.
GG: Andai kau bilang di awal proyek, ini mungkin terjadi, Aku akan bilang mustahil. Aku tak mengira kita akan berhasil.
Did our mind-reading experiment really work? Yes, but we had to do a lot of cheating. It turns out you can find some interesting things in the EEG, for example if you're looking at someone's face, but it does have a lot of limitations. Perhaps advances in machine learning will make huge strides, and one day we will be able to decode what's going on in our thoughts. But for now, the next time a company says that they can harness your brainwaves to be able to control devices, it is your right, it is your duty to be skeptical.
Apakah kami berhasil membaca pikiran? Ya, tapi kami terpaksa curang. Ternyata Anda bisa menemukan hal-hal menarik dari EEG, misalnya saat Anda melihat wajah orang, namun masih ada berbagai keterbatasan. Mungkin kemajuan machine learning akan membuat langkah besar, dan nantinya, kita dapat menguraikan isi pikiran kita. Tapi untuk saat ini, jika ada perusahaan yang mengklaim memanfaatkan gelombang otak untuk mengendalikan perangkat, Anda berhak meragukannya.