Greg Gage: Mind-reading. You've seen this in sci-fi movies: machines that can read our thoughts. However, there are devices today that can read the electrical activity from our brains. We call this the EEG. Is there information contained in these brainwaves? And if so, could we train a computer to read our thoughts?
Greg Gage: Zihin okuma. Bilim kurgu filmlerinde düşüncelerimizi okuyabilen böyle makineleri gördünüz. Yine de, beyinlerimizdeki elektriksel aktiviteyi okuyabilen cihazlar günümüzde bulunuyor. Bu cihaza EEG diyoruz. Bu beyin dalgaları bilgi içeriyor mu? Öyleyse, düşüncelerimizi okuyabilmesi için bir bilgisayarı eğitebilir miyiz?
My buddy Nathan has been working to hack the EEG to build a mind-reading machine.
Arkadaşım Nathan, zihin okuma makinesi geliştirmek için EEG cihazını kandırmaya çalışıyor.
[DIY Neuroscience]
[DIY Neuroscience]
So this is how the EEG works. Inside your head is a brain, and that brain is made out of billions of neurons. Each of those neurons sends an electrical message to each other. These small messages can combine to make an electrical wave that we can detect on a monitor. Now traditionally, the EEG can tell us large-scale things, for example if you're asleep or if you're alert. But can it tell us anything else? Can it actually read our thoughts? We're going to test this, and we're not going to start with some complex thoughts. We're going to do something very simple. Can we interpret what someone is seeing using only their brainwaves?
İşte EEG böyle çalışıyor. Kafanızın içindeki beyin, milyarlarca nöron hücresinden oluşuyor. Bu nöronların her biri birbirine elektriksel mesaj gönderiyor. Ufak mesajlar elektrik dalga üretmek için birleşebiliyor, biz de bunu monitörlerle tespit edebiliyoruz. Bilindiği gibi EEG büyük çaplı şeylerle ilgili bilgi verebiliyor, örneğin uyuyakaldığınızı veya tetikte beklediğinizi. Peki başka bir şeyi gösterebilir mi? Gerçekten düşüncelerimizi okuyabilir mi? Bunu test edeceğiz ve karmaşık düşüncelerle başlamayacağız. Oldukça basit şeyler yapacağız. Bir kişinin gördüğü şeyi, yalnızca onun beyin dalgalarını kullanarak yorumlayabilir miyiz?
Nathan's going to begin by placing electrodes on Christy's head.
Nathan işe Christy'nin kafasına elektrotlar yerleştirerek başlayacak.
Nathan: My life is tangled.
Hayatım karman çorman oldu.
(Laughter)
(Gülüşmeler)
GG: And then he's going to show her a bunch of pictures from four different categories.
GG: Daha sonra ona dört farklı kategoriden birkaç tane resim gösterecek. Nathan: Yüz, ev, manzara ve tuhaf resimler.
Nathan: Face, house, scenery and weird pictures.
GG: As we show Christy hundreds of these images, we are also capturing the electrical waves onto Nathan's computer. We want to see if we can detect any visual information about the photos contained in the brainwaves, so when we're done, we're going to see if the EEG can tell us what kind of picture Christy is looking at, and if it does, each category should trigger a different brain signal.
GG: Christy'ye böyle yüzlerce resim gösterdiğimiz için ayrıca elektriksel dalgaları Nathan'ın bilgisayarında yakalıyoruz. Beyin dalgalarındaki resimler hakkında herhangi bir görsel bilgi tespit edebilmeyi görmek istiyoruz. İşimiz bittiğinde Christy'nin ne tür bir resme baktığını EEG bize gösterebilecek mi göreceğiz, eğer gösterirse her kategori farklı bir beyin sinyalini tetiklemeli.
OK, so we collected all the raw EEG data, and this is what we got. It all looks pretty messy, so let's arrange them by picture. Now, still a bit too noisy to see any differences, but if we average the EEG across all image types by aligning them to when the image first appeared, we can remove this noise, and pretty soon, we can see some dominant patterns emerge for each category.
Peki, tüm ham veriyi elde ettik, elimizde olanlar bunlar. Çok karmaşık görünüyor, onları resme göre düzenleyelim. Herhangi bir farklılık görmek için hâlâ çok gürültülü fakat tüm resim türlerini sıralayarak EEG'nin ortalamasını alırsak ilk resim belirdiğinde bu gürültüyü kaldırabiliriz ve kısa sürede her kategoride meydana gelen bazı baskın modelleri görebiliriz.
Now the signals all still look pretty similar. Let's take a closer look. About a hundred milliseconds after the image comes on, we see a positive bump in all four cases, and we call this the P100, and what we think that is is what happens in your brain when you recognize an object. But damn, look at that signal for the face. It looks different than the others. There's a negative dip about 170 milliseconds after the image comes on.
Hâlâ tüm sinyaller oldukça benzer görünüyor. Biraz daha yakından bakalım. Resim belirdiğinden yaklaşık yüz milisaniye sonra, dört vakada da yükseliş görüyoruz, buna P100 diyoruz ve bu kavramın bir objeyi fark ettiğinizde beyninizde oluşan şey olduğunu düşünüyoruz. Hay aksi, yüzün şu sinyaline bakın. Diğerlerinden farklı görünüyor. Resim belirdikten sonra, 170 milisaniye bir azalma var.
What could be going on here? Research shows that our brain has a lot of neurons that are dedicated to recognizing human faces, so this N170 spike could be all those neurons firing at once in the same location, and we can detect that in the EEG.
Orada neler olabilir? Araştırma gösteriyor ki beynimizin insan yüzlerini tanımaya atanmış pek çok nöronu var, bu yüzden N170’deki ani yükselişte, bütün bu nöronlar aynı anda ve aynı konumda ateşlenmiş olabilir ve bunu EEG ile tespit edebiliyoruz.
So there are two takeaways here. One, our eyes can't really detect the differences in patterns without averaging out the noise, and two, even after removing the noise, our eyes can only pick up the signals associated with faces.
Yani, burada iki ana fikir var. İlki, gözlerimiz modellerdeki farklılıkları, gürültünün ortalamasına ulaşmadan kesin olarak tespit edemez. İkincisi, gürültüyü çıkardıktan sonra bile gözlerimiz sadece yüzlerle ilintili olan sinyalleri algılar.
So this is where we turn to machine learning. Now, our eyes are not very good at picking up patterns in noisy data, but machine learning algorithms are designed to do just that, so could we take a lot of pictures and a lot of data and feed it in and train a computer to be able to interpret what Christy is looking at in real time?
Burası makine öğrenimine döndüğümüz yerdir. Gözlerimiz, gürültülü bir verideki modelleri algılamakta pek iyi değil fakat makine öğrenimi algoritmaları bunu yapmak için tasarlanır. Bu yüzden, Christy'nin gerçek zamanda neye baktığını yorumlayabilmek için birçok resim ile veriyi alıp girişini yapıp bir bilgisayarı eğitebilir miyiz?
We're trying to code the information that's coming out of her EEG in real time and predict what it is that her eyes are looking at. And if it works, what we should see is every time that she gets a picture of scenery, it should say scenery, scenery, scenery, scenery. A face -- face, face, face, face, but it's not quite working that way, is what we're discovering.
Christy'ye bağlı EEG cihazından gerçek zamanlı gelen bilgiyi kodlamaya çalışıyoruz ve gözlerinin gerçekte neye baktığını tahmin etmeye çalışıyoruz. Eğer bu işe yararsa görmemiz gereken şey, Christy'nin manzara resmini her gördüğünde buranın manzara, manzara, manzara, manzara demesi. Bir yüz -- yüz, yüz, yüz, yüz. Fakat aslında böyle çalışmıyor, bu bizim keşfettiğimiz şey.
(Laughter)
(Gülüşmeler)
OK.
Tamam.
Director: So what's going on here? GG: We need a new career, I think.
Yönetmen: Nasıl gidiyor? GG: Sanırım bize yeni bir iş gerekecek.
(Laughter)
(Gülüşmeler)
OK, so that was a massive failure. But we're still curious: How far could we push this technology? And we looked back at what we did. We noticed that the data was coming into our computer very quickly, without any timing of when the images came on, and that's the equivalent of reading a very long sentence without spaces between the words. It would be hard to read, but once we add the spaces, individual words appear and it becomes a lot more understandable.
Peki, bu büyük bir başarısızlıktı. Fakat şunu hâlâ merak ediyoruz: Bu teknolojiyi nereye kadar yürütebiliriz? Yaptığımız işe geri dönüp baktık. Şunu fark ettik: Veri bilgisayarımıza çok hızlı geliyordu, resimlerin ne zaman geleceğine dair bir zamanlama yoktu ve bu sözcüklerin arasında boşluk olmayan çok uzun bir cümleyi okumakla eşdeğer. Bunu okumak zor olurdu fakat boşlukları eklediğimizde tekil sözcükler beliriyor ve o zaman çok daha anlaşılır oluyor.
But what if we cheat a little bit? By using a sensor, we can tell the computer when the image first appears. That way, the brainwave stops being a continuous stream of information, and instead becomes individual packets of meaning. Also, we're going to cheat a little bit more, by limiting the categories to two. Let's see if we can do some real-time mind-reading.
Fakat ya biraz hile yaparsak? Bir sensör kullanarak, ilk resmin ne zaman belireceğini bilgisayara gösterebiliriz. Böylece, beyin dalgaları kesintisiz bilgi dizisi üretmeyi durdurur ve onun yerine, anlamlı tekil paketler oluşturur. Ayrıca kategorileri ikiyle sınırlayarak biraz daha hile yapacağız. Bakalım gerçek zamanlı zihin okuma yapabilecek miyiz?
In this new experiment, we're going to constrict it a little bit more so that we know the onset of the image and we're going to limit the categories to "face" or "scenery."
Bu yeni deneyde, biraz daha daraltacağız, böylece resmin ilk hamlesini öğrenip kategorileri "yüz" ve "manzara" olarak ikiyle sınırlandıracağız.
Nathan: Face. Correct. Scenery. Correct.
Nathan: Yüz. Doğru. Manzara. Doğru.
GG: So right now, every time the image comes on, we're taking a picture of the onset of the image and decoding the EEG. It's getting correct.
GG: Şimdiyse, resim her belirdiğinde resmin ilk hamlesinin fotoğrafını çekip EEG cihazının kodunu çözüyoruz. Doğru çıkıyor.
Nathan: Yes. Face. Correct.
Nathan: Evet. Yüz. Doğru.
GG: So there is information in the EEG signal, which is cool. We just had to align it to the onset of the image.
GG: EEG sinyalinde bilgi var, bu iyi. Bunu sadece resmin ilk hamlesiyle hizalamak zorundaydık.
Nathan: Scenery. Correct. Face. Yeah.
Nathan: Manzara. Doğru. Yüz. Evet.
GG: This means there is some information there, so if we know at what time the picture came on, we can tell what type of picture it was, possibly, at least on average, by looking at these evoked potentials.
GG: Bu, burada bir bilgi olması demek. Resmin ne zaman belireceğini bilirsek o resmin ne tür bir resim olduğunu, tepkisel potansiyellere bakıp en azından ortalama olarak muhtemelen söyleyebiliriz.
Nathan: Exactly.
Nathan: Kesinlikle.
GG: If you had told me at the beginning of this project this was possible, I would have said no way. I literally did not think we could do this.
GG: Bunun mümkün olduğunu projenin başında bana söylemiş olsaydın imkanı yok derdim. Bunu yapabileceğimizi gerçekten düşünmemiştim.
Did our mind-reading experiment really work? Yes, but we had to do a lot of cheating. It turns out you can find some interesting things in the EEG, for example if you're looking at someone's face, but it does have a lot of limitations. Perhaps advances in machine learning will make huge strides, and one day we will be able to decode what's going on in our thoughts. But for now, the next time a company says that they can harness your brainwaves to be able to control devices, it is your right, it is your duty to be skeptical.
Zihin okuma deneyimiz gerçekten işe yarıyor mu? Evet ama çok fazla hile yapmak zorundaydık. EEG cihazında bazı ilginç şeyler bulabileceğiniz ortaya çıkıyor. Örneğin, siz birinin yüzüne bakarken birçok sınırlamanın olması. Belki makine öğrenimindeki gelişmeler muazzam çözümler bulacak ve bir gün, düşüncelerimizde neler olduğunun şifresini çözebileceğiz. Fakat şu an için, bir firma, cihazları kumanda etmek amacıyla beyin dalgalarınızı denetim altına alabileceklerini söylerse şüpheci yaklaşmak sizin hakkınız ve sorumluluğunuz.