Greg Gage: Mind-reading. You've seen this in sci-fi movies: machines that can read our thoughts. However, there are devices today that can read the electrical activity from our brains. We call this the EEG. Is there information contained in these brainwaves? And if so, could we train a computer to read our thoughts?
Greg Gage: La lectura del pensamiento. Se ve en películas de ciencia ficción, las máquinas que nos leen la mente. Pero existen aparatos hoy que pueden leer la actividad eléctrica del cerebro. Lo llamamos el EEG. ¿Hay información contenida en estas ondas cerebrales? ¿Podríamos programar una computadora para leer los pensamientos?
My buddy Nathan has been working to hack the EEG to build a mind-reading machine.
Mi amigo Nathan está intentando hackear el EEG para construir una máquina que pueda leer la mente.
[DIY Neuroscience]
[Neurociencia casera]
So this is how the EEG works. Inside your head is a brain, and that brain is made out of billions of neurons. Each of those neurons sends an electrical message to each other. These small messages can combine to make an electrical wave that we can detect on a monitor. Now traditionally, the EEG can tell us large-scale things, for example if you're asleep or if you're alert. But can it tell us anything else? Can it actually read our thoughts? We're going to test this, and we're not going to start with some complex thoughts. We're going to do something very simple. Can we interpret what someone is seeing using only their brainwaves?
Así funciona el EEG: dentro de la cabeza está el cerebro, y el cerebro se compone de miles de millones de neuronas. Cada neurona transmite un mensaje eléctrico la una a la otra. Estos pequeños mensajes pueden combinarse para formar una onda eléctrica que se detecta en un monitor. Tradicionalmente, el EEG nos puede decir cosas generales, por ejemplo, si uno está dormido o despierto. Pero ¿nos puede decir algo más? ¿Puede realmente leer los pensamientos? Lo vamos a comprobar. No empezaremos con pensamientos complejos; haremos algo muy sencillo. ¿Podemos interpretar lo que alguien ve utilizando solo sus ondas cerebrales? Nathan empezará por pegar electrodos en la cabeza de Christy.
Nathan's going to begin by placing electrodes on Christy's head.
Nathan: Mi vida está enredada.
Nathan: My life is tangled.
(Laughter)
(Risas)
GG: And then he's going to show her a bunch of pictures from four different categories.
GG: Luego le mostrará una serie de imágenes de cuatro categorías diferentes.
Nathan: Face, house, scenery and weird pictures.
Nathan: Una cara, una casa, un paisaje e imágenes raras.
GG: As we show Christy hundreds of these images, we are also capturing the electrical waves onto Nathan's computer. We want to see if we can detect any visual information about the photos contained in the brainwaves, so when we're done, we're going to see if the EEG can tell us what kind of picture Christy is looking at, and if it does, each category should trigger a different brain signal.
GG: Mientras le mostramos a Christy centenares de estas imágenes, se están registrando las ondas eléctricas en la computadora de Nathan. Queremos ver si podemos detectar información visual sobre las fotos contenida en las ondas cerebrales, así que al terminar, sabremos si el EEG nos puede decir qué tipo de imagen Christy está mirando. Y si este es el caso,
OK, so we collected all the raw EEG data, and this is what we got. It all looks pretty messy, so let's arrange them by picture. Now, still a bit too noisy to see any differences, but if we average the EEG across all image types by aligning them to when the image first appeared, we can remove this noise, and pretty soon, we can see some dominant patterns emerge for each category.
cada categoría debe desencadenar una señal diferente del cerebro. Bien, recolectamos todos los datos sin procesar del EEG, y estos son los resultados. Se ven bastante desorganizados, entonces ordenémoslos por imagen. Aún está demasiado caótico para ver alguna diferencia, pero si igualamos el EEG entre todos los tipos de imágenes y las alineamos según el momento en que la imagen apareció podemos normalizar el caos, y dentro de poco, vemos que unas tendencias principales emergen para cada categoría.
Now the signals all still look pretty similar. Let's take a closer look. About a hundred milliseconds after the image comes on, we see a positive bump in all four cases, and we call this the P100, and what we think that is is what happens in your brain when you recognize an object. But damn, look at that signal for the face. It looks different than the others. There's a negative dip about 170 milliseconds after the image comes on.
Las señales todavía se ven bastante similares. Mirémoslas más de cerca. Como a cien milisegundos después de que sale la imagen, vemos un aumento positivo en cada uno de los cuarto casos. Lo llamamos el P100, y creemos que eso es lo que pasa en el cerebro cuando reconoces un objeto. Pero ¡guau!, mira la señal para la cara. Parece diferente de las otras. Hay una baja a unos 170 milisegundos después de que sale la imagen.
What could be going on here? Research shows that our brain has a lot of neurons that are dedicated to recognizing human faces, so this N170 spike could be all those neurons firing at once in the same location, and we can detect that in the EEG.
¿Qué estará pasando aquí? Los estudios demuestran que el cerebro tiene muchas neuronas dedicadas al reconocimiento de caras humanas. Entonces esta caída de N170 podrían ser todas esas neuronas que se activan a la vez en el mismo sitio, Y podemos detectarlo en el EEG.
So there are two takeaways here. One, our eyes can't really detect the differences in patterns without averaging out the noise, and two, even after removing the noise, our eyes can only pick up the signals associated with faces.
Hay dos puntos claves aquí. Uno: los ojos no pueden detectar diferencias en los patrones sin que se iguale el ruido. Y dos: aun después de que se elimina el ruido, los ojos solo pueden detectar las señales asociadas con las caras.
So this is where we turn to machine learning. Now, our eyes are not very good at picking up patterns in noisy data, but machine learning algorithms are designed to do just that, so could we take a lot of pictures and a lot of data and feed it in and train a computer to be able to interpret what Christy is looking at in real time?
Entonces, recurrimos al aprendizaje automático. Los ojos no son muy buenos para identificar patrones entre datos caóticos, pero los algoritmos de aprendizaje automático están precisamente para eso. Entonces, ¿podríamos tomar muchas imágenes y datos y entrarlos a una computadora para programarla a interpretar lo que Christy está viendo en tiempo real?
We're trying to code the information that's coming out of her EEG in real time and predict what it is that her eyes are looking at. And if it works, what we should see is every time that she gets a picture of scenery, it should say scenery, scenery, scenery, scenery. A face -- face, face, face, face, but it's not quite working that way, is what we're discovering.
Tratamos de escribir la información que sale de su EEG en tiempo real, y predecir lo que sus ojos están viendo. Y si funciona, entonces cada vez que le toca una imagen del paisaje, debe decir: paisaje, paisaje, paisaje, paisaje. Y cuando es una cara: cara, cara, cara, cara. Pero no está funcionando exactamente así, aparentemente.
(Laughter)
(Risas)
OK.
Muy bien.
Director: So what's going on here? GG: We need a new career, I think.
Christy: ¿Qué está pasando aquí?
(Laughter)
GG: Necesitamos una nueva carrera, creo.
OK, so that was a massive failure.
(Risas)
But we're still curious: How far could we push this technology? And we looked back at what we did. We noticed that the data was coming into our computer very quickly, without any timing of when the images came on, and that's the equivalent of reading a very long sentence without spaces between the words. It would be hard to read, but once we add the spaces, individual words appear and it becomes a lot more understandable.
GG: Bien, eso fue un enorme fracaso. Pero seguimos curiosos: ¿Hasta dónde podríamos llevar esta tecnología? Revisamos lo que habíamos hecho. Notamos que los datos entraban a la computadora muy rápido, sin indicar dónde ocurrían los intervalos entre imágenes. Eso sería el equivalente de leer una oración muy larga sin espacios entre las palabras. Algo así sería difícil de leer, pero una vez que insertemos los espacios, aparecen las palabras individuales y es mucho más comprensible.
But what if we cheat a little bit? By using a sensor, we can tell the computer when the image first appears. That way, the brainwave stops being a continuous stream of information, and instead becomes individual packets of meaning. Also, we're going to cheat a little bit more, by limiting the categories to two. Let's see if we can do some real-time mind-reading.
Pero ¿qué pasa si hacemos trampa? Utilizando un sensor, podemos decirle a la computadora el momento en que sale la imagen. De ese modo, la onda cerebral deja de ser un flujo continuo de información, y en cambio se vuelven unidades individuales de significado. Vamos a hacer un poquito más de trampa, usando solo dos de las categorías. Veamos si podemos leer la mente en tiempo real.
In this new experiment, we're going to constrict it a little bit more so that we know the onset of the image and we're going to limit the categories to "face" or "scenery."
En este nuevo experimento, lo restringimos un poco más para saber el momento en que sale la imagen, y limitamos las categorías a solo "cara" y "paisaje".
Nathan: Face. Correct. Scenery. Correct.
Nathan: Cara. Correcto. Paisaje. Correcto.
GG: So right now, every time the image comes on, we're taking a picture of the onset of the image and decoding the EEG. It's getting correct.
GG: Así que cada vez que aparece la imagen, sacamos una foto del momento en que sale y desciframos las ondas del EEG. Está mejorando.
Nathan: Yes. Face. Correct.
Nathan: Sí. Cara. Correcto.
GG: So there is information in the EEG signal, which is cool. We just had to align it to the onset of the image.
GG: Entonces sí, hay información en la señal del EEG, nada más la tuvimos que alinear con la apariencia de la imagen.
Nathan: Scenery. Correct. Face. Yeah.
Nathan: Paisaje. Correcto. Cara. Sí.
GG: This means there is some information there, so if we know at what time the picture came on, we can tell what type of picture it was, possibly, at least on average, by looking at these evoked potentials.
GG: Esto significa que sí, hay información presente, y si sabemos el momento en que apareció la imagen, podemos determinar qué tipo de imagen era, posiblemente, o por lo menos en promedio, observando estos potenciales activados.
Nathan: Exactly.
Nathan: Exactamente.
GG: If you had told me at the beginning of this project this was possible, I would have said no way. I literally did not think we could do this.
GG: Si me hubieras dicho al principio que esto era posible, habría dicho que no hay manera. No creí que fuera posible.
Did our mind-reading experiment really work? Yes, but we had to do a lot of cheating. It turns out you can find some interesting things in the EEG, for example if you're looking at someone's face, but it does have a lot of limitations. Perhaps advances in machine learning will make huge strides, and one day we will be able to decode what's going on in our thoughts. But for now, the next time a company says that they can harness your brainwaves to be able to control devices, it is your right, it is your duty to be skeptical.
¿De verdad funcionó nuestro experimento de lectura del pensamiento? Sí, pero tuvimos que hacer mucha trampa. Al final, puedes encontrar algunas cosas interesantes en el EEG, por ejemplo, si estás mirando la cara de alguien. Pero está bastante limitado. Quizás se harán grandes avances en el aprendizaje automático y algún día podremos descifrar lo que pasa en nuestros pensamientos. Pero por ahora, cuando una compañía dice que pueden emplear tus ondas cerebrales para poder controlar aparatos, es tu derecho --es tu obligación--