Oyen las palabras que escucha una persona leyendo la actividad nerviosa de su corteza auditiva con electrodos subdurales

Por Francisco R. Villatoro, el 22 febrero, 2012. Categoría(s): Cerebro • Ciencia • Medicina • Noticias • Redes de Neuronas • Science ✎ 12

Fichero .wav con sonidos reconstruidos mientras le dictan palabras a una persona.

Los pacientes que tienen implantados electrodos subdurales en su corteza cerebral son los conejillos de indias ideales para realizar estudios electrocorticográficos (ECoG). Un estudio publicado en PLoS Biology ha logrado reconstruir los sonidos que una persona está oyendo a partir de la lectura de la actividad de sus neuronas auditivas. Tienes que oir el fichero .wav de ejemplo. Sencillamente espectacular, increíble. Los 15 participantes oían palabras dictadas mientras se grababa su actividad neural con un matriz de 64 electrodos implantada en las circunvalaciones temporales media y superior. El fichero de sonido (.wav) se obtuvo a partir de un espectrograma reconstruido mediante un algoritmo que utiliza como entrada las 64 señales medidas por los electrodos. El algoritmo de reconstrucción del espectograma es un sencillo método de regresión lineal basada en mínimos cuadrados (que tras una fase de entrenamiento ajusta ciertos parámetros cuyos valores son utilizados para la reconstrucción). El artículo parece fácilmente repetible en cualquier laboratorio de neurociencia que tenga acceso a pacientes con electrodos implantados y nos hace preguntar: ¿algún día se podrá leer el pensamiento hablado de una persona? El artículo técnico (de acceso gratuito) es Pasley BN, David SV, Mesgarani N, Flinker A, Shamma SA, et al., «Reconstructing Speech from Human Auditory Cortex,» PLoS Biology 10: e1001251, 2012.  Me he enterado de este artículo gracias a un tuit de Xurxo Mariño (@xurxomar) que nos decía «Han conseguido reconstruir ls palabras que escucha una persona a partir de la actividad nerviosa registrada en su cerebro.»

Sin entrar en los detalles técnicos, lo que nos ilustra este trabajo es que cosas que pensábamos que eran de ciencia ficción hoy en día son una realidad en los laboratorios. Todos hemos visto en televisión personas que controlan con su pensamiento el movimiento de una prótesis; estas personas piensan el movimiento y los electrodos en su córtex permiten controlar los servomotores de la prótesis. Quizás algún día, dentro de unas décadas, haya métodos no invasivos para leer la actividad de nuestro cerebro que permitan reconstruir las palabras en las que está pensando una persona, que permitan oir en qué está pensando una persona en tiempo real. Da escalofríos solo de pensarlo. Imaginad las aplicaciones que podría tener esta tecnología.

Ya que estamos, os recomiendo volver a ver el documental «El Mal del Cerebro.» La parte 1 «Cerebros reparados» (17:25) nos muestra la investigación que se está realizando en España sobre estos temas. «Introducir electrodos, reemplazar miembros amputados por dispositivos biónicos o mover objetos con el pensamiento. Estos son los caminos por los que la ciencia lucha para reparar la mente.»



12 Comentarios

  1. La verdad es que todo esto no es más que el principio, como los ordenadores de los sesenta respecto a los actuales. Todavía falta hacer los electrodos más pequeños, para poder poner miles por cm2, y también como bien dices, hace falta mejorar la detección no invasiva, pero respecto a eso ¿qué puede pasar si se consigue?.

  2. A-lu-ci-nan-te…. Escuchar el wav… Es una máquina traduciendo los sonidos de tu mente…. Estamos listos, en 20 años las máquinas de la verdad serán así… Tendremos que aprende a pensar como los sordos, en imágenes (eso nos dará a los mentirosos algunos añitos más). Un hallazgo Pseudopodo…

  3. En el momento actual, potentes máquinas calculadoras combinan perfiles de usuario que se van creando según navegas por redes de máquinas interconectadas, para poder venderte más productos (y para otras cosas menos confesables). En el futuro, no será necesario que te sientes voluntariamente delante de un monitor y un teclado para conseguir lo mismo. Imagino que, incluso, los anuncios publicitarios pasarán a la historia: el deseo de consumir llegará directamente al cerebro a través éter…

  4. Hola Francis

    A raíz del artículo estuve hablando con varios investigadores expertos en decodificar señal cerebral. Sin duda es una vía muy prometedora y el artículo es fascinante, pero se trasladó una imagen demasiado triunfalista del asunto, sin dejar claros los peros (incluso de dijo en prensa que podría permitir hablar a pacientes como Stephen Hawking). Una de las ideas que se desliza en el artículo no está tan clara: que la decodificación de una señal auditiva sea el mismo proceso que su codificación cuando piensas en ese sonido. Por no hablar de que el nivel de precisión requeriría tecnología invasiva y costosa. Hay otra tecnología parecida para decodificar las imágenes, seguro que has leído sobre ella, y en ese caso el proceso es inverso y también mucho menos desarrollado de lo que se ha vendido. Se obtiene una especie de borrón en las gráficas, imposible de interpretar como una imagen real (hasta en un capítulo de House cometieron la cagada de mostrar una máquina que sacaba una imagen de un sueño). En resumen, que es un camino, fascinante y prometedor, pero está todo por andar.

    Abrazos 😉

    1. Gracias, Antonio, tienes toda la razón; el sistema auditivo tiene ventajas técnicas para hacer esto por la manera en la que se recibe la información auditiva y se transmite al cerebro; sin entrar en detalles, el oído realiza una descomposición espectral y envía el espectro en canales separados por neuronas separadas al cerebro, luego leer el espectro auditivo mientras se oye es casi «trivial».

      Sin embargo, sería fascinante que «codificación cuando piensas» en una palabra sea similar a la codificación cuando la oyes; y no hay ninguna razón por la que no tenga que ser así, aunque como bien dices nadie lo ha demostrado aún.

    2. La comprensión del lenguaje se realiza en el área de Wernicke. Es la zona donde han colocado los 64 electrodos, que son los puntos rojos. La formación de palabras se produce en el área de Broca, que está más hacia delante, más o menos a la misma altura.
      http://editthis.info/images/psy3241/7/7d/Broca.jpg
      http://thebrain.mcgill.ca/flash/i/i_10/i_10_cr/i_10_cr_lan/i_10_cr_lan.html
      http://mindblog.dericbownds.net/2009/12/spoken-language-and-symbolic-gestures.html

      1. Me refiero a que con el área de Wernicke «oímos» (entendemos lo que oímos), mientras que con el área de Broca «hablamos» (creamos el lenguaje para hablar). Así que supongo que las neuronas de cada zona tendrán patrones de activación distintos.

  5. Estoy de acuerdo contigo. No pude comentar en tu artículo sobre la seriedad de tu bitácora, porque no dejaste abierta la opción. Sin embargo, concuerdo contigo. Si uno no tiene nada edificante por decir es mejor callar. Ya lo he dicho aquí antes: no soy un hombre de ciencias «exactas», pero sí un aficionado a la ficción científica (mejor traducción que «ciencia ficción, porque no es ciencia escrita a manera de ficción, sino ficción que se vale de la ciencia). Soy hombre de letras. De hecho, hace unos días comenté que me gustaría volver a subir a mi nueva bitácora (cerré la anterior porque cedí a una presión similar a la que ahora ejercen sobre ti) un cuento que dediqué a Arthur C. Clarke. Aunque forma parte de un libro que espero publicar en noviembre de 2012, lo haré por una sola vez, luego de revisarlo. El caso es que en él planteo algunos asuntos que a estas personas sin imaginación les parecen poco serias (quizás inexactas, pero todo lo es hasta que no se demuestre todo lo contrario). Espero que lo leas. Se titula A cincuenta mil parsecs de distancia. Saludos, JSC

  6. Precisamente no hace mucho leí acerca de este tipo de experimentos en el libro «Física de lo imposible», de Michio Kaku, uno de los físicos teóricos más importantes de nuestros tiempos.
    En él explicaba que realmente se puede observar la actividad del cerebro, reconocer ciertas pautas e incluso es posible entrenar a la gente para que aprenda con el tiempo a controlar dichas pautas de actividad cerebral para poder asi transmitirlas a un ordenador que es el encargado de mover protesis, un cursor en una pantalla, etc. No obstante, leer el pensamiento de una frase, hacer que un ordenador hable es lo que el sr. Kaku llama «imposibilidad de clase 2», és decir, que no hay ninguna ley de la física que diga que no se puede hacer, pero que lograrlo aún nos llevaría siglos de investigación para poder lograrlo.
    La dificultad radica en la complejidad del lenguage y que las pautas del cerebro no son fijas como podria ser en un ordenador, sino que es más bien como una red de ordenadores en las que si unos ordenadores dejan de funcionar, otros pueden tomar su función. Por lo tanto, no hay un esquema neural físico. Además, el cerebro aún sigue siendo el órgano más desconocido de todos y lo que se sabe no es suficiente para tales propositos. La otra dificultad es que la tecnología actual tampoco es capaz de ni siquiera acercarse a la inteligencia de una persona, de hecho, en el mismo libro se afirma, que es ni siquiera los ordenadores actuales son capaces de llegar a la inteligencia de un gusano de tierra (recordemos que aparentar inteligencia no es lo mismo que tenerla)

    Si teneis oportunidad de ojear este libro os lo recomiendo, dice muchas cosas interesantes sobre muchos temas. El tema principal son «cosas imposibles actualmente pero que quizás puedan llegar a ser posibles en el futuro»

Deja un comentario