Meta

Utilizando la IA para decodificar el lenguaje a partir del cerebro y avanzar en nuestra comprensión de la comunicación humana.

Durante la última década, el laboratorio de Meta de Investigación sobre Inteligencia Artificial Fundamental (FAIR) de París ha estado a la vanguardia del avance de la investigación científica. Hemos liderado avances en medicina, ciencias del clima, y conservación, y hemos mantenido nuestro compromiso de ciencia abierta y reproducible. De cara a la próxima década, nos centramos en conseguir machine intelligence avanzado (AMI, por su siglas en inglés) y utilizarlo para impulsar productos e innovación en beneficio de todos. 

Hoy, en colaboración con el Centro Vasco de Cognición, Cerebro y Lenguaje, un destacado centro de investigación interdisciplinar de San Sebastián (España), nos complace compartir dos avances que muestran cómo la IA puede ayudar a avanzar en nuestra comprensión de la inteligencia humana, acercándonos a la AMI. Basándonos en nuestro trabajo previo para decodificar la percepción de las imágenes y el discurso de la actividad cerebral, compartimos una investigación que descifra con éxito la producción de frases a partir de grabaciones cerebrales no invasivas, descodificando con precisión hasta el 80% de los caracteres y, por tanto, reconstruyendo a menudo frases completas únicamente a partir de señales cerebrales. En un segundo estudio, explicamos cómo la inteligencia artificial puede ayudar a comprender estas señales cerebrales y cómo el cerebro transforma los pensamientos en una secuencia de palabras.

El avance de esta importante investigación no sería posible sin la estrecha colaboración que hemos fomentado en la comunidad neurocientífica. Hoy, Meta está anunciando una donación de $2.2 milliones de dólares a la Fundación del Hospital Rothschild en apoyo de este trabajo. Esto continúa nuestra trayectoria de estrecha colaboración con algunas de las principales instituciones de investigación de Europa, incluyendo NeuroSpin (CEA), INRIA, y ENS PSL. Estas asociaciones seguirán siendo importantes para nosotros mientras trabajamos juntos para explorar cómo estos avances pueden marcar la diferencia en el mundo real y, en última instancia, mejorar la vida de las personas.

Utilizando la IA para decodificar el lenguaje a partir de grabaciones cerebrales no invasivas

Todos los años, millones de personas sufren lesiones cerebrales que pueden impedirles comunicarse. Los enfoques actuales demuestran que la comunicación puede restablecerse con una neuroprótesis que envía señales de mando a un descodificador de IA. Sin embargo, las técnicas invasivas de registro cerebral como electroencefalografía estereotáctica y electrocorticografía, requieren intervenciones neuroquirúrgicas y son difíciles de escalar. Hasta ahora, el uso de métodos no invasivos se ha visto limitado por la complejidad del ruido de las señales que registran.

Para nuestro primer estudio, utilizamos ambos MEG y EEG––dispositivos no invasivos que miden los campos magnéticos y eléctricos provocados por la actividad neuronal––para grabar, en BCBL, 35 voluntarios sanos mientras teclean frases. Después entrenamos un nuevo modelo de IA para reconstruir la frase únicamente a partir de las señales cerebrales. En frases nuevas, nuestro modelo de IA decodifica hasta el 80% de los caracteres tecleados por los participantes grabados con MEG, al menos dos veces mejor que lo que puede obtenerse con el sistema clásico de EEG.

Esta investigación podría crear una nueva vía para que las interfaces cerebro-ordenador no invasivas ayuden a restablecer la comunicación de quienes han perdido la capacidad de hablar, pero aún quedan varios retos importantes antes de que este enfoque pueda aplicarse en entornos clínicos. El primero está relacionado con el rendimiento: la descodificación sigue siendo imperfecta. El segundo es más práctico: la MEG requiere que los sujetos estén en una sala blindada magnéticamente y permanezcan inmóviles. Por último, aunque esta investigación se realizó con voluntarios sanos, habrá que estudiar en el futuro cómo podría beneficiar a las personas que sufren lesiones cerebrales.

Utilizando la IA para entender cómo el cerebro forma el lenguaje

También estamos compartiendo un avance hacia la comprensión de los mecanismos neuronales que coordinan la producción del lenguaje en el cerebro humano. Estudiar el cerebro durante el habla siempre ha sido un gran reto para la neurociencia, en parte por un simple problema técnico: mover la boca y la lengua corrompe gravemente las señales de las neuroimágenes.

Para explorar cómo el cerebro transforma los pensamientos en intrincadas secuencias de acciones motoras, utilizamos IA para ayudar a interpretar las señales MEG mientras los participantes tecleaban frases. Al tomar 1.000 imágenes instantáneas del cerebro cada segundo, podemos determinar el momento preciso en que los pensamientos se convierten en palabras, sílabas e incluso letras individuales. Nuestro estudio demuestra que el cerebro genera una secuencia de representaciones que parten del nivel más abstracto de representaciones -el significado de una frase- y las transforma progresivamente en una multitud de acciones, como el movimiento real de los dedos sobre el teclado.

Y lo que es más importante, el estudio también revela cómo el cerebro representa de forma coherente y simultánea palabras y acciones sucesivas. Nuestros resultados demuestran que el cerebro utiliza un «código neuronal dinámico», un mecanismo neuronal especial que encadena representaciones sucesivas manteniendo cada una de ellas durante largos periodos de tiempo.

Descifrar el código neuronal del lenguaje sigue siendo uno de los principales retos de la IA y la neurociencia. La capacidad del lenguaje, propia del ser humano, ha dotado a nuestra especie de una habilidad para razonar, aprender y acumular conocimientos como ningún otro animal del planeta. Comprender su arquitectura neuronal y sus principios computacionales es, por tanto, una vía importante para desarrollar AMI.

Logrando avances en salud con IA de código abierto

En Meta, estamos en una posición única para ayudar a resolver algunos de los mayores retos del mundo utilizando la IA. Nuestro compromiso con el código abierto ha permitido a la comunidad de IA basarse en nuestros modelos para lograr sus propios avances. El mes pasado, compartimos cómo BrightHeart, una empresa con sede en Francia, utiliza DINOv2 como parte de su software de IA para ayudar a los médicos a identificar o descartar signos sugestivos de defectos cardíacos congénitos en las ecografías cardíacas fetales. El año pasado, BrightHeart alcanzó autorización FDA 510(k) para su software, que atribuyen en parte a las contribuciones de código abierto de Meta. También, compartimos cómo Virgo, una empresa con sede en Estados Unidos, utiliza DINOv2 para analizar vídeos de endoscopia, logrando un rendimiento puntero en una amplia gama de parámetros de IA para endoscopia, como la clasificación de puntos de referencia anatómicos, la puntuación de la gravedad de la enfermedad en el caso de la colitis ulcerosa y la segmentación de pólipos.

De cara a los próximos diez años, es emocionante pensar en cómo los avances que hemos compartido hoy podrían beneficiar al bien común. Estamos deseando continuar las importantes conversaciones que mantenemos con la comunidad a medida que avanzamos juntos para afrontar algunos de los mayores retos de la sociedad.

Paper 1: Brain-to-Text Decoding – a non-invasive approach via typing

Paper 2: From Thought to Action: How a Hierarchy of Neural Dynamics Supports Language Production