Una técnica basada en inteligencia artificial (IA) puede traducir escaneos cerebrales en palabras y oraciones, informa un equipo de neurocientíficos computacionales. Aunque en las primeras etapas y lejos de ser perfecta, la nueva tecnología podría eventualmente ayudar a las personas con lesiones cerebrales o parálisis a recuperar la capacidad de comunicarse, dicen los investigadores.
El estudio “muestra que, usando los métodos correctos y mejores modelos, podemos decodificar lo que el sujeto está pensando”, dice Martin Schrimpf, neurocientífico computacional del Instituto de Tecnología de Massachusetts que no participó en el trabajo.
Otros equipos de investigación han creado interfaces cerebro-computadora (BCI) para, por ejemplo, traducir la actividad cerebral de un paciente paralizado en palabras. Sin embargo, la mayoría de estos enfoques se basan en electrodos implantados en el cerebro del paciente. A las técnicas no invasivas basadas en métodos como el electroencefalograma (EEG), que mide la actividad cerebral a través de electrodos adheridos al cuero cabelludo, les ha ido menos bien. Las BCI basadas en EEG hasta ahora solo han podido descifrar frases y no pueden reconstruir un lenguaje coherente, dice Schrimpf. Las BCI anteriores también se enfocaban típicamente en personas que intentaban hablar o pensaban en hablar, por lo que dependían de áreas del cerebro involucradas en la producción de movimientos relacionados con el habla y solo funcionaban cuando una persona se movía o intentaba moverse.
Ahora, Alexander Huth, un neurocientífico computacional de la Universidad de Texas en Austin, y sus colegas han desarrollado un BCI basado en imágenes de resonancia magnética funcional (fMRI) que aprovecha más directamente las áreas del cerebro productoras de lenguaje para descifrar el habla imaginada. Este método no invasivo, comúnmente utilizado en la investigación en neurociencia, rastrea los cambios en el flujo sanguíneo dentro del cerebro para medir la actividad neuronal.
Como con todas las BCI, el objetivo era asociar cada palabra, frase u oración con el patrón particular de actividad cerebral que evoca. Para recopilar los datos necesarios, los investigadores escanearon los cerebros de tres participantes mientras cada uno escuchaba aproximadamente 16 horas de podcasts narrativos como La hora de la radio polilla y Los New York Times‘s Amor moderno. Con esos datos, los investigadores produjeron un conjunto de mapas para cada sujeto que especificaba cómo reacciona el cerebro de la persona cuando escucha una determinada palabra, frase o significado. Debido a que fMRI tarda unos segundos en registrar la actividad cerebral, no captura cada palabra específica, sino la idea general con cada frase y oración, dice Huth. Su equipo usó los datos de fMRI para entrenar a la IA para predecir cómo reaccionaría el cerebro de un determinado individuo al lenguaje.
Inicialmente, el sistema luchó para convertir los escáneres cerebrales en lenguaje. Pero luego, los investigadores también incorporaron el modelo de lenguaje natural GPT para predecir qué palabra podría aparecer después de otra. Usando los mapas generados a partir de los escaneos y el modelo de lenguaje, revisaron diferentes frases y oraciones posibles para ver si la actividad cerebral predicha coincidía con la actividad cerebral real. Si lo hizo, mantuvieron esa frase y pasaron a la siguiente.
Posteriormente, los sujetos escucharon podcasts no utilizados en el entrenamiento. Y poco a poco, el sistema produjo palabras, frases y oraciones, y eventualmente produjo ideas que coincidían con precisión con lo que la persona estaba escuchando. La tecnología fue particularmente buena para entender la esencia de la historia, incluso si no siempre entendió cada palabra correctamente.
También funcionó cuando un sujeto contó una historia o vio un video. En un experimento, los participantes vieron una película sin sonido mientras el sistema intentaba decodificar lo que estaban pensando. Mientras una persona miraba una película animada en la que un dragón patea a alguien, el sistema gritó: «Me tira al suelo». Todo esto sucedió sin que se les pidiera la palabra a los participantes. “Eso realmente demuestra que a lo que nos referimos aquí es algo más profundo que solo el lenguaje”, dice Huth. “[The system] trabaja al nivel de las ideas.”
El sistema algún día podría ayudar a las personas que han perdido la capacidad de comunicarse debido a una lesión cerebral, un derrame cerebral o el síndrome de enclaustramiento, un tipo de parálisis en la que las personas están conscientes pero paralizadas. Sin embargo, eso requerirá no solo avanzar en la tecnología mediante el uso de más datos de entrenamiento, sino también hacerlos más accesibles. Al estar basado en fMRI, el sistema es costoso y engorroso de usar, pero Huth dice que el objetivo del equipo es poder hacer esto con técnicas de imagen más fáciles y portátiles, como EEG.
Aunque no está ni cerca de ser capaz de decodificar pensamientos espontáneos en el mundo real, el avance genera preocupaciones de que, con mejoras, la tecnología podría imitar algún tipo de lectura de la mente. “Nuestro pensamiento cuando realmente tuvimos este trabajo fue, ‘Oh, Dios mío, esto es un poco aterrador’”, recuerda Huth. Para comenzar a abordar estas preocupaciones, los autores probaron si un decodificador entrenado en un individuo funcionaría en otro; no fue así. El consentimiento y la cooperación también parecían ser críticos porque si las personas se resistían, al realizar una tarea como contar en lugar de prestar atención al podcast, el sistema no podía decodificar ningún significado de su actividad cerebral.
Aun así, la privacidad sigue siendo una gran preocupación ética para este tipo de neurotecnología, dice Nita Farahany, bioética de la Universidad de Duke. Los investigadores deben examinar las implicaciones de su trabajo y desarrollar salvaguardas contra el uso indebido desde el principio. “Necesitamos que todos participen para garantizar que eso suceda éticamente”, dice ella. “[The technology] podría ser realmente transformador para las personas que necesitan la capacidad de poder comunicarse nuevamente, pero las implicaciones para el resto de nosotros son profundas”.