Entre el momento en que lee la contraseña de Wi-Fi en el tablero del menú del café y el momento en que puede volver a su computadora portátil para ingresarla, debe tenerla en cuenta. Si alguna vez se ha preguntado cómo hace eso su cerebro, se está haciendo una pregunta sobre la memoria de trabajo que los investigadores se han esforzado durante décadas por explicar. Ahora, los neurocientíficos del MIT han publicado una nueva perspectiva clave para explicar cómo funciona.
En un estudio en Biología Computacional PLOS, Los científicos del Instituto Picower para el Aprendizaje y la Memoria compararon las mediciones de la actividad de las células cerebrales en un animal que realizaba una tarea de memoria de trabajo con el resultado de varios modelos informáticos que representaban dos teorías del mecanismo subyacente para mantener la información en mente. Los resultados favorecieron fuertemente la nueva noción de que una red de neuronas almacena la información al hacer cambios de corta duración en el patrón de sus conexiones, o sinapsis, y contradijeron la alternativa tradicional de que la memoria es mantenida por las neuronas que permanecen persistentemente activas (como un motor al ralentí). ).
Si bien ambos modelos permitieron tener en cuenta la información, solo las versiones que permitieron que las sinapsis cambiaran las conexiones transitoriamente («plasticidad sináptica a corto plazo») produjeron patrones de actividad neuronal que imitaban lo que realmente se observaba en cerebros reales en el trabajo. La idea de que las células cerebrales mantienen los recuerdos al estar siempre «activadas» puede ser más simple, reconoció el autor principal Earl K. Miller, pero no representa lo que hace la naturaleza y no puede producir la sofisticada flexibilidad de pensamiento que puede surgir de la intermitencia. actividad neuronal respaldada por plasticidad sináptica a corto plazo.
«Se necesitan este tipo de mecanismos para dar a la actividad de la memoria de trabajo la libertad que necesita para ser flexible», dijo Miller, Profesor Picower de Neurociencia en el Departamento de Ciencias Cognitivas y del Cerebro (BCS) del MIT. «Si la memoria de trabajo fuera solo una actividad sostenida, sería tan simple como un interruptor de luz. Pero la memoria de trabajo es tan compleja y dinámica como nuestros pensamientos».
El coautor principal Leo Kozachkov, quien obtuvo su doctorado en el MIT en noviembre por el trabajo de modelado teórico que incluye este estudio, dijo que era crucial hacer coincidir los modelos de computadora con los datos del mundo real.
«La mayoría de la gente piensa que la memoria de trabajo ‘ocurre’ en las neuronas: la actividad neuronal persistente da lugar a pensamientos persistentes. Sin embargo, esta opinión ha sido objeto de un escrutinio reciente porque en realidad no concuerda con los datos», dijo Kozachkov, quien fue cosupervisado por el coautor principal Jean-Jacques Slotine, profesor de BCS e ingeniería mecánica. «Usando redes neuronales artificiales con plasticidad sináptica a corto plazo, mostramos que la actividad sináptica (en lugar de la actividad neuronal) puede ser un sustrato para la memoria de trabajo. La conclusión importante de nuestro artículo es: estos modelos de redes neuronales ‘plásticas’ son más cerebrales como, en un sentido cuantitativo, y también tienen beneficios funcionales adicionales en términos de robustez».
Coincidencia de modelos con la naturaleza.
Junto con el coautor principal John Tauber, un estudiante graduado del MIT, el objetivo de Kozachkov no era solo determinar cómo se podría tener en cuenta la información de la memoria de trabajo, sino arrojar luz sobre la forma en que la naturaleza realmente lo hace. Eso significó comenzar con mediciones de «verdad en tierra» de la actividad eléctrica de «picos» de cientos de neuronas en la corteza prefrontal de un animal mientras jugaba un juego de memoria de trabajo. En cada una de las muchas rondas, al animal se le mostraba una imagen que luego desaparecía. Un segundo después, vería dos imágenes, incluida la original, y tenía que mirar la original para ganar una pequeña recompensa. El momento clave es ese segundo intermedio, llamado «período de demora», en el que se debe tener en cuenta la imagen antes de la prueba.
El equipo observó constantemente lo que el laboratorio de Miller ha visto muchas veces antes: las neuronas se disparan mucho cuando ven la imagen original, se disparan solo de forma intermitente durante el retraso y luego se disparan de nuevo cuando las imágenes deben recuperarse durante la prueba (estas dinámicas se rigen por una interacción de ritmos cerebrales de frecuencia beta y gamma). En otras palabras, el spiking es fuerte cuando la información debe almacenarse inicialmente y cuando debe recuperarse, pero solo es esporádica cuando debe mantenerse. El pico no es persistente durante el retraso.
Además, el equipo entrenó «decodificadores» de software para leer la información de la memoria de trabajo de las mediciones de la actividad de picos. Fueron muy precisos cuando los picos eran altos, pero no cuando eran bajos, como en el período de retraso. Esto sugirió que los picos no representan información durante el retraso. Pero eso planteó una pregunta crucial: si el spiking no tiene información en mente, ¿qué lo hace?
Investigadores como Mark Stokes de la Universidad de Oxford han propuesto que los cambios en la fuerza relativa, o «pesos», de las sinapsis podrían almacenar la información en su lugar. El equipo del MIT puso a prueba esa idea mediante el modelado computacional de redes neuronales que incorporan dos versiones de cada teoría principal. Al igual que con el animal real, las redes de aprendizaje automático se entrenaron para realizar la misma tarea de memoria de trabajo y generar actividad neuronal que también podría ser interpretada por un decodificador.
El resultado es que las redes computacionales que permitieron la plasticidad sináptica a corto plazo para codificar información se dispararon cuando el cerebro real se disparó y no cuando no lo hizo. Las redes que presentaban picos constantes como método para mantener la memoria se disparaban todo el tiempo, incluso cuando el cerebro natural no lo hacía. Y los resultados del decodificador revelaron que la precisión disminuyó durante el período de retraso en los modelos de plasticidad sináptica, pero permaneció inusualmente alta en los modelos de picos persistentes.
En otra capa de análisis, el equipo creó un decodificador para leer información de los pesos sinápticos. Descubrieron que durante el período de retraso, las sinapsis representaban la información de la memoria de trabajo que no representaban los picos.
Entre las dos versiones del modelo que presentaban plasticidad sináptica a corto plazo, la más realista se llamó «PS-Hebb», que presenta un ciclo de retroalimentación negativa que mantiene la red neuronal estable y robusta, dijo Kozachkov.
Funcionamiento de la memoria de trabajo
Además de adaptarse mejor a la naturaleza, los modelos de plasticidad sináptica también otorgaron otros beneficios que probablemente sean importantes para los cerebros reales. Una era que los modelos de plasticidad retenían información en sus ponderaciones sinápticas incluso después de que la mitad de las neuronas artificiales fueran «extirpadas». Los modelos de actividad persistente colapsaron después de perder solo entre el 10 y el 20 por ciento de sus sinapsis. Y, agregó Miller, solo aumentar ocasionalmente requiere menos energía que aumentar persistentemente.
Además, dijo Miller, las ráfagas rápidas de picos en lugar de picos persistentes dejan espacio a tiempo para almacenar más de un elemento en la memoria. La investigación ha demostrado que las personas pueden retener hasta cuatro cosas diferentes en la memoria de trabajo. El laboratorio de Miller planea nuevos experimentos para determinar si los modelos con picos intermitentes y almacenamiento de información basado en el peso sináptico coinciden adecuadamente con los datos neuronales reales cuando los animales deben tener varias cosas en mente en lugar de una sola imagen.
Además de Miller, Kozachkov, Tauber y Slotine, los otros autores del artículo son Mikael Lundqvist y Scott Brincat.
La Oficina de Investigación Naval, la Fundación JPB y ERC y VR Starting Grants financiaron la investigación.