Un equipo de investigación del Instituto de Neurociencias Wu Tsai de Stanford ha dado un paso importante en el uso de la IA para replicar cómo el cerebro organiza la información sensorial para darle sentido al mundo, abriendo nuevas fronteras para la neurociencia virtual.
Observe cómo pasan los segundos en un reloj y, en las regiones visuales de su cerebro, grupos vecinos de neuronas selectivas de ángulo se activarán en secuencia a medida que el segundero recorre la esfera del reloj. Estas células forman hermosos mapas en forma de «molinete», en los que cada segmento representa una percepción visual de un ángulo diferente. Otras áreas visuales del cerebro contienen mapas de características visuales más complejas y abstractas, como la distinción entre imágenes de rostros familiares y lugares, que activan distintos «vecindarios» neuronales.
Estos mapas funcionales se pueden encontrar en todo el cerebro, lo que deleita y confunde a los neurocientíficos, quienes durante mucho tiempo se han preguntado por qué el cerebro debería haber desarrollado un diseño similar a un mapa que solo la ciencia moderna puede observar.
Para abordar esta cuestión, el equipo de Stanford desarrolló un nuevo tipo de algoritmo de IA, una red neuronal artificial topográfica profunda (TDANN), que utiliza sólo dos reglas: entradas sensoriales naturalistas y restricciones espaciales en las conexiones; y descubrió que predice con éxito tanto las respuestas sensoriales como la organización espacial de múltiples partes del sistema visual del cerebro humano.
Después de siete años de extensa investigación, los hallazgos se publicaron en un nuevo artículo, «Un marco unificador para la organización funcional en la corteza visual ventral temprana y superior», el 10 de mayo. en el diario Neurona.
El equipo de investigación fue dirigido por el académico del Instituto de Neurociencias Wu Tsai, Dan Yamins, profesor asistente de psicología e informática; y Kalanit Grill-Spector, profesora de psicología, afiliada al Instituto.
A diferencia de las redes neuronales convencionales, TDANN incorpora restricciones espaciales, organizando sus neuronas virtuales en una «lámina cortical» bidimensional y requiriendo que las neuronas cercanas compartan respuestas similares a la información sensorial.
A medida que el modelo aprendió a procesar imágenes, esta estructura topográfica hizo que formara mapas espaciales, replicando cómo las neuronas del cerebro se organizan en respuesta a estímulos visuales. Específicamente, el modelo replicó patrones complejos como las estructuras en forma de molinete en la corteza visual primaria (V1) y los grupos de neuronas en la corteza temporal ventral superior (VTC) que responden a categorías como caras o lugares.
Eshed Margalit, autor principal del estudio, que completó su doctorado. Trabajando con Yamins y Grill-Spector, dijo que el equipo utilizó enfoques de aprendizaje autosupervisados para ayudar a mejorar la precisión de los modelos de entrenamiento que simulan el cerebro.
«Probablemente se parezca más a cómo los bebés aprenden sobre el mundo visual», dijo Margalit. «No creo que inicialmente esperáramos que tuviera un impacto tan grande en la precisión de los modelos entrenados, pero realmente es necesario realizar correctamente la tarea de entrenamiento de la red para que sea un buen modelo del cerebro».
El modelo totalmente entrenable ayudará a los neurocientíficos a comprender mejor las reglas de cómo se organiza el cerebro, ya sea para la visión, como en este estudio, u otros sistemas sensoriales como la audición.
«Cuando el cerebro intenta aprender algo sobre el mundo, como ver dos instantáneas de una persona, coloca neuronas que responden de manera similar en proximidad en el cerebro y se forman mapas», dijo Grill-Spector, quien es Susan S. y William. H. Hindle Profesor de la Facultad de Humanidades y Ciencias. «Creemos que ese principio también debería ser traducible a otros sistemas».
Este enfoque innovador tiene implicaciones importantes tanto para la neurociencia como para la inteligencia artificial. Para los neurocientíficos, el TDANN proporciona una nueva lente para estudiar cómo se desarrolla y opera la corteza visual, transformando potencialmente los tratamientos para los trastornos neurológicos. Para la IA, los conocimientos derivados de la organización del cerebro pueden conducir a sistemas de procesamiento visual más sofisticados, similares a enseñar a las computadoras a «ver» como lo hacen los humanos.
Los hallazgos también podrían ayudar a explicar cómo funciona el cerebro humano con una eficiencia energética tan estelar. Por ejemplo, el cerebro humano puede calcular mil millones de operaciones matemáticas con sólo 20 vatios de potencia. comparado con una supercomputadora que requiere un millón de veces más energía para hacer los mismos cálculos.
Los nuevos hallazgos enfatizan que los mapas neuronales (y las limitaciones espaciales o topográficas que los impulsan) probablemente sirvan para mantener el cableado que conecta los 100 mil millones de neuronas del cerebro lo más simple posible. Estos conocimientos podrían ser clave para diseñar sistemas artificiales más eficientes inspirados en la elegancia del cerebro.
«La IA está limitada por el poder», afirmó Yamins. «A largo plazo, si la gente supiera cómo hacer funcionar sistemas artificiales con un consumo de energía mucho menor, eso podría impulsar el desarrollo de la IA».
Una IA con mayor eficiencia energética podría ayudar a hacer crecer la neurociencia virtual, donde los experimentos podrían realizarse más rápidamente y a mayor escala. En su estudio, los investigadores demostraron como prueba de principio que su red neuronal artificial profunda topográfica reproducía respuestas similares a las del cerebro a una amplia gama de estímulos visuales naturalistas, lo que sugiere que tales sistemas podrían, en el futuro, usarse como parques infantiles rápidos y económicos. para crear prototipos de experimentos de neurociencia e identificar rápidamente hipótesis para pruebas futuras.
Los experimentos virtuales de neurociencia también podrían hacer avanzar la atención médica humana. Por ejemplo, entrenar mejor un sistema visual artificial de la misma manera que un bebé aprende visualmente sobre el mundo podría ayudar a una IA a ver el mundo como un ser humano, donde el centro de la mirada es más nítido que el resto del campo de visión. Otra aplicación podría ayudar a desarrollar prótesis para la visión o simular exactamente cómo las enfermedades y lesiones afectan partes del cerebro.
«Si puedes hacer cosas como hacer predicciones que ayuden a desarrollar prótesis para personas que han perdido la visión, creo que será algo realmente sorprendente», afirmó Grill-Spector.
Más información:
Eshed Margalit et al, Un marco unificador para la organización funcional en la corteza visual ventral temprana y superior, Neurona (2024). DOI: 10.1016/j.neuron.2024.04.018
Citación: Los neurocientíficos utilizan la IA para simular cómo el cerebro da sentido al mundo visual (28 de mayo de 2024), obtenido el 28 de mayo de 2024 de https://medicalxpress.com/news/2024-05-neuroscientists-ai-simulate-brain-visual. HTML
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.