La inteligencia artificial (IA) tiene el potencial de desempeñar un papel en la medicina predictiva, desde la prevención y el diagnóstico hasta el tratamiento. Los modelos de aprendizaje automático han demostrado ser útiles en ciertos tipos de leucemia y el aprendizaje profundo en la retinopatía diabética. Sin embargo, contrariamente a las expectativas de eliminación del sesgo humano, la evidencia ha demostrado un mayor sesgo y, por lo tanto, injusticia, contra subpoblaciones específicas.
El problema surge porque los programas de IA aprenden de los datos y simplemente aprenderán de manera diferente según los conjuntos de datos que los médicos o investigadores empleen para entrenarlos.
Un estudio publicado en Ciencia (acceso abierto) esta semana investiga el sesgo en los modelos de IA utilizados para predecir patrones cognitivos, conductuales y psiquiátricos que pueden caracterizar un trastorno. Jingwei Li y sus colaboradores examinaron si los estadounidenses blancos y los afroamericanos disfrutaban de un rendimiento predictivo similar cuando los modelos de IA se entrenaron con conjuntos de datos a gran escala de última generación que contenían neuroimágenes y datos de comportamiento.
Jingwei Li y sus colaboradores mencionaron que las principales líneas de investigación en neurociencias utilizan conjuntos de datos que mezclan múltiples etnias/razas, generalmente dominadas por participantes con “ascendencia europea y/o origen étnico/racial blanco”, prestando poca atención a la equidad racial.
Este nuevo estudio utilizó dos grandes conjuntos de datos independientes de imágenes de resonancia magnética funcional (fMRI) en estado de reposo concentrados en la población de EE. UU. Los investigadores del estudio consideran que estos conjuntos de datos minimizan las diferencias culturales o socioeconómicas, como las preferencias alimentarias o los sistemas escolares y de atención médica.
¿Cómo funciona la resonancia magnética funcional?
La resonancia magnética funcional (fMRI) se utiliza en las neurociencias cognitivas, la psiquiatría clínica y la planificación prequirúrgica. Es popular porque es una técnica no invasiva que proporciona imágenes de alta resolución con buen contraste en diferentes tejidos. fMRI está diseñado para detectar cambios variables en el tiempo en el metabolismo cerebral. Sin embargo, no detecta la actividad neuronal directamente; en cambio, es sensible a las alteraciones del flujo sanguíneo que siguen a los cambios en la actividad neuronal.
¿Entonces, cómo funciona? Cuando una molécula se coloca en un fuerte campo magnético, los núcleos de algunos de sus átomos comienzan a comportarse como pequeños imanes. Diferentes moléculas reaccionan a diferentes campos magnéticos. Las máquinas de resonancia magnética nuclear detectarán si la hemoglobina en su sangre es rica en oxígeno o no. Busca oxígeno rico o pobre porque estos tienen diferentes propiedades magnéticas.
Pero mientras que la física es clara y la técnica es confiable, la fMRI no proporciona un diagnóstico en sí misma; sigue siendo el médico quien interpreta los resultados y emite el diagnóstico. En la comunidad de neurocientíficos, la expectativa es que la IA ayude a los médicos a mejorar la precisión en la detección de patrones cognitivos y psicométricos, con la esperanza de facilitar un mejor diagnóstico y tratamiento de los trastornos mentales.
Injusticia en la predicción de los trastornos mentales
Jingwei Li y sus colaboradores utilizaron el conjunto de datos del Proyecto Human Connectome que contiene 948 personas de entre 22 y 37 años, y el conjunto de datos de Desarrollo Cognitivo del Cerebro Adolescente que contiene 5351 personas de entre 9 y 11 años. Las personas en ambos conjuntos de datos son de los EE. UU. y constan de varias etnias, aunque dominadas en gran medida por los estadounidenses blancos. Las proporciones se muestran en la figura 1.
Investigan predicciones en varios problemas cognitivos y conductuales desde la memoria episódica visual y la atención sostenida hasta la fuerza de agarre, la ira y el rechazo percibido.
Cuando los modelos de aprendizaje automático se entrenaron con los conjuntos de datos completos o con muestras dominadas por estadounidenses blancos, los errores de predicción fueron mayores para los afroamericanos que para los estadounidenses blancos. En cambio, los mismos modelos entrenados solo con afroamericanos aumentaron su desempeño para esta población. Sin embargo, resultó en una disminución del rendimiento en comparación con el modelo entrenado solo con estadounidenses blancos.
Sus resultados sugieren que se deben recopilar más datos de neuroimagen y comportamiento en una mayor variedad de grupos étnicos y raciales. «En general, los resultados apuntan a la necesidad de precaución y más investigación con respecto a la aplicación de los modelos actuales de predicción del comportamiento cerebral en poblaciones minoritarias». escribieron en el artículo científico.
Entonces, sí, los modelos de IA pueden estar sesgados por género, raza, grupo étnico y más. La precisión y la prevención de la discriminación contra las minorías, mediante el uso de IA, aún necesitan aportes significativos.
Referencia
Li, J., Bzdok, D., Chen, J., Tam, A., Ooi, LQR, Holmes, AJ, Ge, T., Patil, KR, Jabbi, M., Eickhoff, SB, Yeo, BTT, & Genon, S. (2022). Fracaso de la generalización entre etnicidad/raza de la predicción del comportamiento a partir de la conectividad funcional en estado de reposo. Avances científicos, 8(11). https://doi.org/10.1126/sciadv.abj1812