Los científicos piden precaución antes de que los modelos de inteligencia artificial (IA) como ChatGPT se utilicen en la atención médica de las poblaciones de minorías étnicas. escribiendo en el Revista de la Royal Society of Medicineepidemiólogos de la Universidad de Leicester y la Universidad de Cambridge dicen que las desigualdades existentes para las minorías étnicas pueden afianzarse más debido a los sesgos sistémicos en los datos utilizados por las herramientas de inteligencia artificial para el cuidado de la salud.
Los modelos de IA deben «entrenarse» utilizando datos extraídos de diferentes fuentes, como sitios web de atención médica e investigaciones científicas. Sin embargo, la evidencia muestra que los datos de etnicidad a menudo faltan en la investigación de atención médica. Las minorías étnicas también están menos representadas en los ensayos de investigación.
Mohammad Ali, Ph.D. Fellow en Epidemiología de la Facultad de Ciencias de la Vida de la Universidad de Leicester, dice: «Esta representación desproporcionadamente baja de minorías étnicas en la investigación tiene evidencia de causar daño, por ejemplo, al crear tratamientos farmacológicos ineficaces o pautas de tratamiento que podrían considerarse racistas. Si la literatura publicada ya contiene sesgos y menos precisión, es lógico que los futuros modelos de IA los mantengan y los exacerben aún más».
A los investigadores también les preocupa que las desigualdades en salud puedan empeorar en los países de ingresos bajos y medios (LMIC). Los modelos de IA se desarrollan principalmente en países más ricos como EE. UU. y Europa, y existe una disparidad significativa en la investigación y el desarrollo entre los países de ingresos altos y bajos.
Los investigadores señalan que la mayoría de las investigaciones publicadas no priorizan las necesidades de las personas en los países de ingresos bajos y medianos con sus desafíos de salud únicos, particularmente en lo que respecta a la prestación de atención médica. Los modelos de IA, dicen, pueden proporcionar recomendaciones basadas en datos sobre poblaciones completamente diferentes de las de los LMIC.
Si bien es crucial reconocer estas posibles dificultades, dicen los investigadores, es igualmente importante centrarse en las soluciones. «Debemos actuar con cautela, reconociendo que no podemos ni debemos detener el flujo de progreso», dice Ali.
Los investigadores sugieren formas de superar las desigualdades de salud que pueden exacerbar, comenzando con la necesidad de modelos de IA para describir claramente los datos utilizados en su desarrollo. También dicen que se necesita trabajar para abordar las desigualdades de salud étnicas en la investigación, incluida la mejora del reclutamiento y el registro de la información étnica. Los datos utilizados para entrenar modelos de IA deben ser adecuadamente representativos, teniendo en cuenta actores clave como el origen étnico, la edad, el sexo y los factores socioeconómicos. También se requiere más investigación para comprender el uso de modelos de IA en el contexto de poblaciones étnicamente diversas.
Al abordar estas consideraciones, dicen los investigadores, el poder de los modelos de IA se puede aprovechar para impulsar un cambio positivo en la atención médica al tiempo que promueve la equidad y la inclusión.
Más información:
Abordar las desigualdades de salud étnicas y globales en la era de los modelos de atención médica de inteligencia artificial: un llamado a la implementación responsable, Revista de la Royal Society of Medicine (2023). DOI: 10.1177/01410768231187734
Citación: AI no debe empeorar las desigualdades en salud de las poblaciones de minorías étnicas, dicen los epidemiólogos (2023, 19 de julio) consultado el 19 de julio de 2023 en https://medicalxpress.com/news/2023-07-ai-worsen-health-inequalities-ethnic.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.