La inteligencia artificial puede ser una herramienta útil para los profesionales e investigadores de la salud a la hora de interpretar imágenes de diagnóstico. Mientras que un radiólogo puede identificar fracturas y otras anomalías a partir de una radiografía, los modelos de IA pueden ver patrones que los humanos no pueden ver, lo que ofrece la oportunidad de ampliar la eficacia de las imágenes médicas.
Pero un estudio en Informes Científicos destaca un desafío oculto del uso de la IA en la investigación de imágenes médicas: el fenómeno de resultados altamente precisos pero potencialmente engañosos conocido como «aprendizaje abreviado».
Los investigadores analizaron más de 25.000 radiografías de rodilla y descubrieron que los modelos de IA pueden «predecir» rasgos no relacionados e inverosímiles, como si los pacientes se abstuvieron de comer frijoles refritos o cerveza. Si bien estas predicciones no tienen base médica, los modelos lograron niveles sorprendentes de precisión al explotar patrones sutiles e involuntarios en los datos.
«Si bien la IA tiene el potencial de transformar las imágenes médicas, debemos ser cautelosos», dice el autor principal del estudio, el Dr. Peter Schilling, cirujano ortopédico del Centro Médico Dartmouth Hitchcock de Dartmouth Health y profesor asistente de ortopedia en la Facultad de Medicina Geisel de Dartmouth. .
«Estos modelos pueden ver patrones que los humanos no pueden, pero no todos los patrones que identifican son significativos o confiables», dice Schilling. «Es crucial reconocer estos riesgos para evitar conclusiones engañosas y garantizar la integridad científica».
Los investigadores examinaron cómo los algoritmos de IA a menudo se basan en variables de confusión (como diferencias en los equipos de rayos X o marcadores de sitios clínicos) para hacer predicciones en lugar de características médicamente significativas. Los intentos de eliminar estos sesgos tuvieron sólo un éxito marginal: los modelos de IA simplemente «aprenderían» otros patrones de datos ocultos.
«Esto va más allá del sesgo de pistas de raza o género», dice Brandon Hill, coautor del estudio y científico de aprendizaje automático en Dartmouth Hitchcock. «Descubrimos que el algoritmo podría incluso aprender a predecir el año en que se tomó una radiografía. Es pernicioso: cuando se le impide aprender uno de estos elementos, aprenderá otro que antes ignoraba. Este peligro puede llevar a resultados realmente dudosos. afirmaciones, y los investigadores deben ser conscientes de la facilidad con la que esto sucede cuando se utiliza esta técnica».
Los hallazgos subrayan la necesidad de estándares de evaluación rigurosos en la investigación médica basada en IA. La dependencia excesiva de algoritmos estándar sin un escrutinio más profundo podría conducir a conocimientos clínicos y vías de tratamiento erróneos.
«La carga de la prueba aumenta mucho cuando se trata de utilizar modelos para el descubrimiento de nuevos patrones en medicina», dice Hill. «Parte del problema es nuestro propio sesgo. Es increíblemente fácil caer en la trampa de suponer que el modelo ‘ve’ lo mismo que nosotros. Al final, no es así».
«La IA es casi como tratar con una inteligencia extraterrestre», continúa Hill. «Se quiere decir que el modelo hace trampa», pero eso antropomorfiza la tecnología. Aprendió una manera de resolver la tarea que se le había encomendado, pero no necesariamente como lo haría una persona. No tiene lógica ni razonamiento como normalmente lo entendemos».
Schilling, Hill y la coautora del estudio Frances Koback, estudiante de medicina de tercer año en la Escuela Geisel de Dartmouth, realizaron el estudio en colaboración con el Centro Médico de Asuntos de Veteranos en White River Junction, Vermont.
Más información:
Ravi Aggarwal et al, Precisión diagnóstica del aprendizaje profundo en imágenes médicas: una revisión sistemática y un metanálisis, npj Medicina Digital (2021). DOI: 10.1038/s41746-021-00438-z
Citación: AI pensó que las radiografías de rodilla muestran si bebes cerveza; no es así (2024, 11 de diciembre) recuperado el 11 de diciembre de 2024 de https://medicalxpress.com/news/2024-12-ai-thinkt-knee-rays- cerveza.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.