Los investigadores de UW Medicine han descubierto que los algoritmos son tan buenos como los evaluadores humanos capacitados para identificar el lenguaje de bandera roja en los mensajes de texto de personas con enfermedades mentales graves. Esto abre un área de estudio prometedora que podría ayudar con la capacitación en psiquiatría y la escasez de atención.
Los hallazgos fueron publicados a finales de septiembre en la revista Servicios Psiquiátricos.
Los mensajes de texto son cada vez más parte de la atención y evaluación de la salud mental, pero estas intervenciones psiquiátricas remotas pueden carecer de los puntos de referencia emocionales que los terapeutas usan para navegar en las conversaciones en persona con los pacientes.
El equipo de investigación, con sede en el Departamento de Psiquiatría y Ciencias del Comportamiento, utilizó el procesamiento del lenguaje natural por primera vez para ayudar a detectar e identificar mensajes de texto que reflejan «distorsiones cognitivas» que podrían pasar desapercibidas para un médico poco capacitado o con exceso de trabajo. La investigación también podría eventualmente ayudar a más pacientes a encontrar atención.
«Cuando nos reunimos con personas en persona, tenemos todos estos contextos diferentes», dijo Justin Tauscher, autor principal del artículo y profesor asistente interino en la Facultad de Medicina de la Universidad de Washington. «Tenemos señales visuales, tenemos señales auditivas, cosas que no aparecen en un mensaje de texto. Esas son cosas en las que estamos capacitados para apoyarnos. La esperanza aquí es que la tecnología pueda proporcionar una herramienta adicional para que los médicos amplíen el información en la que se apoyan para tomar decisiones clínicas».
El estudio examinó miles de mensajes de texto únicos y espontáneos entre 39 personas con enfermedades mentales graves y antecedentes de hospitalización y sus proveedores de salud mental. Los evaluadores humanos calificaron los textos según varias distorsiones cognitivas como lo harían típicamente en el entorno de atención al paciente. Los evaluadores buscan un lenguaje sutil o manifiesto que sugiera que el paciente está generalizando en exceso, catastrofizando o sacando conclusiones precipitadas, todo lo cual puede ser una pista de los problemas.
Los investigadores también programaron computadoras para hacer la misma tarea de calificar textos y encontraron que los humanos y la IA calificaron de manera similar en la mayoría de las categorías estudiadas.
«Poder tener sistemas que puedan ayudar a respaldar la toma de decisiones clínicas creo que es muy relevante y potencialmente impactante para aquellos en el campo que a veces no tienen acceso a capacitación, a veces no tienen acceso a supervisión o a veces simplemente están cansados, con exceso de trabajo y quemados. y tienen dificultades para permanecer presentes en todas las interacciones que tienen», dijo Tauscher, quien llegó a la investigación después de una década en un entorno clínico.
Respaldar a los médicos sería un beneficio inmediato, pero los investigadores también ven aplicaciones futuras que funcionan en paralelo con una banda de ejercicios portátil o un sistema de monitoreo basado en teléfonos. Dror Ben-Zeev, director del Centro de Investigación en Tecnología e Ingeniería del Comportamiento de la Universidad de Washington y coautor del artículo, dijo que la tecnología eventualmente podría proporcionar retroalimentación en tiempo real que indicaría a un terapeuta un problema inminente.
«De la misma manera que obtienes un nivel de oxígeno en la sangre y una frecuencia cardíaca y otras entradas», dijo Ben-Zeev, «podríamos obtener una nota que indica que el paciente está sacando conclusiones precipitadas y catastrofizando. Solo la capacidad de llamar la atención sobre un patrón de pensamiento es algo que imaginamos en el futuro. Las personas tendrán estos bucles de retroalimentación con su tecnología donde obtendrán información sobre sí mismos».
Los pros y los contras de la atención de la salud telemental
Justin S. Tauscher et al, Detección automatizada de distorsiones cognitivas en intercambios de texto entre médicos y personas con enfermedades mentales graves, Servicios Psiquiátricos (2022). DOI: 10.1176/appi.ps.202100692
Citación: AI igual a los humanos en el ensayo de salud mental de mensajes de texto (11 de octubre de 2022) recuperado el 11 de octubre de 2022 de https://medicalxpress.com/news/2022-10-ai-equal-humans-text-message-mental.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.