Aunque muchas empresas tecnológicas y nuevas empresas han promocionado el potencial de servicios automatizados de verificación de datos Impulsado por inteligencia artificial para frenar la creciente ola de desinformación en línea, un nuevo estudio dirigido por investigadores de la Universidad de Indiana ha descubierto que la verificación de hechos mediante IA puede, en algunos casos, aumentar la creencia en titulares falsos cuya veracidad no estaba segura para la IA, como así como disminuir la creencia en titulares verdaderos mal etiquetados como falsos.
El trabajo también encontró que los participantes a los que se les dio la opción de ver titulares verificados por IA impulsada por grandes modelos de lenguaje tenían significativamente más probabilidades de compartir noticias verdaderas y falsas, pero solo más probabilidades de creer en titulares falsos, no en titulares verdaderos.
El estudio, «La información de verificación de hechos de modelos lingüísticos grandes puede disminuir el discernimiento de los titulares», fue publicado 4 de diciembre en el Actas de la Academia Nacional de Ciencias. El primer autor es Matthew DeVerna, Ph.D. estudiante de la Escuela de Informática, Computación e Ingeniería Luddy de la Universidad de Indiana en Bloomington. El autor principal es Filippo Menczer, profesor distinguido de IU Luddy y director del Observatorio de redes sociales de IU.
«Hay mucho entusiasmo por aprovechar la IA para ampliar aplicaciones como la verificación de datos, ya que los verificadores de datos humanos no pueden seguir el ritmo del volumen de afirmaciones falsas o engañosas que se difunden en las redes sociales, incluido el contenido generado por la IA», dijo DeVerna. «Sin embargo, nuestro estudio destaca que cuando las personas interactúan con la IA, pueden surgir consecuencias no deseadas, lo que destaca lo importante que es considerar cuidadosamente cómo se implementan estas herramientas».
En el estudio, los científicos de IU investigaron específicamente el impacto de la información de verificación de hechos generada por un modelo popular de lenguaje grande sobre la creencia y el intercambio de intenciones en los titulares de noticias políticas en un experimento de control aleatorio pre-registrado.
Aunque el modelo identificó con precisión el 90% de los titulares falsos, los investigadores encontraron que esto no mejoró significativamente la capacidad de los participantes para distinguir entre titulares verdaderos y falsos, en promedio.
Por el contrario, los investigadores encontraron que el uso de verificaciones de hechos generadas por humanos mejoró el discernimiento de los titulares verdaderos por parte de los usuarios.
«Nuestros hallazgos resaltan una fuente importante de daño potencial derivado de las aplicaciones de IA y subrayan la necesidad crítica de políticas para prevenir o mitigar tales consecuencias no deseadas», dijo Menczer. «Se necesita más investigación para mejorar la precisión de la verificación de datos de la IA, así como para comprender mejor las interacciones entre los humanos y la IA».
Otros contribuyentes al artículo fueron Kai-Cheng Yang de la Universidad Northeastern y Harry Yaojun Yan del Laboratorio de Medios Sociales de Stanford.
Más información:
Matthew R. DeVerna et al, La información de verificación de hechos de modelos de lenguaje grandes puede disminuir el discernimiento de los titulares, Actas de la Academia Nacional de Ciencias (2024). DOI: 10.1073/pnas.2322823121
Citación: Las verificaciones de datos de IA pueden aumentar la creencia en titulares falsos, según un estudio (2024, 4 de diciembre) obtenido el 4 de diciembre de 2024 de https://phys.org/news/2024-12-ai-fact-belief-false-headlines.html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.