En un artículo publicado ayer en la revista Cienciadestacados investigadores de la Universidad de Waterloo, la Universidad de Toronto, la Universidad de Yale y la Universidad de Pensilvania analizan cómo la IA (modelos de lenguaje extenso o LLM en particular) podría cambiar la naturaleza de su trabajo.
«Lo que queríamos explorar en este artículo es cómo las prácticas de investigación en ciencias sociales se pueden adaptar, incluso reinventar, para aprovechar el poder de la IA», dijo Igor Grossmann, profesor de psicología en Waterloo.
Grossmann y sus colegas señalan que los grandes modelos de lenguaje entrenados en grandes cantidades de datos de texto son cada vez más capaces de simular respuestas y comportamientos similares a los humanos. Esto ofrece nuevas oportunidades para probar teorías e hipótesis sobre el comportamiento humano a gran escala y velocidad.
Tradicionalmente, las ciencias sociales se basan en una variedad de métodos, incluidos cuestionarios, pruebas de comportamiento, estudios de observación y experimentos. Un objetivo común en la investigación de las ciencias sociales es obtener una representación generalizada de las características de los individuos, grupos, culturas y su dinámica. Con la llegada de los sistemas avanzados de IA, el panorama de la recopilación de datos en las ciencias sociales puede cambiar.
«Los modelos de IA pueden representar una amplia gama de experiencias y perspectivas humanas, lo que posiblemente les dé un mayor grado de libertad para generar respuestas diversas que los métodos convencionales de participantes humanos, lo que puede ayudar a reducir las preocupaciones de generalización en la investigación», dijo Grossmann.
«Los LLM podrían suplantar a los participantes humanos para la recopilación de datos», dijo el profesor de psicología de UPenn, Philip Tetlock. «De hecho, los LLM ya han demostrado su capacidad para generar respuestas de encuestas realistas sobre el comportamiento del consumidor. Los modelos de lenguaje extenso revolucionarán el pronóstico basado en humanos en los próximos 3 años. No tendrá sentido que los humanos sin la ayuda de IA aventuren juicios probabilísticos en debates políticos serios. Le doy un 90% de posibilidades a eso. Por supuesto, cómo reaccionan los humanos a todo eso es otra cuestión».
Si bien las opiniones sobre la viabilidad de esta aplicación de sistemas avanzados de IA varían, los estudios que utilizan participantes simulados podrían usarse para generar hipótesis novedosas que luego podrían confirmarse en poblaciones humanas.
Pero los investigadores advierten sobre algunas de las posibles trampas de este enfoque, incluido el hecho de que los LLM a menudo están capacitados para excluir los sesgos socioculturales que existen para los humanos de la vida real. Esto significa que los sociólogos que usan IA de esta manera no podrían estudiar esos sesgos.
La profesora Dawn Parker, coautora del artículo de la Universidad de Waterloo, señala que los investigadores deberán establecer pautas para la gobernanza de los LLM en la investigación.
«Las preocupaciones pragmáticas con la calidad de los datos, la equidad y la equidad de acceso a los poderosos sistemas de IA serán sustanciales», dijo Parker. «Por lo tanto, debemos asegurarnos de que los LLM de ciencias sociales, como todos los modelos científicos, sean de código abierto, lo que significa que sus algoritmos e, idealmente, los datos estén disponibles para que todos los analicen, prueben y modifiquen. Solo manteniendo la transparencia y la replicabilidad podemos garantizar que La investigación en ciencias sociales asistida por IA realmente contribuye a nuestra comprensión de la experiencia humana».