En un nuevo estudio, los participantes tendieron a culpar más a las inteligencias artificiales (IA) involucradas en transgresiones morales en el mundo real cuando percibieron que las IA tenían mentes más parecidas a las humanas. Minjoo Joo de la Universidad de Mujeres Sookmyung en Seúl, Corea, presenta estos hallazgos en la revista de acceso abierto. MÁS UNO el 18 de diciembre de 2024.
Investigaciones anteriores han revelado una tendencia de la gente a culpar a la IA por diversas transgresiones morales, como en los casos en que un vehículo autónomo atropelló a un peatón o decisiones que causaron daños médicos o militares. Investigaciones adicionales sugieren que las personas tienden a culpar más a las IA que se consideran capaces de tomar conciencia, pensar y planificar. Es más probable que las personas atribuyan tales capacidades a las IA que consideran que tienen mentes humanas que pueden experimentar sentimientos conscientes.
Sobre la base de esa investigación anterior, Joo planteó la hipótesis de que las IA que se percibe que tienen mentes similares a las humanas pueden recibir una mayor parte de culpa por una transgresión moral determinada.
Para probar esta idea, Joo llevó a cabo varios experimentos en los que a los participantes se les presentaron varios casos del mundo real de transgresiones morales que involucraban a las IA, como el etiquetado automático racista de fotos, y se les hicieron preguntas para evaluar su percepción mental de la IA involucrada. , así como hasta qué punto culparon a la IA, a su programador, a la empresa detrás de ella o al gobierno. En algunos casos, la percepción mental de la IA se manipuló describiendo el nombre, la edad, la altura y el pasatiempo de la IA.
A lo largo de los experimentos, los participantes tendieron a culpar considerablemente más a una IA cuando percibieron que tenía una mente más humana. En estos casos, cuando se pidió a los participantes que distribuyeran la culpa relativa, tendieron a asignar menos culpa a la empresa involucrada. Pero cuando se les pidió que calificaran el nivel de culpa de forma independiente para cada agente, no hubo reducción en la culpa asignada a la empresa.
Estos hallazgos sugieren que la percepción mental de la IA es un factor crítico que contribuye a la atribución de culpa por las transgresiones que involucran a la IA. Además, Joo plantea preocupaciones sobre las consecuencias potencialmente dañinas del uso indebido de las IA como chivos expiatorios y pide más investigaciones sobre la atribución de culpas a las IA.
El autor añade: «¿Se puede responsabilizar a las IA por transgresiones morales? Esta investigación muestra que percibir la IA como humana aumenta la culpa hacia la IA al tiempo que reduce la culpa hacia las partes interesadas humanas, lo que genera preocupaciones sobre el uso de la IA como chivo expiatorio moral».