Con la evolución acelerada de la tecnología, la inteligencia artificial (IA) juega un papel cada vez más importante en los procesos de toma de decisiones. Los humanos dependen cada vez más de los algoritmos para procesar información, recomendar ciertos comportamientos e incluso tomar medidas en su nombre. Un equipo de investigación ha estudiado cómo reaccionan los humanos ante la introducción de la toma de decisiones de IA. Específicamente, exploraron la pregunta, «¿está lista la sociedad para la toma de decisiones éticas de la IA?» mediante el estudio de la interacción humana con los coches autónomos.
El equipo publicó sus hallazgos el 6 de mayo de 2022 en el Revista de economía conductual y experimental.
En el primero de dos experimentos, los investigadores presentaron a 529 sujetos humanos un dilema ético al que podría enfrentarse un conductor. En el escenario que crearon los investigadores, el conductor del automóvil tenía que decidir si chocar el automóvil contra un grupo de personas u otro: la colisión era inevitable. El accidente causaría graves daños a un grupo de personas, pero salvaría la vida del otro grupo. Los sujetos del estudio tenían que calificar la decisión del conductor del automóvil, cuando el conductor era un humano y también cuando el conductor era una IA. Este primer experimento fue diseñado para medir el sesgo que las personas podrían tener en contra de la toma de decisiones éticas de la IA.
En su segundo experimento, 563 sujetos humanos respondieron a las preguntas de los investigadores. Los investigadores determinaron cómo reaccionan las personas al debate sobre las decisiones éticas de la IA una vez que se vuelven parte de las discusiones sociales y políticas. En este experimento, hubo dos escenarios. Uno involucró a un gobierno hipotético que ya había decidido permitir que los autos autónomos tomaran decisiones éticas. Su otro escenario permitió a los sujetos «votar» si permitían que los autos autónomos tomaran decisiones éticas. En ambos casos, los sujetos podían optar por estar a favor o en contra de las decisiones tomadas por la tecnología. Este segundo experimento fue diseñado para probar el efecto de dos formas alternativas de introducir la IA en la sociedad.
Los investigadores observaron que cuando se les pidió a los sujetos que evaluaran las decisiones éticas de un conductor humano o de IA, no tenían una preferencia definitiva por ninguno. Sin embargo, cuando se les preguntó a los sujetos su opinión explícita sobre si se debe permitir que un conductor tome decisiones éticas en la carretera, los sujetos tuvieron una opinión más fuerte en contra de los autos operados por IA. Los investigadores creen que la discrepancia entre los dos resultados se debe a una combinación de dos elementos.
El primer elemento es que las personas individuales creen que la sociedad en su conjunto no quiere que la IA tome decisiones éticas, por lo que asignan un peso positivo a sus creencias cuando se les pide su opinión sobre el asunto. «De hecho, cuando se pide explícitamente a los participantes que separen sus respuestas de las de la sociedad, la diferencia entre la permisibilidad de la IA y los conductores humanos se desvanece», dijo Johann Caro-Burnett, profesor asistente en la Escuela de Graduados en Humanidades y Ciencias Sociales de Hiroshima. Universidad.
El segundo elemento es que al introducir esta nueva tecnología en la sociedad, permitir la discusión del tema tiene resultados mixtos dependiendo del país. «En las regiones donde las personas confían en su gobierno y tienen instituciones políticas sólidas, la información y el poder de toma de decisiones mejoran la forma en que los sujetos evalúan las decisiones éticas de la IA. Por el contrario, en las regiones donde las personas no confían en su gobierno y tienen instituciones políticas débiles, la decisión- capacidad de toma de decisiones deteriora la forma en que los sujetos evalúan las decisiones éticas de la IA», dijo Caro-Burnett.
«Descubrimos que existe un miedo social a la toma de decisiones éticas de la IA. Sin embargo, la fuente de este miedo no es intrínseca a las personas. De hecho, este rechazo a la IA proviene de lo que las personas creen que es la opinión de la sociedad», dijo Shinji Kaneko, profesor de la Escuela de Graduados en Humanidades y Ciencias Sociales de la Universidad de Hiroshima y de la Red para la Educación y la Investigación sobre la Paz y la Sostenibilidad. Entonces, cuando no se les pregunta explícitamente, las personas no muestran signos de parcialidad contra la toma de decisiones éticas de AI. Sin embargo, cuando se les pregunta explícitamente, las personas muestran aversión a la IA. Además, donde se agrega discusión e información sobre el tema, la aceptación de la IA mejora en los países desarrollados y empeora en los países en desarrollo.
Los investigadores creen que este rechazo a una nueva tecnología, que se debe principalmente a la incorporación de las creencias de los individuos sobre la opinión de la sociedad, probablemente se aplique a otras máquinas y robots. «Por lo tanto, será importante determinar cómo agregar las preferencias individuales en una preferencia social. Además, esta tarea también tendrá que ser diferente entre países, como sugieren nuestros resultados», dijo Kaneko.
Fuente de la historia:
Materiales proporcionado por Universidad de Hiroshima. Nota: el contenido se puede editar por estilo y longitud.