Un grupo internacional de médicos y expertos en salud pública se ha sumado al clamor por una moratoria en la investigación de IA hasta que el desarrollo y uso de la tecnología estén adecuadamente regulados.
A pesar de su potencial transformador para la sociedad, incluso en la medicina y la salud pública, ciertos tipos y aplicaciones de la IA, incluida la IA de propósito general (AGI) de mejora automática, representan una «amenaza existencial para la humanidad», advierten en la revista de acceso abierto. BMJ Salud Global.
Destacan tres conjuntos de amenazas asociadas con el mal uso de la IA y la falla continua para anticipar, adaptar y regular los impactos transformadores de la tecnología en la sociedad.
El primero de ellos proviene de la capacidad de la IA para limpiar, organizar y analizar rápidamente conjuntos de datos masivos que consisten en datos personales, incluidas las imágenes.
Esto puede usarse para manipular el comportamiento y subvertir la democracia, explican, citando su papel en la subversión de las elecciones de Kenia de 2013 y 2017, las elecciones presidenciales de EE. UU. de 2016 y las elecciones presidenciales de Francia de 2017.
«Cuando se combinan con la capacidad que mejora rápidamente para distorsionar o tergiversar la realidad con falsificaciones profundas, los sistemas de información impulsados por IA pueden socavar aún más la democracia al causar una ruptura general de la confianza o al impulsar la división social y el conflicto, con los consiguientes impactos en la salud pública», sostienen. .
Los gobiernos y otros actores poderosos también pueden utilizar la vigilancia impulsada por IA para controlar y oprimir a las personas de manera más directa, un ejemplo de lo cual es el Sistema de Crédito Social de China, señalan.
Este sistema combina software de reconocimiento facial y análisis de repositorios de «big data» de transacciones financieras, movimientos, registros policiales y relaciones sociales de las personas.
Pero China no es el único país que desarrolla vigilancia de IA: al menos otros 75, «desde democracias liberales hasta regímenes militares, han estado expandiendo tales sistemas», destacan.
El segundo conjunto de amenazas se refiere al desarrollo de sistemas letales de armas autónomas (LAWS), capaces de localizar, seleccionar y atacar objetivos humanos sin necesidad de supervisión humana.
LAWS se puede conectar a pequeños dispositivos móviles, como drones, y se puede producir en masa a bajo costo y se puede configurar fácilmente para matar «a escala industrial», advierten los autores.
El tercer conjunto de amenazas surge de la pérdida de empleos que acompañará el despliegue generalizado de la tecnología de IA, con estimaciones que van desde decenas a cientos de millones durante la próxima década.
«Aunque habría muchos beneficios al terminar el trabajo que es repetitivo, peligroso y desagradable, ya sabemos que el desempleo está fuertemente asociado con resultados y comportamientos de salud adversos», señalan.
Hasta la fecha, el aumento de la automatización solo ha tendido a trasladar los ingresos y la riqueza del trabajo a los propietarios del capital, lo que ayuda a contribuir a la distribución desigual de la riqueza en todo el mundo, señalan.
«Además, no sabemos cómo responderá psicológica y emocionalmente la sociedad a un mundo donde el trabajo no está disponible o es innecesario, ni estamos pensando mucho en las políticas y estrategias que serían necesarias para romper la asociación entre el desempleo y la mala salud», dijeron. destacar.
Pero la amenaza que plantea la AGI que se mejora a sí misma, que, en teoría, podría aprender y realizar la gama completa de tareas humanas, lo abarca todo, sugieren.
«Ahora buscamos crear máquinas que sean mucho más inteligentes y poderosas que nosotros. El potencial de tales máquinas para aplicar esta inteligencia y poder, ya sea deliberadamente o no, de manera que pueda dañar o subyugar a los humanos, es real y debe ser desarrollado». consideró.
«Si se realiza, la conexión de AGI a Internet y al mundo real, incluso a través de vehículos, robots, armas y todos los sistemas digitales que controlan cada vez más nuestras sociedades, bien podría representar el ‘mayor evento en la historia de la humanidad'», escriben.
«Con el crecimiento exponencial de la investigación y el desarrollo de IA, se está cerrando la ventana de oportunidad para evitar daños graves y potencialmente existenciales. Los resultados futuros del desarrollo de IA y AGI dependerán de las decisiones políticas que se tomen ahora y de la eficacia de las instituciones reguladoras que tenemos. diseño para minimizar el riesgo y el daño y maximizar el beneficio», enfatizan.
Se necesitará acuerdo y cooperación internacional, así como evitar una «carrera armamentista» de IA mutuamente destructiva, insisten. Y los profesionales de la salud tienen un papel clave en la sensibilización y la alarma sobre los riesgos y amenazas que plantea la IA.
«Si la IA alguna vez cumple su promesa de beneficiar a la humanidad y la sociedad, debemos proteger la democracia, fortalecer nuestras instituciones de interés público y diluir el poder para que haya controles y equilibrios efectivos.
«Esto incluye garantizar la transparencia y la responsabilidad de las partes del complejo industrial militar-corporativo que impulsan los desarrollos de IA y las empresas de redes sociales que están permitiendo que la información errónea dirigida e impulsada por IA socave nuestras instituciones democráticas y los derechos a la privacidad», concluyen.
Más información:
Amenazas de la inteligencia artificial a la salud humana y la existencia humana, BMJ Salud Global (2023). DOI: 10.1136/bmjgh-2022-010435
Citación: Médicos y expertos en salud pública se unen a los llamados para detener la I+D en IA hasta que esté regulada (9 de mayo de 2023) consultado el 9 de mayo de 2023 en https://medicalxpress.com/news/2023-05-doctors-health-experts-halt-ai .html
Este documento está sujeto a derechos de autor. Aparte de cualquier trato justo con fines de estudio o investigación privados, ninguna parte puede reproducirse sin el permiso por escrito. El contenido se proporciona únicamente con fines informativos.