Pedro Cade | Piedra | Imágenes falsas
La gran mayoría de los europeos apoya el uso de inteligencia artificial para operaciones policiales y militares, según un nuevo informe de la Universidad IE de Madrid compartido con CNBC.
«European Tech Insights», que midió las actitudes de más de 3.000 personas en Europa, encontró que el 75% apoya el uso de tecnologías de inteligencia artificial, como el reconocimiento facial y los datos biométricos, por parte de la policía y el ejército con fines de vigilancia.
El alcance del apoyo tal vez sea sorprendente, ya que Europa cuenta con algunas de las regulaciones de privacidad de datos más estrictas del mundo. En 2018, la Unión Europea introdujo el Reglamento General de Protección de Datos, o GDPR, un marco que rige la forma en que las organizaciones almacenan y procesan la información de los usuarios.
Las empresas se enfrentan a fuertes multas por violar las normas. Una empresa que infrinja las leyes del RGPD puede recibir una multa de hasta el 4% de sus ingresos globales anuales, o 20 millones de euros (21,7 millones de dólares), la cantidad que sea mayor.
«No está claro que el público haya pensado en las ramificaciones de estos [AI] aplicaciones», dijo a CNBC Ikhlaq Sidhu, decano de la Facultad de Ciencia y Tecnología de la Universidad IE.
Según el informe, el nivel de apoyo al uso de la IA en tareas de servicio público, como la optimización del tráfico, fue aún mayor, alcanzando el 79%.
Sin embargo, cuando se trata de cuestiones delicadas, como las decisiones de libertad condicional, la mayoría de los europeos (64%) se oponen al uso de la IA.
Manipulación de las elecciones por parte de la IA
A pesar del apoyo a la IA en materia de administración pública y seguridad, la gente parece estar mucho más preocupada por su papel en el proceso democrático.
El informe de IE University encontró que la gran mayoría de los europeos (67%) temen la manipulación de la IA en las elecciones.
La IA puede utilizarse como amplificador de información errónea, y algunos usuarios intentan deliberadamente utilizar información falsa para subvertir las opiniones de otros. Una preocupación clave es que los llamados deepfakes, imágenes sintéticas, vídeos o clips de audio creados con inteligencia artificial puedan utilizarse para tergiversar las opiniones de los políticos o difundir otros tipos de información errónea.
Las plataformas de IA generativa, como Dall-E de OpenAI y Midjourney de Stability AI, se pueden utilizar para crear imágenes con solo unas pocas líneas de texto, por ejemplo. CNBC se ha puesto en contacto con OpenAI y Stability para solicitar comentarios.
«La IA y los deepfakes son los últimos ejemplos de una tendencia de desinformación y pérdida de verificabilidad», dijo Sidhu a CNBC. «Esta tendencia ha ido creciendo desde el comienzo de Internet, las redes sociales y los algoritmos de búsqueda basados en inteligencia artificial».
De hecho, alrededor del 31% de los europeos cree que la IA ya ha influido en sus decisiones de votación, según el informe. Se produce cuando las elecciones estadounidenses de 2024 se acercan rápidamente, con la actual vicepresidenta Kamala Harris compitiendo contra el expresidente Donald Trump en la votación programada para el 5 de noviembre.
División generacional
El informe de IE University también encontró una división generacional en IA en Europa.
Aproximadamente un tercio (34%) de las personas de entre 18 y 34 años confiarían en una aplicación impulsada por IA para votar por los políticos en su nombre. Esta cifra cae al 29% para las personas de 35 a 44 años, y a sólo el 9% para las personas de 65 años o más.