Se ha dejado que las empresas privadas desarrollen tecnología de inteligencia artificial a una velocidad vertiginosa, lo que ha dado lugar a sistemas como ChatGPT de OpenAI respaldado por Microsoft y Bard de Google.
Lionel Buenaventura | AFP | Getty Images
Un comité clave de legisladores en el Parlamento Europeo ha aprobado una regulación de inteligencia artificial, la primera de su tipo, lo que la acerca más a convertirse en ley.
La aprobación marca un hito en la carrera entre las autoridades para controlar la IA, que está evolucionando a una velocidad vertiginosa. La ley, conocida como Ley Europea de IA, es la primera ley para sistemas de IA en Occidente. China ya ha desarrollado un borrador de reglas diseñado para administrar cómo las empresas desarrollan productos de IA generativa como ChatGPT.
La ley adopta un enfoque basado en el riesgo para regular la IA, donde las obligaciones de un sistema son proporcionales al nivel de riesgo que plantea.
Las reglas también especifican los requisitos para los proveedores de los llamados «modelos básicos» como ChatGPT, que se han convertido en una preocupación clave para los reguladores, dado lo avanzados que se están volviendo y los temores de que incluso los trabajadores calificados sean desplazados.
¿Qué dicen las reglas?
La Ley de IA clasifica las aplicaciones de IA en cuatro niveles de riesgo: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo o nulo.
Las aplicaciones de riesgo inaceptable están prohibidas de forma predeterminada y no se pueden implementar en el bloque.
Incluyen:
- Sistemas de IA que utilizan técnicas subliminales o técnicas de manipulación o engañosas para distorsionar el comportamiento
- Sistemas de IA que explotan las vulnerabilidades de individuos o grupos específicos
- Sistemas de categorización biométrica basados en atributos o características sensibles
- Sistemas de inteligencia artificial utilizados para la calificación social o la evaluación de la confiabilidad
- Sistemas de IA utilizados para evaluaciones de riesgo que predicen infracciones penales o administrativas
- Sistemas de IA que crean o expanden bases de datos de reconocimiento facial a través de raspado no dirigido
- Sistemas de inteligencia artificial que infieren emociones en la aplicación de la ley, la gestión de fronteras, el lugar de trabajo y la educación
Varios legisladores habían pedido que las medidas fueran más costosas para garantizar que cubran ChatGPT.
Con ese fin, se han impuesto requisitos a los «modelos básicos», como los modelos de lenguaje grande y la IA generativa.
Los desarrolladores de modelos básicos deberán aplicar controles de seguridad, medidas de gobernanza de datos y mitigaciones de riesgos antes de hacer públicos sus modelos.
También se les exigirá que se aseguren de que los datos de capacitación utilizados para informar a sus sistemas no violen la ley de derechos de autor.
«Los proveedores de tales modelos de IA deberían tomar medidas para evaluar y mitigar los riesgos para los derechos fundamentales, la salud y la seguridad y el medio ambiente, la democracia y el estado de derecho», dijo Ceyhun Pehlivan, abogado de Linklaters y codirector del bufete de abogados. grupo de práctica de telecomunicaciones, medios y tecnología e IP en Madrid, dijo a CNBC.
«También estarían sujetos a requisitos de gobernanza de datos, como examinar la idoneidad de las fuentes de datos y los posibles sesgos».
Es importante enfatizar que, si bien la ley ha sido aprobada por los legisladores del Parlamento Europeo, está muy lejos de convertirse en ley.
¿Porqué ahora?
Se ha dejado que las empresas privadas desarrollen tecnología de inteligencia artificial a una velocidad vertiginosa, lo que ha dado lugar a sistemas como microsoftChatGPT de OpenAI respaldado y Bard de Google.
Google anunció el miércoles una serie de nuevas actualizaciones de IA, incluido un modelo de lenguaje avanzado llamado PaLM 2, que según la compañía supera a otros sistemas líderes en algunas tareas.
Los novedosos chatbots de IA como ChatGPT han cautivado a muchos tecnólogos y académicos con su capacidad para producir respuestas similares a las humanas a las indicaciones de los usuarios con la tecnología de grandes modelos de lenguaje entrenados en cantidades masivas de datos.
Pero la tecnología de IA ha existido durante años y está integrada en más aplicaciones y sistemas de lo que podría pensar. Determina qué videos virales o imágenes de alimentos ve en su TikTok o Instagram, por ejemplo.
El objetivo de las propuestas de la UE es proporcionar algunas reglas del camino para las empresas y organizaciones de IA que utilizan IA.
Reacción de la industria tecnológica
Las reglas han generado preocupaciones en la industria tecnológica.
La Asociación de la Industria de la Computación y las Comunicaciones dijo que le preocupaba que el alcance de la Ley de IA se hubiera ampliado demasiado y que pudiera detectar formas de IA que son inofensivas.
«Es preocupante ver que amplias categorías de aplicaciones útiles de IA, que plantean riesgos muy limitados, o ninguno en absoluto, ahora enfrentarán requisitos estrictos, o incluso podrían prohibirse en Europa», dijo Boniface de Champris, gerente de políticas de CCIA Europa. le dijo a CNBC por correo electrónico.
«La propuesta original de la Ley de IA de la Comisión Europea adopta un enfoque basado en el riesgo, regulando sistemas específicos de IA que plantean un riesgo claro», agregó de Champris.
«Los eurodiputados ahora han introducido todo tipo de enmiendas que cambian la naturaleza misma de la Ley de IA, que ahora asume que categorías muy amplias de IA son inherentemente peligrosas».
Lo que dicen los expertos
Dessi Savova, directora para Europa continental del grupo de tecnología del bufete de abogados Clifford Chance, dijo que las reglas de la UE establecerían un «estándar global» para la regulación de la IA. Sin embargo, agregó que otras jurisdicciones, incluidas China, EE. UU. y el Reino Unido, están desarrollando rápidamente sus propias respuestas.
«El alcance de brazo largo de las reglas de IA propuestas significa inherentemente que los jugadores de IA en todos los rincones del mundo deben preocuparse», dijo Savova a CNBC por correo electrónico.
«La pregunta correcta es si la Ley de IA establecerá el único estándar para la IA. China, EE. UU. y el Reino Unido, por nombrar algunos, están definiendo sus propias políticas de IA y enfoques regulatorios. Sin lugar a dudas, todos observarán de cerca las negociaciones de la Ley de IA en adaptando sus propios enfoques».
Savova agregó que el último borrador de la Ley de IA del Parlamento convertiría en ley muchos de los principios éticos de IA que las organizaciones han estado impulsando.
Sarah Chander, asesora principal de políticas de European Digital Rights, un grupo de campaña de derechos digitales con sede en Bruselas, dijo que las leyes requerirían que los modelos básicos como ChatGPT «se sometan a requisitos de prueba, documentación y transparencia».
“Si bien estos requisitos de transparencia no erradicarán las preocupaciones económicas y de infraestructura con el desarrollo de estos vastos sistemas de inteligencia artificial, sí requieren que las empresas de tecnología divulguen la cantidad de potencia de cómputo requerida para desarrollarlos”, dijo Chander a CNBC.
«Actualmente hay varias iniciativas para regular la IA generativa en todo el mundo, como China y Estados Unidos», dijo Pehlivan.
«Sin embargo, es probable que la Ley de IA de la UE desempeñe un papel fundamental en el desarrollo de tales iniciativas legislativas en todo el mundo y lleve a la UE a convertirse nuevamente en un emisor de estándares en la escena internacional, de manera similar a lo que sucedió en relación con los Datos Generales. Reglamento de Protección”.