La Unión Europea es hasta ahora la única jurisdicción a nivel mundial en impulsar reglas integrales para la inteligencia artificial con su acto de IA.
JAQUE SILVA | Nurphoto | Getty Images
La Unión Europea inició formalmente la aplicación de su histórica ley de inteligencia artificial el domingo, allanando el camino para restricciones difíciles y posibles grandes multas por violaciones.
La Ley de AI de la UE, un marco regulatorio para la tecnología para la tecnología, entró formalmente en vigor en agosto de 2024.
El domingo, la fecha límite para las prohibiciones de ciertos sistemas y requisitos de inteligencia artificial para garantizar suficiente alfabetización tecnológica entre el personal oficialmente caducado.
Eso significa que las empresas ahora deben cumplir con las restricciones y pueden enfrentar sanciones si no lo hacen.
La Ley AI prohíbe ciertas aplicaciones de IA que considera que posa «riesgo inaceptable» para los ciudadanos.
Esos incluyen sistemas de puntuación social, reconocimiento facial en tiempo real y otras formas de identificación biométrica que clasifican a las personas por raza, vida sexual, orientación sexual y otros atributos, y herramientas de IA «manipulativas».
Empresas Multas de cara de hasta 35 millones de euros ($ 35.8 millones) o el 7% de sus ingresos anuales globales, cualquier cantidad que sea mayor, por infracciones de la Ley de AI de la UE.
El tamaño de las sanciones dependerá de la infracción y el tamaño de la empresa multada.
Eso es más alto que las multas posibles bajo el GDPRLa estricta ley de privacidad digital de Europa. Las empresas enfrentan multas de hasta 20 millones de euros o 4% de la facturación global anual por infracciones de GDPR.
‘No perfecto’ pero ‘muy necesario’
Vale la pena enfatizar que el acto de IA todavía no está en plena vigencia: este es solo el primer paso en una serie de muchos desarrollos futuros.
Tasos Stampelos, jefe de política pública de la UE y relaciones gubernamentales en Mozilla, dijo a CNBC anteriormente que, si bien no es «no es perfecto», la Ley de IA de la UE es «muy necesaria».
«Es muy importante reconocer que la Ley de IA es predominantemente una legislación de seguridad de productos», dijo Stampelos en un panel moderado por CNBC en noviembre.
«Con las reglas de seguridad del producto, en el momento en que lo tiene en su lugar, no es un trato hecho. Hay muchas cosas que vienen y siguiendo después de la adopción de un acto», dijo.
«En este momento, el cumplimiento dependerá de cómo las normas, las directrices, la legislación secundaria o los instrumentos derivados que sigan la Ley de IA, que en realidad estipularán cómo se ve el cumplimiento», agregó Stampelos.
En diciembre, la Oficina de AI de la UE, un organismo recién creado que regula el uso de modelos de acuerdo con la Ley de AI, publicó un código de práctica de segundo draft para modelos de IA de uso general (GPAI), que se refiere a sistemas como la familia GPT de OpenAI. de modelos de idiomas grandes, o LLM.
El segundo borrador contenía exenciones para proveedores de ciertos modelos de IA de código abierto al tiempo que incluye el requisito de desarrolladores de modelos GPAI «sistémicos» para someterse a evaluaciones de riesgos rigurosos.
¿Establecer el estándar global?
Varios ejecutivos de tecnología e inversores no están contentos con algunos de los aspectos más onerados de la Ley de IA y preocupaciones de que podría estrangular la innovación.
En junio de 2024, el Príncipe Constantijn de los Países Bajos le dijo a CNBC en una entrevista que está «realmente preocupado» por el enfoque de Europa en regular la IA.
«Nuestra ambición parece estar limitada a ser buenos reguladores», dijo Constantijn. «Es bueno tener barandas. Queremos aportar claridad al mercado, la previsibilidad y todo eso. Pero es muy difícil hacerlo en un espacio tan rápido».
Aún así, algunos piensan que tener reglas claras para la IA podría dar ventaja de Liderazgo de Europa.
«Mientras que Estados Unidos y China compiten para construir los modelos de IA más grandes, Europa muestra liderazgo en la construcción de los más confiables», dijo Diyan Bogdanov, director de inteligencia y crecimiento de la ingeniería de la firma búlgara FinTech Payhawk, por correo electrónico.
«Los requisitos de la Ley de AI de la UE en torno a la detección de sesgos, las evaluaciones de riesgos regulares y la supervisión humana no limitan la innovación – Están definiendo cómo se ve bien «, agregó.