Acelerador Intel Gaudi3 AI el jueves 14 de diciembre de 2023. Intel anunció nuevos chips para PC y centros de datos que la compañía espera que le brinden una porción mayor del floreciente mercado de hardware de inteligencia artificial.
Bloomberg | Bloomberg | Getty Images
Los estados miembros de la Unión Europea dieron el martes un acuerdo final a la primera ley importante del mundo para regular la inteligencia artificial, mientras instituciones de todo el mundo se apresuran a introducir restricciones a la tecnología.
El Consejo de la UE dijo que había aprobado la Ley de Inteligencia Artificial, una ley regulatoria innovadora que establece reglas integrales en torno a la tecnología de inteligencia artificial.
«La adopción de la ley sobre IA es un hito importante para la Unión Europea», dijo el martes Mathieu Michel, secretario de Estado de Digitalización de Bélgica.
«Con la ley de IA, Europa enfatiza la importancia de la confianza, la transparencia y la responsabilidad cuando se trata de nuevas tecnologías y, al mismo tiempo, garantiza que esta tecnología en rápida evolución pueda florecer e impulsar la innovación europea», añadió Michel.
La Ley de IA aplica a la inteligencia artificial un enfoque basado en el riesgo, lo que significa que las diferentes aplicaciones de la tecnología se tratan de manera diferente, dependiendo de las amenazas percibidas que representan para la sociedad.
La ley prohíbe las aplicaciones de IA que se consideren «inaceptables» en términos de su nivel de riesgo. Estas aplicaciones cuentan con los llamados sistemas de «puntuación social» que clasifican a los ciudadanos basándose en la agregación y el análisis de sus datos, vigilancia policial predictiva y reconocimiento emocional en el lugar de trabajo y las escuelas.
Los sistemas de IA de alto riesgo cubren vehículos autónomos o dispositivos médicos, que se evalúan en función de los riesgos que suponen para la salud, la seguridad y los derechos fundamentales de los ciudadanos. También incluyen aplicaciones de la IA en los servicios financieros y la educación, donde existe el riesgo de sesgo incorporado en los algoritmos de la IA.
Las grandes empresas tecnológicas estadounidenses en el punto de mira
Matthew Holman, socio del bufete de abogados Cripps, dijo que las reglas tendrán importantes implicaciones para cualquier persona o entidad que desarrolle, cree, utilice o revenda IA en la UE, con las empresas tecnológicas estadounidenses firmemente en el punto de mira.
«La IA de la UE no se parece a ninguna ley de ningún otro lugar del mundo», afirmó Holman. «Crea por primera vez un régimen regulatorio detallado para la IA».
«Los gigantes tecnológicos estadounidenses han estado siguiendo de cerca el desarrollo de esta ley», añadió Holman. «Ha habido una gran cantidad de financiación para sistemas de IA generativa de cara al público que deberán garantizar el cumplimiento de la nueva ley que, en algunos lugares, es bastante onerosa».
La Comisión de la UE tendrá el poder de multar a las empresas que violen la Ley de IA con hasta 35 millones de euros (38 millones de dólares) o el 7% de sus ingresos globales anuales, lo que sea mayor.
El cambio en la ley de la UE se produce después del lanzamiento de ChatGPT por parte de OpenAI en noviembre de 2022. Los funcionarios se dieron cuenta en ese momento de que la legislación existente carecía de los detalles necesarios para abordar las capacidades avanzadas de la tecnología emergente de IA generativa y los riesgos relacionados con el uso de material protegido por derechos de autor.
Un largo camino hacia la implementación
La ley impone duras restricciones a los sistemas de IA generativa, a los que la UE se refiere como IA de «propósito general». Estos incluyen requisitos para respetar la ley de derechos de autor de la UE, divulgaciones de transparencia sobre cómo se entrenan los modelos, pruebas de rutina y protecciones adecuadas de ciberseguridad.
Pero pasará algún tiempo antes de que estos requisitos realmente entren en vigor, según Dessi Savova, socia de Clifford Chance. Las restricciones a los sistemas de propósito general no comenzarán hasta 12 meses después de que la Ley de IA entre en vigor.
E incluso entonces, los sistemas de IA generativa que actualmente están disponibles comercialmente, como ChatGPT de OpenAI, Gemini de Google y Copilot de Microsoft, obtienen un «período de transición» que les da 36 meses a partir del día de su entrada en vigor para que su tecnología cumpla con la legislación. .
«Se ha llegado a un acuerdo sobre la Ley de IA, y ese reglamento está a punto de convertirse en realidad», dijo Savova a CNBC por correo electrónico. «Ahora, la atención debe centrarse en la implementación y el cumplimiento efectivos de la Ley de IA».