25 de mayo de 2024
2 mins read

Los gigantes tecnológicos prometen compromisos de seguridad con la IA, incluido un ‘interruptor de apagado’ si no pueden mitigar los riesgos

Las principales empresas de tecnología, incluidas microsoft, Amazonasy OpenAI, se unieron en un acuerdo internacional histórico sobre seguridad de la inteligencia artificial en la Cumbre de Seguridad de la IA de Seúl el martes.

A la luz del acuerdo, empresas de varios países, incluidos EE. UU., China, Canadá, el Reino Unido, Francia, Corea del Sur y los Emiratos Árabes Unidos, asumirán compromisos voluntarios para garantizar el desarrollo seguro de sus modelos de IA más avanzados.

Cuando aún no lo han hecho, los fabricantes de modelos de IA acordaron publicar marcos de seguridad que establezcan cómo medirán los desafíos de sus modelos fronterizos, como prevenir el uso indebido de la tecnología por parte de malos actores.

Estos marcos incluirán «líneas rojas» para las empresas de tecnología que definen los tipos de riesgos asociados con los sistemas de inteligencia artificial de vanguardia, que se considerarían «intolerables». Estos riesgos incluyen, entre otros, ataques cibernéticos automatizados y la amenaza de armas biológicas.

Para responder a circunstancias tan extremas, las empresas dijeron que planean implementar un «interruptor de apagado» que detendría el desarrollo de sus modelos de IA si no pueden garantizar la mitigación de estos riesgos.

«Es una primicia mundial que tantas empresas líderes en IA de tantas partes diferentes del mundo acuerden los mismos compromisos en materia de seguridad de la IA», dijo el martes Rishi Sunak, primer ministro del Reino Unido, en un comunicado.

«Estos compromisos garantizan que las principales empresas de IA del mundo proporcionen transparencia y responsabilidad en sus planes para desarrollar una IA segura», añadió.

El pacto del martes amplía un conjunto anterior de compromisos asumidos por empresas involucradas en el desarrollo de software de inteligencia artificial generativa en noviembre pasado.

Las empresas acordaron recibir información sobre estos umbrales de «actores confiables», incluidos sus gobiernos de origen, según corresponda, antes de publicarlos antes de la próxima cumbre de IA planificada, la Cumbre de Acción de IA en Francia, a principios de 2025.

Los compromisos acordados el martes se aplican únicamente a los llamados modelos de frontera. Este término se refiere a la tecnología detrás de los sistemas de IA generativa, como la familia GPT de grandes modelos de lenguaje de OpenAI, que impulsa el popular chatbot de IA ChatGPT.

Desde que ChatGPT se presentó por primera vez al mundo en noviembre de 2022, los reguladores y líderes tecnológicos están cada vez más preocupados por los riesgos que rodean a los sistemas avanzados de inteligencia artificial capaces de generar texto y contenido visual a la par o mejores que los humanos.

La Unión Europea ha tratado de frenar el desarrollo desenfrenado de la IA con la creación de su Ley de IA, que fue aprobada por el Consejo de la UE el martes.

Sin embargo, el Reino Unido no ha propuesto leyes formales para la IA, sino que ha optado por un enfoque «ligero» para la regulación de la IA que implica que los reguladores apliquen las leyes existentes a la tecnología.

El gobierno dijo recientemente que consideraría legislar para modelos fronterizos en el futuro, pero no se ha comprometido con un cronograma para introducir leyes formales.

Fuente

Previous Story

Rachas de carrera: ¿es realmente seguro correr todos los días?

Next Story

El presidente de la Comisión de la UA enfatiza la necesidad de una reforma en África

Lo último de

¿Dónde está el centro del universo?

El universo es innegablemente vasto y, desde nuestra perspectiva, puede parecer que la Tierra está en medio de todo. Pero, ¿existe un centro del cosmos y, de ser así, dónde está? Si
Ir aArriba

No se pierda