Esta ilustración fotográfica muestra el logotipo de ChatGPT en una oficina en Washington, DC, el 15 de marzo de 2023.
Stefani Reynolds | AFP | Getty Images
Italia se ha convertido en el primer país de Occidente en prohibir ChatGPT, el popular chatbot de inteligencia artificial de la startup estadounidense OpenAI.
La semana pasada, el organismo de control italiano de protección de datos ordenó a OpenAI que dejara de procesar temporalmente los datos de los usuarios italianos en medio de una investigación sobre una supuesta violación de las estrictas normas de privacidad de Europa.
El regulador, también conocido como Garante, citó una violación de datos en OpenAI que permitía a los usuarios ver los títulos de las conversaciones que otros usuarios tenían con el chatbot.
«Parece que no hay una base legal que sustente la recopilación y el procesamiento masivos de datos personales para ‘entrenar’ los algoritmos en los que se basa la plataforma», dijo Garante en un comunicado el viernes.
Garante también señaló su preocupación por la falta de restricciones de edad en ChatGPT y cómo el chatbot puede proporcionar información objetivamente incorrecta en sus respuestas.
OpenAI, que está respaldado por microsoftcorre el riesgo de enfrentarse a una multa de 20 millones de euros (21,8 millones de dólares), o el 4% de sus ingresos anuales globales, si no presenta remedios a la situación en 20 días.
Italia no es el único país que tiene en cuenta el rápido ritmo de progresión de la IA y sus implicaciones para la sociedad. Otros gobiernos están elaborando sus propias reglas para la IA, que, ya sea que mencionen o no la IA generativa, sin duda lo tocarán. La IA generativa se refiere a un conjunto de tecnologías de IA que generan contenido nuevo en función de las indicaciones de los usuarios. Es más avanzado que las iteraciones anteriores de IA, gracias en gran parte a los nuevos modelos de lenguaje grande, que se entrenan en grandes cantidades de datos.
Durante mucho tiempo ha habido llamados para que la IA se enfrente a la regulación. Pero el ritmo al que ha progresado la tecnología es tal que está resultando difícil para los gobiernos mantenerse al día. Las computadoras ahora pueden crear arte realista, escribir ensayos completos o incluso generar líneas de código, en cuestión de segundos.
«Tenemos que tener mucho cuidado de no crear un mundo en el que los humanos estén de alguna manera subordinados a un futuro de máquinas más grande», dijo Sophie Hackford, futurista y asesora de innovación tecnológica global del fabricante estadounidense de equipos agrícolas John Deere, al programa «Squawk» de CNBC. Box Europa» el lunes.
«La tecnología está aquí para servirnos. Está ahí para hacer que nuestro diagnóstico de cáncer sea más rápido o para que los humanos no tengan que hacer trabajos que no queremos hacer».
«Necesitamos pensarlo con mucho cuidado ahora, y debemos actuar en consecuencia ahora, desde una perspectiva de regulación», agregó.
Varios reguladores están preocupados por los desafíos que plantea la IA para la seguridad laboral, la privacidad de los datos y la igualdad. También existe la preocupación de que la IA avanzada manipule el discurso político mediante la generación de información falsa.
Muchos gobiernos también están comenzando a pensar en cómo lidiar con los sistemas de propósito general como ChatGPT, y algunos incluso están considerando unirse a Italia para prohibir la tecnología.
Bretaña
La semana pasada, el Reino Unido anunció planes para regular la IA. En lugar de establecer nuevas regulaciones, el gobierno pidió a los reguladores de diferentes sectores que aplicaran las regulaciones existentes a la IA.
Las propuestas del Reino Unido, que no mencionan a ChatGPT por su nombre, describen algunos principios clave que deben seguir las empresas al usar IA en sus productos, incluida la seguridad, la transparencia, la equidad, la responsabilidad y la impugnabilidad.
Gran Bretaña no está proponiendo en esta etapa restricciones en ChatGPT, o cualquier tipo de IA para el caso. En cambio, quiere asegurarse de que las empresas desarrollen y utilicen herramientas de inteligencia artificial de manera responsable y brinden a los usuarios suficiente información sobre cómo y por qué se toman ciertas decisiones.
En un discurso ante el Parlamento el miércoles pasado, la ministra digital, Michelle Donelan, dijo que la repentina popularidad de la IA generativa mostró que los riesgos y las oportunidades que rodean a la tecnología están «emergiendo a un ritmo extraordinario».
Al adoptar un enfoque no estatutario, el gobierno podrá «responder rápidamente a los avances en IA e intervenir más si es necesario», agregó.
Dan Holmes, líder de prevención de fraudes en Feedzai, que usa IA para combatir los delitos financieros, dijo que la principal prioridad del enfoque del Reino Unido era abordar «cómo se ve un buen uso de IA».
“Es más, si estás usando IA, estos son los principios en los que deberías pensar”, dijo Holmes a CNBC. «Y a menudo se reduce a dos cosas, que es la transparencia y la equidad».
Los Estados unidos
Se espera que el resto de Europa adopte una postura mucho más restrictiva sobre la IA que sus homólogos británicos, que se han ido apartando cada vez más de las leyes digitales de la UE tras la retirada del Reino Unido del bloque.
La Unión Europea, que suele estar a la vanguardia en lo que respecta a la regulación tecnológica, ha propuesto una legislación pionera sobre IA.
Conocida como la Ley Europea de IA, las reglas restringirán en gran medida el uso de IA en infraestructura crítica, educación, aplicación de la ley y el sistema judicial.
Funcionará en conjunto con el Reglamento General de Protección de Datos de la UE. Estas reglas regulan cómo las empresas pueden procesar y almacenar datos personales.
Cuando se ideó por primera vez el acto de IA, los funcionarios no habían tenido en cuenta el vertiginoso progreso de los sistemas de IA capaces de generar arte, historias, chistes, poemas y canciones impresionantes.
De acuerdo a Reuters, el proyecto de normas de la UE considera que ChatGPT es una forma de IA de propósito general utilizada en aplicaciones de alto riesgo. Los sistemas de IA de alto riesgo son definido por la comisión como aquellas que puedan afectar a los derechos fundamentales oa la seguridad de las personas.
Se enfrentarían a medidas que incluyen evaluaciones de riesgo estrictas y un requisito para acabar con la discriminación que surge de los algoritmos de alimentación de conjuntos de datos.
«La UE tiene una gran y profunda bolsa de experiencia en IA. Tienen acceso a algunos de los mejores talentos del mundo, y no es una conversación nueva para ellos». Max Heinemeyerdirector de producto de Darktrace, dijo a CNBC.
«Vale la pena confiar en ellos para que tengan en cuenta lo mejor de los estados miembros y sean plenamente conscientes de las posibles ventajas competitivas que estas tecnologías podrían aportar frente a los riesgos».
Pero mientras Bruselas elabora leyes para la IA, algunos países de la UE ya están analizando las acciones de Italia en ChatGPT y debatiendo si seguir su ejemplo.
«En principio, un procedimiento similar también es posible en Alemania”, dijo Ulrich Kelber, Comisionado Federal de Protección de Datos de Alemania, al periódico Handelsblatt.
Los reguladores de privacidad de Francia e Irlanda se han puesto en contacto con sus homólogos en Italia para obtener más información sobre sus hallazgos, informó Reuters. La autoridad de protección de datos de Suecia descartó una prohibición. Italia puede seguir adelante con tal acción ya que OpenAI no tiene una sola oficina en la UE.
Irlanda suele ser el regulador más activo en lo que respecta a la privacidad de datos, ya que la mayoría de los gigantes tecnológicos estadounidenses como Meta y Google tienen sus oficinas allí.
A NOSOTROS
Estados Unidos aún no ha propuesto ninguna regla formal para supervisar la tecnología de IA.
El Instituto Nacional de Ciencia y Tecnología del país publicó un marco nacional que brinda a las empresas que utilizan, diseñan o implementan sistemas de inteligencia artificial una guía sobre la gestión de riesgos y daños potenciales.
Pero se ejecuta de forma voluntaria, lo que significa que las empresas no enfrentarían consecuencias por no cumplir con las reglas.
Hasta ahora, no ha habido noticias de ninguna acción que se haya tomado para limitar ChatGPT en los EE. UU.
El mes pasado, la Comisión Federal de Comercio recibió una queja de un grupo de investigación sin fines de lucro que alegaba que GPT-4, el último modelo de lenguaje extenso de OpenAI, es «sesgado, engañoso y un riesgo para la privacidad y la seguridad pública» y viola las pautas de IA de la agencia.
La queja podría conducir a una investigación sobre OpenAI y a la suspensión del despliegue comercial de sus modelos de lenguaje grande. La FTC se negó a comentar.
Porcelana
ChatGPT no está disponible en China, ni en varios países con una fuerte censura en Internet, como Corea del Norte, Irán y Rusia. No está bloqueado oficialmente, pero OpenAI no permite que los usuarios del país se registren.
Varias grandes empresas de tecnología en China están desarrollando alternativas. Baidu, Alibaba y JD.com, algunas de las firmas tecnológicas más grandes de China, han anunciado planes para los rivales de ChatGPT.
China se ha esforzado por garantizar que sus gigantes tecnológicos estén desarrollando productos en línea con sus estrictas regulaciones.
El mes pasado, Beijing introdujo la primera regulación de su tipo sobre los llamados deepfakes, imágenes, videos o texto generados sintéticamente o alterados hechos con IA.
Los reguladores chinos introdujeron previamente reglas que rigen la forma en que las empresas operan los algoritmos de recomendación. Uno de los requisitos es que las empresas deben presentar los detalles de sus algoritmos ante el regulador del ciberespacio.
Tales regulaciones podrían, en teoría, aplicarse a cualquier tipo de tecnología de estilo ChatGPT.
– Arjun Kharpal de CNBC contribuyó a este informe