La Autoridad de Protección de Datos de Italia descubrió que OpenAI utilizó datos personales para entrenar su IA sin «una base legal adecuada» para hacerlo.
El organismo de control de protección de datos de Italia ha multado a OpenAI con 15 millones de euros después de completar una investigación de recopilación de datos personales en el chatbot de inteligencia artificial de la compañía, ChatGPT.
La Autoridad Italiana de Protección de Datos (Garante) dijo OpenAI utilizó datos personales entrenar ChatGPT «sin tener una base legal adecuada y violó el principio de transparencia y las obligaciones de información relacionadas hacia los usuarios».
OpenAI tampoco proporcionó un «sistema de verificación de edad adecuado» para evitar que los usuarios menores de 13 años estuvieran expuestos a contenido inapropiado generado por IA, continuó la investigación.
La autoridad italiana está pidiendo a OpenAI que lance una campaña de seis meses en los medios locales para crear conciencia sobre cómo la empresa recopila datos personales.
«ChatGPT «Los usuarios y no usuarios deben ser conscientes de cómo oponerse al entrenamiento de inteligencia artificial generativa con sus datos personales y, por lo tanto, estar efectivamente en condiciones de ejercer sus derechos bajo el Reglamento General de Protección de Datos (GDPR)», señala el informe. leer.
La decisión sobre las marcas OpenAI es «desproporcionada»
Garante tenía previamente bloqueó temporalmente el uso de ChatGPT debido a preocupaciones de privacidad mientras la autoridad investigaba una posible violación de datos en 2023.
En una declaración enviada por correo electrónico, OpenAI calificó la decisión de «desproporcionada» y dijo que apelará.
Un portavoz de OpenAI dijo que la multa fue «casi 20 veces» los ingresos que obtuvo en Italia durante el mismo año.
La compañía añadió que seguía «comprometida a trabajar con las autoridades de privacidad de todo el mundo para ofrecer una IA beneficiosa que respete los derechos de privacidad».
Los reguladores de EE. UU. y Europa han estado examinando OpenAI y otras empresas que han desempeñado un papel clave en el auge de la IA, mientras que los gobiernos de todo el mundo han estado elaborando normas para protegerse contra los riesgos planteados por los sistemas de IA, liderados por el Ley de IA de la Unión Europeaun libro de reglas completo para la inteligencia artificial.