El director ejecutivo de Open AI, Sam Altman.
Gana Mcnamee | Getty Images Noticias | Getty Images
La Comisión Federal de Comercio está investigando al fabricante de ChatGPT, OpenAI, para comprender si la empresa ha violado las leyes de protección al consumidor.
El Washington Post, que fue el primero en informar la noticia, publicó la demanda de investigación civil de 20 páginas de la FTC, similar a una citación, que describe los puntos clave de la investigación. Una fuente familiarizada con el asunto confirmó la autenticidad del documento a CNBC. La FTC se negó a comentar.
La FTC dice en el documento que la investigación se centrará en si OpenAI ha «participado en prácticas injustas o engañosas de privacidad o seguridad de datos» o «participó en prácticas injustas o engañosas relacionadas con los riesgos de daño a los consumidores, incluido el daño a la reputación, en violación de Sección 5 de la Ley de la FTC».
La inteligencia artificial se ha convertido en un tema candente en Washington, ya que los legisladores intentan comprender si se necesitan nuevas leyes para proteger la propiedad intelectual y los datos de los consumidores en la era de la IA generativa, que requiere conjuntos de datos masivos para aprender. La FTC y otras agencias han enfatizado que ya tienen autoridad legal para perseguir el daño creado por AI.
La investigación también es un ejemplo de que la FTC es proactiva en su supervisión de una tecnología relativamente incipiente, en línea con el objetivo declarado de la presidenta Lina Khan de ser «progresista» y prestar atención a las «tecnologías de próxima generación».
El CID le pide a OpenAI que enumere a los terceros que tienen acceso a sus modelos de lenguaje grande, sus diez principales clientes o licenciantes, explique cómo retienen y usan la información del consumidor, cómo obtienen información para capacitar a sus LLM y más. El documento también pregunta cómo OpenAI evalúa el riesgo en los LLM y cómo monitorea y trata las declaraciones engañosas o despectivas sobre las personas.
El CID solicita a OpenAI que proporcione información sobre un error que la compañía reveló en marzo de 2020 que «permitió a algunos usuarios ver títulos del historial de chat de otro usuario activo» y «puede haber causado la visibilidad involuntaria de la información relacionada con el pago del 1,2% de los suscriptores de ChatGPT Plus que estuvieron activos durante una ventana específica de nueve horas».
El CEO de OpenAI, Sam Altman, ha recibido una cálida bienvenida en Washington hasta este momento, y los legisladores elogiaron su apertura para discutir la tecnología y solicitar regulaciones al respecto. Pero algunos expertos en IA han advertido que los formuladores de políticas también deben ser conscientes de que la empresa tiene sus propios incentivos para articular su visión de la regulación y los instaron a involucrar a un conjunto diverso de voces.
altman escribió en Twitter que «es muy decepcionante ver que la solicitud de la FTC comienza con una filtración y no ayuda a generar confianza».
«[W]Construimos GPT-4 además de años de investigación de seguridad y pasamos más de 6 meses después de que terminamos el entrenamiento inicial haciéndolo más seguro y más alineado antes de lanzarlo. protegemos la privacidad del usuario y diseñamos nuestros sistemas para aprender sobre el mundo, no sobre individuos privados”, agregó.[W]Somos transparentes sobre las limitaciones de nuestra tecnología, especialmente cuando nos quedamos cortos».
VEA: Invertir en IA: qué considerar