El director ejecutivo de OpenAI, Sam Altman, habla durante la conferencia Microsoft Build en la sede de Microsoft en Redmond, Washington, el 21 de mayo de 2024.
Jason Redmond | AFP | Imágenes Getty
OpenAI dijo el lunes que su Comité de Seguridad y Protección, que la compañía introdujo en mayo mientras lidiaba con una controversia sobre los procesos de seguridad, se convertirá en un comité independiente de supervisión de la junta.
El grupo estará presidido por Zico Kolter, director del departamento de aprendizaje automático de la facultad de informática de la Universidad Carnegie Mellon. También lo integrarán Adam D’Angelo, miembro de la junta directiva de OpenAI y cofundador de Quora; el exdirector de la NSA y miembro de la junta directiva Paul Nakasone, y Nicole Seligman, exvicepresidenta ejecutiva de Sony.
El comité supervisará «los procesos de seguridad y protección que guían la implementación y el desarrollo del modelo de OpenAI», dijo la empresa. Recientemente concluyó su revisión de 90 días en la que evaluó los procesos y las salvaguardas de OpenAI y luego hizo recomendaciones a la junta. OpenAI está publicando los hallazgos del grupo como un informe público. Entrada de blog.
OpenAI, el Microsoft-startup respaldada por ChatGPT y Búsqueda en GPTactualmente está buscando una ronda de financiación que valoraría a la compañía en más de 150 mil millones de dólares, según fuentes familiarizadas con la situación que pidieron no ser identificadas porque los detalles de la ronda no se han hecho públicos. Thrive Capital está liderando la ronda y planea invertir 1.000 millones de dólares, y Tiger Global también planea unirse. Microsoft, Nvidia y Apple están según se informa También en conversaciones para invertir.
Las cinco recomendaciones clave del comité incluyeron la necesidad de establecer una gobernanza independiente para la seguridad, mejorar las medidas de seguridad, ser transparente sobre el trabajo de OpenAI, colaborar con organizaciones externas y unificar los marcos de seguridad de la empresa.
La semana pasada, OpenAI lanzó o1, una versión preliminar de su nuevo modelo de IA centrado en el razonamiento y la «resolución de problemas difíciles». La empresa afirmó que el comité «revisó los criterios de seguridad que OpenAI utilizó para evaluar la idoneidad de OpenAI o1 para el lanzamiento», así como los resultados de la evaluación de seguridad.
El comité «junto con la junta en pleno, ejercerá la supervisión sobre los lanzamientos de modelos, incluida la autoridad para retrasar un lanzamiento hasta que se aborden los problemas de seguridad».
Si bien OpenAI ha estado en modo de hipercrecimiento desde fines de 2022, cuando lanzó ChatGPT, se ha visto plagado simultáneamente de controversias y salidas de empleados de alto nivel, y algunos empleados actuales y anteriores están preocupados de que la empresa esté creciendo demasiado rápido para operar de manera segura.
En julio, los senadores demócratas enviaron una carta al director ejecutivo de OpenAI, Sam Altman, sobre «preguntas sobre cómo OpenAI está abordando las preocupaciones de seguridad emergentes». El mes anterior, un grupo de empleados actuales y anteriores de OpenAI publicó un carta abierta describiendo las preocupaciones sobre la falta de supervisión y la ausencia de protección para los denunciantes que desean hablar.
Y en mayo, un ex miembro de la junta directiva de OpenAI, hablando sobre la destitución temporal de Altman en noviembre, dijo que le dio a la junta «información inexacta sobre la pequeña cantidad de procesos de seguridad formales que la empresa tenía implementados» en múltiples ocasiones.
Ese mes, OpenAI decidió disolver su equipo centrado en los riesgos a largo plazo de la IA, apenas un año después de anunciar la creación del grupo. Los líderes del equipo, Ilya Sutskever y Jan Leike, anunciaron su salida de OpenAI en mayo. Leike escribió en una publicación en X que «la cultura y los procesos de seguridad de OpenAI han quedado en segundo plano frente a los productos brillantes».
MIRAR: OpenAI es líder indiscutible en el superciclo de IA