Sam Altman, Director Ejecutivo de OpenAI, durante un chat de Fireside organizado por SoftBank Ventures Asia en Seúl, Corea del Sur, el viernes 9 de junio de 2023.
Seongjoon Cho | Bloomberg | Getty Images
Un grupo de ex empleados abiertos, premios Nobel, profesores de derecho y organizaciones de la sociedad civil enviaron una carta la semana pasada a los Fiscales Generales en California y Delaware solicitando que detuvieran los esfuerzos de reestructuración de la startup por preocupaciones de seguridad.
En la carta, que se entregó a la junta de OpenAi el martes, el grupo escribió que la reestructuración a una entidad con fines de lucro «subvertiría el propósito caritativo de OpenAI» y «eliminaría el control sin fines de lucro y eliminaría las salvaguardas de gobernanza críticas».
«Ningún precio de venta puede compensar la pérdida de control», escribió el grupo.
Openai, que fue creada como un laboratorio de investigación de inteligencia artificial sin fines de lucro en 2015, ha estado comercializando productos en los últimos años, especialmente su chatgpt chatgpt viral chatbot. La compañía todavía es supervisada por un padre sin fines de lucro, pero anunció el año pasado que se convertiría en un empresa con fines de lucroArrancar el control de la organización sin fines de lucro pero mantenerla como un brazo separado.
El cambio, que requiere la aprobación del principal patrocinador Microsoft Y el Fiscal General de California, eliminaría algunas restricciones potenciales a medida que la compañía asumiera competidores, incluidas Microsoft, Google, Amazon y Elon Musk’s XAI.
El esfuerzo provocó controversia entre los empleados de Operai y los líderes de IA, ya que parecía contradecir la misión y los principios fundadores de la compañía. Desde entonces, varios ejecutivos de la compañía se han ido y han comenzado sus propias compañías de IA.
«Operai puede algún día construir tecnología que pudiera matarnos a todos», dijo Nisan Stiennon, quien trabajó en OpenAi desde 2018 hasta 2020, en un comunicado. «Es para el crédito de OpenAI que está controlado por una organización sin fines de lucro con un deber hacia la humanidad. Este deber impide que renuncie a ese control».
Jacob Hilton, quien trabajó en OpenAi desde 2018 hasta 2023, dijo que durante su tiempo en la compañía, «el liderazgo enfatizó repetidamente que el deber fiduciario principal de Openii es la humanidad».
«Afirmaron que esta era una promesa legalmente vinculante, consagrada en la carta de la compañía y aplicada a través de su estructura corporativa», dijo Hilton en un comunicado. «Ahora están proponiendo abandonar esa promesa fundamental».
Un portavoz de Operai dijo que al convertirse en una entidad con fines de lucro, la compañía tendrá una estructura similar a los competidores como Anthrope y XAI.
«Nuestra junta ha sido muy clara: nuestra organización sin fines de lucro se fortalecerá y cualquier cambio en nuestra estructura existente estaría en servicio para garantizar que el público en general pueda beneficiarse de la IA», dijo el portavoz en un correo electrónico.
Los artículos de incorporación de OpenAI incluyen un propósito caritativo «para garantizar que la inteligencia general artificial beneficie a toda la humanidad» en lugar de avanzar «la ganancia privada de cualquier persona». AGI es una rama de IA que equivale o supera el intelecto humano en una amplia gama de tareas, que OpenAi y sus rivales persiguen rápidamente.
La presión sobre OpenAI está vinculada en parte a su reciente valoración de $ 300 mil millones, lograda el mes pasado como parte de su ronda de financiación de $ 40 mil millones dirigida por SoftBank. La financiación podría reducirse hasta $ 10 mil millones si la compañía no se reestructura en una entidad con fines de lucro antes del 31 de diciembre.
Operai también se ha enfrentado a obstáculos significativos debido en gran medida a Musk, quien cofundó Openai y desde entonces se ha convertido en uno de los principales adversarios de Altman en una acalorada batalla legal sobre la decisión de la compañía de convertirse en A para obtener ganancias.
Un grupo de 12 ex empleados de Openai, en apoyo de la demanda de Musk, solicitó el permiso de un tribunal a principios de este mes para compartir sus preocupaciones sobre la reestructuración de la compañía.
Geoffrey Hinton, un científico informático y laureado Nobel, aclaró que el grupo que envió la carta esta semana no está conectado a la demanda de Musk.
«Me gusta la misión de Openai de ‘asegurar que la inteligencia general artificial beneficie a toda la humanidad’ y
Me gustaría que ejecutaran esa misión en lugar de enriquecer a sus inversores «, dijo Hinton en un comunicado.» Estoy feliz de que haya un esfuerzo por mantener OpenAi a su misión que no involucra a Elon Musk «.
El grupo escribió en la carta que el control sin fines de lucro sobre cómo se desarrolla y gobierna AGI es vital para la misión de OpenAI, y que eliminar dicho control «violaría el deber fiduciario especial adeudado a los beneficiarios de la organización sin fines de lucro» y amenazaría su propósito caritativo.
El equipo de superalineación de Openai, anunciado en 2023 y disuelto el año pasado, se había centrado en «avances científicos y técnicos para dirigir y controlar los sistemas de IA mucho más inteligentes que nosotros». En ese momento, Openai dijo que cometería el 20% de su poder informático a la iniciativa durante cuatro años. Pero el esfuerzo terminó después de que los líderes del equipo, el cofundador de Operai, Ilya Sutskever y Jan Leike, anunciaron sus salidas.
Jason Green-Lowe, director ejecutivo del Centro para la Política de AI, dijo en un comunicado que incluso bajo la estructura actual de OpenAI, pudo alejarse de su promesa de dejar de lado el 20% de su cálculo para la investigación de seguridad.
«Si así es como se comporta OpenAi cuando todavía está sujeto a la supervisión sin fines de lucro, es aterrador imaginar cómo se comportarán después de que se les libere para concentrarse por completo en maximizar las ganancias», dijo Green-Lowe en su declaración. «Esta no es una empresa que desea ver comenzar a comportarse con una responsabilidad aún menos social: las apuestas son demasiado altas».
MIRAR: OpenAi considerando construir una red social
