El proyecto de ley, que habría sido la primera ley de IA en Estados Unidos, habría exigido a las empresas de tecnología probar modelos y habría brindado protección a los trabajadores como denunciantes.
El gobernador de California Gavin Newsom vetó un proyecto de ley histórico El objetivo era establecer medidas de seguridad pioneras en el país para grandes modelos de inteligencia artificial (IA), a las que varias empresas de tecnología expresaron su oposición.
La decisión del domingo es un duro golpe a los esfuerzos que intentan controlar la industria local que está evolucionando rápidamente con poca supervisión.
la factura Habría establecido algunas de las primeras regulaciones sobre modelos de IA a gran escala en el país y allanado el camino para regulaciones de seguridad de IA en todo el país, dijeron sus partidarios.
A principios de este mes, el gobernador demócrata dijo a una audiencia en Dreamforce, una conferencia anual organizada por el gigante del software Salesforce, que California debe liderar la regulación de la IA ante la inacción federal, pero que la propuesta «puede tener un efecto paralizador en la industria».
La propuesta, que generó una feroz oposición de nuevas empresas, gigantes tecnológicos y varios miembros demócratas de la Cámara de Representantes, podría haber perjudicado a la industria local al establecer requisitos rígidos, dijo Newsom.
El plan alternativo
Newsom anunció el domingo que el estado se asociaría con varios expertos de la industria, incluido el pionero de la IA Fei-Fei Li, para desarrollar barreras protectoras en torno a potentes modelos de IA. Li se opuso a la propuesta de seguridad de la IA.
La medida, destinada a reducir los riesgos potenciales creados por la IA, habría requerido que las empresas probaran sus modelos y divulgaran públicamente sus protocolos de seguridad para evitar que los modelos fueran manipulados para, por ejemplo, acabar con la red eléctrica del estado o ayudar a construir armas químicas.
Los expertos dicen que esos escenarios podrían ser posibles en el futuro a medida que la industria siga avanzando rápidamente. También habría brindado protección a los trabajadores como denunciantes.
El autor del proyecto de ley, el senador estatal demócrata Scott Weiner, calificó el veto como «un revés para todos los que creen en la supervisión de corporaciones masivas que están tomando decisiones críticas que afectan la seguridad y el bienestar del público y el futuro del planeta».
«Las empresas que desarrollan sistemas avanzados de IA reconocen que los riesgos que estos modelos presentan al público son reales y aumentan rápidamente. Si bien los grandes laboratorios de IA han asumido compromisos admirables para monitorear y mitigar estos riesgos, la verdad es que los compromisos voluntarios de la industria no son ejecutables. y rara vez funcionan bien para el público», dijo Wiener en un comunicado el domingo.
Wiener dijo que el debate en torno al proyecto de ley ha hecho avanzar dramáticamente la cuestión de la seguridad de la IA y que continuaría insistiendo en ese punto.
La legislación se encuentra entre una serie de proyectos de ley aprobados por la Legislatura este año para regular la IA, combatir los deepfakes y proteger a los trabajadores. Los legisladores estatales dijeron que California debe tomar medidas este año, citando duras lecciones que aprendieron al no controlar a las empresas de redes sociales cuando podrían haber tenido la oportunidad.
¿Qué había en el proyecto de ley de IA de California?
Los defensores de la medida, incluidos Elon Musk y Anthropic, dijeron que la propuesta podría haber inyectado algunos niveles de transparencia y responsabilidad en torno a los modelos de IA a gran escala, ya que los desarrolladores y expertos dicen que todavía no tienen una comprensión completa de cómo se comportan y por qué.
El proyecto de ley apuntaba a sistemas que requieren un alto nivel de potencia informática y más de 100 millones de dólares (90 millones de euros) para su construcción. Ningún modelo actual de IA ha alcanzado ese umbral, pero algunos expertos dijeron que eso podría cambiar durante el próximo año.
«Esto se debe al enorme aumento de la inversión dentro de la industria», dijo Daniel Kokotajlo, un ex investigador de OpenAI que renunció en abril por lo que vio como una indiferencia de la compañía hacia los riesgos de la IA.
«Es una enorme cantidad de poder tener el control inexplicable de cualquier empresa privada, y también es increíblemente arriesgado».
Estados Unidos ya está detrás de Europa en la regulación de la IA para limitar los riesgos. La propuesta de California no era tan completa como las regulaciones en Europa, pero habría sido un buen primer paso para establecer barreras en torno a la tecnología de rápido crecimiento que está generando preocupaciones sobre la pérdida de empleos, la desinformación, las invasiones de la privacidad y el sesgo de automatización, dijeron los partidarios.
El año pasado, varias empresas líderes en inteligencia artificial aceptaron voluntariamente seguir las salvaguardias establecidas por la Casa Blanca, como probar y compartir información sobre sus modelos. El proyecto de ley de California habría obligado a los desarrolladores de IA a seguir requisitos similares a esos compromisos, dijeron los partidarios de la medida.
Pero los críticos, incluida la ex presidenta de la Cámara de Representantes de Estados Unidos, Nancy Pelosi, argumentaron que el proyecto de ley «mataría a la tecnología de California» y asfixiaría la innovación. Dijeron que habría disuadido a los desarrolladores de IA de invertir en modelos grandes o compartir software de código abierto.
La decisión de Newsom de vetar el proyecto de ley marca otra victoria en California para las grandes empresas tecnológicas y los desarrolladores de IA, muchos de los cuales pasaron el año pasado presionando junto a la Cámara de Comercio de California para influir en el gobernador y los legisladores para que no avanzaran en las regulaciones de IA.
Otras dos propuestas radicales de IA, que también enfrentaron una creciente oposición de la industria tecnológica y otros, fracasaron antes de la fecha límite legislativa el mes pasado.
Los proyectos de ley habrían requerido que los desarrolladores de IA etiquetaran el contenido generado por IA y prohibieran la discriminación en las herramientas de IA utilizadas para tomar decisiones laborales.
‘No va a desaparecer’
El gobernador dijo a principios de este verano que quería proteger el estatus de California como líder mundial en IA, y señaló que 32 de las 50 principales empresas de IA del mundo están ubicadas en el estado.
Ha promovido a California como uno de los primeros en adoptar, ya que el estado pronto podría implementar herramientas de inteligencia artificial generativa para abordar la congestión de las carreteras, brindar orientación fiscal y optimizar los programas para personas sin hogar.
El estado también anunció el mes pasado una asociación voluntaria con el gigante de la inteligencia artificial Nvidia para ayudar a capacitar a estudiantes, profesores universitarios, desarrolladores y científicos de datos. California también está considerando nuevas reglas contra la discriminación por IA en las prácticas de contratación.
Pero incluso con el veto de Newsom, la propuesta de seguridad de California está inspirando a legisladores de otros estados a adoptar medidas similares, dijo Tatiana Rice, subdirectora del Future of Privacy Forum, una organización sin fines de lucro que trabaja con legisladores en propuestas de tecnología y privacidad.
«Posiblemente lo copiarán o harán algo similar en la próxima sesión legislativa», dijo Rice. «Así que no va a desaparecer».