En 2017, el gigante chino de Internet Tencent eliminó su chatbot Baby Q después de que se refirió al gobierno como un «régimen corrupto» y afirmó que no amaba al Partido Comunista Chino.
Dijo que soñaba con emigrar a los Estados Unidos, en una muestra indudablemente aterradora de comportamiento indisciplinado y desleal de la IA hacia el Partido Comunista Chino.
Beijing está tratando de hacerlo bien esta vez, aunque probablemente no se puede confiar en la IA.
De hecho, China está adoptando un enfoque tan diferente al de Occidente para regular la inteligencia artificial que algunos defensores de la gobernanza de la IA temen que China pueda seguir su propio camino, con resultados potencialmente desastrosos.
La semana pasada, China actualizó un proyecto de ley de abril sobre inteligencia artificial, lo que lo convierte en uno de los primeros países del mundo en regular servicios como ChatGPT.
La Administración del Ciberespacio de China dio a conocer reglas actualizadas para administrar los chatbots orientados al consumidor. La nueva ley entra en vigor el 15 de agosto.
Las nuevas medidas todavía se describen como «provisionales», ya que China intenta reinar en la IA doméstica sin sofocar la innovación. Algunos expertos en inteligencia artificial expresaron su sorpresa de que las leyes más recientes sean menos estrictas que las versiones preliminares anteriores.
Pero las nuevas reglas solo se aplican al público en general. La IA desarrollada para fines de investigación, para uso militar y para uso de usuarios en el extranjero está exenta.
De hecho, es el enfoque opuesto al de EE. UU., que ha desarrollado reglas para aplicaciones militares impulsadas por IA, pero ha permitido que el sector privado publique modelos generativos de IA como ChatGPT y Bard sin regulación.
El hecho es que, le guste o no a China, la IA generativa, basada en bases de datos muy, muy grandes extraídas de Internet, conocidas como «modelos de lenguaje grande», hace cosas extrañas, e incluso sus desarrolladores no saben por qué.
No se sabe cómo piensa. Algunos expertos lo llaman una «inteligencia alienígena».
próxima cumbre
Sir Patrick Vallance, ex director científico del Reino Unido, ha pedido al gobierno británico que se asegure de que China esté en la lista cuando celebre la primera conferencia mundial sobre la regulación de la IA a finales de este año.
Pero si China debería participar está resultando divisivo.
Dado el papel de liderazgo de China en el desarrollo de la nueva tecnología, vallance dijo se necesitaba su experiencia.
«Nunca es sensato excluir a las personas que están liderando en ciertas áreas y que están haciendo un trabajo muy importante en IA y también plantean algunas preguntas legítimas sobre cómo se responde a eso, pero no me parece sensato excluirlos». él dijo.
Según una publicación en el sitio web de gobernabilidad.aialgunos dicen que la cumbre puede ser la única oportunidad para garantizar que la gobernanza global de la IA incluya a China, dado que probablemente será excluida de otros lugares, como la OCDE y el G7.
El argumento es que China probablemente rechazará cualquier principio de gobernanza global que los estados occidentales comiencen a elaborar sin su aporte.
El contraargumento es que la participación de China podría hacer que la cumbre sea menos productiva.
“Invitar a China puede… hacer que la cumbre sea menos productiva al aumentar el nivel de desacuerdo y el potencial de discordia entre los participantes”, argumentó la publicación de gobierno.ai.
“También puede haber algunos temas de discusión importantes que no se explorarían tan libremente con representantes chinos en la sala”, destacando la obstinación china en puntos de interés propio, como es el caso igualmente del calentamiento global y las amenazas a Taiwán.
En un reciente cumbre de las naciones unidaslos oradores destacaron la urgencia de la gobernanza de la IA.
“Tiene el potencial de impulsar el desarrollo económico, monitorear la crisis climática, lograr avances en la investigación médica [but also] amplificar el sesgo, reforzar la discriminación y permitir nuevos niveles de vigilancia autoritaria”, dijo un orador.
El orador agregó: “La IA ofrece una gran oportunidad para monitorear los acuerdos de paz, pero puede caer fácilmente en manos de malos actores e incluso crear riesgos de seguridad por accidente. La IA generativa tiene potencial para el bien y el mal a escala”.
El papel del sector privado en la IA tiene pocos otros paralelos en términos de tecnologías estratégicas, incluida la nuclear, se escuchó en la cumbre.
Jack Clark, cofundador del desarrollador de IA Anthropic, dijo en la cumbre que incluso los desarrolladores no entienden cómo funcionan realmente los sistemas de IA basados en «mente profunda» o «modelos de lenguaje amplio» (modelos informáticos de comportamiento cerebral sináptico).
“Es como construir motores sin entender la ciencia de la combustión”, dijo.
“Una vez que estos sistemas se desarrollan e implementan, los usuarios encuentran nuevos usos para ellos que sus desarrolladores no anticiparon”.
El otro problema, dijo Clark, es el comportamiento caótico e impredecible, en referencia a la propensión de la IA a «alucinar» o, en términos sencillos, fabricar cosas: mentir para complacer a quien le hace las preguntas.
“Los desarrolladores tienen que ser responsables, para que no construyan sistemas que comprometan la seguridad global”, argumentó.
En otras palabras, la IA es un experimento audaz que Beijing, que controla todo, normalmente cortaría de raíz en una fase incipiente.
Pero tal es la naturaleza competitiva de lograr el dominio de la IA de todo el conocimiento del mundo y extrapolarlo a un nuevo mundo, nadie, ni siquiera Xi Jinping, quiere perderse.
Riesgo existencial
En mayo de este año, cientos de expertos en IA firmó una carta abierta.
“Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear”, dijo el declaración de una oración dicho.
Para algunos, fue una sorpresa que una cantidad tan grande de expertos que fueron fundamentales para llevar la IA a donde está hoy, esencialmente pidieron una moratoria en el desarrollo, o al menos una desaceleración y el escrutinio del gobierno de los jugadores del sector privado que compiten por vencen entre sí por el «santo grial» de la IA general, o la IA que puede hacer todo mejor que los humanos.
«Los sistemas de hoy en día no están ni cerca de representar un riesgo existencial», dijo Yoshua Bengio, profesor e investigador de IA en la Universidad de Montreal, a quien a veces se le llama el padrino de la IA. New York Times.
“¿Pero en uno, dos, cinco años? Hay demasiada incertidumbre. Ese es el problema. No estamos seguros de que esto no llegue a un punto en el que las cosas se vuelvan catastróficas”.
“La gente está tratando activamente de construir sistemas que se mejoren a sí mismos”, dijo Connor Leahy, fundador de Conjecture, otra firma de tecnología de IA.
“Actualmente, esto no funciona. Pero algún día, lo hará. Y no sabemos cuándo es ese día”.
Leahy señala que, dado que tanto las empresas como los delincuentes asignan objetivos a la IA como «ganar algo de dinero», «podrían terminar irrumpiendo en los sistemas bancarios, fomentando la revolución en un país donde tienen futuros del petróleo o replicándose a sí mismos cuando alguien intenta apagarlos». le dijo al Times.
Otros riesgos
escribiendo para el Revisión de tecnología del MIT, el ex CEO de Google, Eric Schmidt, escribe: “La IA es una herramienta tan poderosa porque permite a los humanos lograr más con menos: menos tiempo, menos educación, menos equipo. Pero estas capacidades lo convierten en un arma peligrosa en las manos equivocadas.
«Incluso los humanos con buenas intenciones pueden provocar que las IA produzcan malos resultados», agregó.
Schmidt señaló el dilema del clip: se le dice a una IA hipotética que haga tantos clips como sea posible y rápidamente «secuestra la red eléctrica y mata a cualquier humano que intente detenerla mientras los clips se siguen acumulando» hasta que el mundo entero sea un almacenamiento. sitio para clips de papel.
Pero aún hay más riesgos: una carrera armamentista impulsada por IA, por ejemplo.
El representante chino en la cumbre de la ONU, por ejemplo, señaló que EE. UU. estaba restringiendo el suministro de chips semiconductores a China y preguntó: ¿cómo van a ponerse de acuerdo EE. UU. y China sobre la gobernanza de la IA cuando la rivalidad geopolítica y la competencia tecnológica son tan fuertes?
China y EE. UU. pueden estar compitiendo en el despliegue de sistemas de inteligencia artificial, pero no hay acuerdo sobre el peligro (obvio en el caso de las armas nucleares) de que las dos potencias pueden estar entrando en una esfera competitiva de lo desconocido.
El fundador de Scale AI, Alexandr Wang, recientemente dijo a los legisladores«Si se compara como un porcentaje de su inversión militar total, el EPL [People’s Liberation Army] está gastando entre el uno y el dos por ciento de su presupuesto general en inteligencia artificial, mientras que el Departamento de Defensa está gastando entre el 0,1 y el 0,2 de nuestro presupuesto en IA”.
Wang rechazó la posibilidad de que EE. UU. y China puedan trabajar juntos en IA.
“Creo que sería una exageración decir que estamos en el mismo equipo en este tema”, dijo Wang, y señaló que el primer instinto de China fue usar IA para sistemas de reconocimiento facial para controlar a su gente.
“Espero que usen las tecnologías modernas de IA de la misma manera que puedan, y esa parece ser la prioridad inmediata del Partido Comunista Chino cuando se trata de la implementación de la IA”, dijo Wang.
Editado por Mike Firn.