Thomas Kurian, director ejecutivo de Google Cloud, habla en una conferencia de computación en la nube realizada por la empresa en 2019.
Michael corto | alcalde Bloomberg | Getty Images
LONDRES — Google está teniendo conversaciones tempranas productivas con los reguladores de la Unión Europea sobre las innovadoras regulaciones de inteligencia artificial del bloque y cómo esta y otras compañías pueden construir IA de manera segura y responsable, dijo a CNBC el jefe de la división de computación en la nube de la compañía.
El pionero de la búsqueda en Internet está trabajando en herramientas para abordar una serie de preocupaciones del bloque en torno a la IA, incluida la preocupación de que puede ser más difícil distinguir entre el contenido generado por humanos y el producido por IA.
“Estamos teniendo conversaciones productivas con el gobierno de la UE. Porque queremos encontrar un camino a seguir”, dijo Thomas Kurian en una entrevista, hablando con CNBC exclusivamente desde la oficina de la compañía en Londres.
“Estas tecnologías tienen riesgo, pero también tienen una enorme capacidad que genera verdadero valor para las personas”.
Kurian dijo que Google está trabajando en tecnologías para garantizar que las personas puedan distinguir entre contenido humano y generado por IA. La compañía presentó una solución de «marca de agua» que etiqueta las imágenes generadas por IA en su evento I/O el mes pasado.
Insinúa cómo Google y otras empresas tecnológicas importantes están trabajando para llevar la supervisión impulsada por el sector privado a la IA antes de las regulaciones formales sobre la tecnología.
Los sistemas de IA están evolucionando a un ritmo vertiginoso, con herramientas como ChatGPT y Stability Diffusion capaces de producir cosas que se extienden más allá de las posibilidades de iteraciones pasadas de la tecnología. Los programadores informáticos utilizan cada vez más ChatGPT y herramientas como esta como compañeros para ayudarlos a generar código, por ejemplo.
Sin embargo, una preocupación clave de los legisladores y reguladores de la UE es que los modelos de IA generativa han reducido la barrera para la producción en masa de contenido basado en material que infringe los derechos de autor y podría dañar a los artistas y otros profesionales creativos que dependen de las regalías para ganar dinero. Los modelos de IA generativa se entrenan en grandes conjuntos de datos de Internet disponibles públicamente, muchos de los cuales están protegidos por derechos de autor.
A principios de este mes, los miembros del Parlamento Europeo aprobaron una legislación destinada a supervisar el despliegue de IA en el bloque. La ley, conocida como Ley de IA de la UE, incluye disposiciones para garantizar que los datos de capacitación para las herramientas de IA generativa no violen las leyes de derechos de autor.
«Tenemos muchos clientes europeos que crean aplicaciones de inteligencia artificial generativa utilizando nuestra plataforma», dijo Kurian. «Seguimos trabajando con el gobierno de la UE para asegurarnos de que entendemos sus preocupaciones».
«Estamos brindando herramientas, por ejemplo, para reconocer si el contenido fue generado por un modelo. Y eso es tan importante como decir que los derechos de autor son importantes, porque si no puedes saber qué fue generado por un ser humano o qué fue generado por un modelo, no serías capaz de hacerlo cumplir».
La IA se ha convertido en un campo de batalla clave en la industria tecnológica mundial, ya que las empresas compiten por un papel de liderazgo en el desarrollo de la tecnología, en particular la IA generativa, que puede generar contenido nuevo a partir de las indicaciones de los usuarios. Lo que la IA generativa es capaz de hacer, desde producir letras de música hasta generar código, ha asombrado a académicos y salas de juntas.
Pero también ha generado preocupaciones sobre el desplazamiento laboral, la desinformación y el sesgo.
Varios investigadores y empleados destacados dentro de las propias filas de Google han expresado su preocupación por la rapidez con la que avanza el ritmo de la IA.
Los empleados de Google calificaron el anuncio de la compañía de Bard, su chatbot generativo de IA para rivalizar con ChatGPT de OpenAI respaldado por Microsoft, como «apresurado», «fallido» y «no Google» en mensajes en el foro interno Memegen, por ejemplo.
Varios ex investigadores de alto perfil de Google también han hecho sonar la alarma sobre el manejo de la IA por parte de la empresa y lo que dicen es una falta de atención al desarrollo ético de dicha tecnología.
Incluyen a Timnit Gebru, excodirector del equipo de IA ética de Google, después de dar la voz de alarma sobre las pautas internas de la empresa sobre ética de IA, y Geoffrey Hinton, el pionero del aprendizaje automático conocido como el «Padrino de la IA», que dejó la empresa recientemente. debido a las preocupaciones, su impulso agresivo hacia la IA se estaba saliendo de control.
Con ese fin, Kurian de Google quiere que los reguladores globales sepan que no tiene miedo de aceptar la regulación.
“Hemos dicho ampliamente que damos la bienvenida a la regulación”, dijo Kurian a CNBC. «Creemos que estas tecnologías son lo suficientemente poderosas, deben regularse de manera responsable y estamos trabajando con los gobiernos de la Unión Europea, el Reino Unido y muchos otros países para garantizar que se adopten de la manera correcta».
En otra parte de la carrera mundial por regular la IA, el Reino Unido ha introducido un marco de principios de IA para que los reguladores se apliquen a sí mismos en lugar de redactar sus propias regulaciones formales. En Estados Unidos, la administración del presidente Joe Biden y varias agencias gubernamentales de EE. UU. también han propuesto marcos para regular la IA.
Sin embargo, la queja clave entre los conocedores de la industria tecnológica es que los reguladores no son los que se mueven más rápido cuando se trata de responder a nuevas tecnologías innovadoras. Esta es la razón por la que muchas empresas están ideando sus propios enfoques para introducir medidas de seguridad en torno a la IA, en lugar de esperar a que se aprueben las leyes adecuadas.
MIRAR: AI no está en un ciclo de exageración, es ‘tecnología de transformación’, dice Dan Ives de Wedbush Securities