La sede de Google se ve en Mountain View, California, Estados Unidos, el 26 de septiembre de 2022.
Tayfun Coskun | Agencia Anadolu | Getty Images
Google detalles publicados sobre una de sus supercomputadoras de inteligencia artificial el miércoles, diciendo que es más rápido y más eficiente que los sistemas Nvidia de la competencia, ya que los modelos de aprendizaje automático que consumen mucha energía continúan siendo la parte más popular de la industria tecnológica.
Mientras nvidia domina el mercado de entrenamiento e implementación de modelos de IA, con más del 90% del mercado, Google ha estado diseñando e implementando chips de IA llamados unidades de procesamiento de tensores, o TPU, desde 2016.
noticias relacionadas con inversiones
Google es un importante pionero de la IA y sus empleados han desarrollado algunos de los avances más importantes en el campo durante la última década. Pero algunos creen que se ha quedado atrás en términos de comercialización de sus inventos, e internamente, la compañía ha estado compitiendo para lanzar productos y demostrar que no ha desperdiciado su liderazgo, una situación de «código rojo» en la compañía, informó CNBC anteriormente.
Modelos de IA y productos como Bard de Google o ChatGPT de OpenAI, impulsados por Chips A100 de Nvidia — requieren muchas computadoras y cientos o miles de chips para trabajar juntos para entrenar modelos, con las computadoras funcionando las 24 horas del día durante semanas o meses.
El martes, Google dijo que había creado un sistema con más de 4000 TPU unidas con componentes personalizados diseñados para ejecutar y entrenar modelos de IA. Ha estado funcionando desde 2020 y se usó para entrenar el modelo PaLM de Google, que compite con el modelo GPT de OpenAI, durante 50 días.
La supercomputadora basada en TPU de Google, llamada TPU v4, es «entre 1,2 y 1,7 veces más rápida y usa entre 1,3 y 1,9 veces menos energía que la Nvidia A100», escribieron los investigadores de Google.
«El rendimiento, la escalabilidad y la disponibilidad hacen que las supercomputadoras TPU v4 sean los caballos de batalla de los grandes modelos de lenguaje», continuaron los investigadores.
Sin embargo, los resultados de TPU de Google no se compararon con el último chip Nvidia AI, el H100, porque es más reciente y se fabricó con una tecnología de fabricación más avanzada, dijeron los investigadores de Google.
Un portavoz de Nvidia se negó a comentar. Resultados y clasificaciones de una prueba de chip de IA de toda la industria llamada MLperf Se espera que sea lanzado el miércoles.
La cantidad sustancial de potencia informática necesaria para la IA es costosa, y muchos en la industria se centran en desarrollar nuevos chips, componentes como conexiones ópticas o desarrollar técnicas de software que reduzcan la cantidad de potencia informática necesaria.
Los requisitos de energía de la IA también son una bendición para los proveedores de la nube como Google, Microsoft y Amazonas, que puede alquilar procesamiento informático por horas y proporcionar créditos o tiempo informático a las empresas emergentes para establecer relaciones. (La nube de Google también vende tiempo en chips Nvidia). Por ejemplo, Google dijo que Midjourney, un generador de imágenes de IA, fue entrenado en sus chips TPU.