nvidia las acciones subieron cerca de una capitalización de mercado de $ 1 billón en las operaciones posteriores al cierre el miércoles después de que informara una perspectiva a futuro sorprendentemente fuerte y el director ejecutivo Jensen Huang dijo que la compañía iba a tener un «año récord gigante».
Las ventas aumentaron debido al aumento de la demanda de los procesadores gráficos (GPU) que fabrica Nvidia, que potencian las aplicaciones de IA como las de Google, Microsoft y OpenAI.
La demanda de chips de IA en los centros de datos impulsó a Nvidia a orientar sus ventas a 11.000 millones de dólares durante el trimestre actual, superando las estimaciones de los analistas de 7.150 millones de dólares.
«El punto crítico fue la IA generativa», dijo Huang en una entrevista con CNBC. «Sabemos que la escala de la CPU se ha ralentizado, sabemos que la computación acelerada es el camino a seguir, y luego apareció la aplicación asesina».
Nvidia cree que está experimentando un cambio distinto en la forma en que se construyen las computadoras que podría resultar en un crecimiento aún mayor: las piezas para los centros de datos podrían incluso convertirse en un mercado de $ 1 billón, dice Huang.
Históricamente, la parte más importante de una computadora o servidor había sido el procesador central, o la CPU. Ese mercado estaba dominado por Intelcon AMD como su principal rival.
Con la llegada de las aplicaciones de IA que requieren mucha potencia informática, el procesador de gráficos (GPU) ocupa un lugar central y los sistemas más avanzados utilizan hasta ocho GPU en una CPU. Actualmente, Nvidia domina el mercado de las GPU de IA.
«El centro de datos del pasado, que consistía principalmente en CPU para la recuperación de archivos, será, en el futuro, datos generativos», dijo Huang. «En lugar de recuperar datos, vas a recuperar algunos datos, pero tienes que generar la mayoría de los datos usando IA».
«Entonces, en lugar de millones de CPU, tendrá muchas menos CPU, pero estarán conectadas a millones de GPU», continuó Huang.
Por ejemplo, Nvidia propios sistemas DGXque son esencialmente una computadora de IA para entrenamiento en una sola caja, usan ocho de las GPU H100 de gama alta de Nvidia y solo dos CPU.
de Google supercomputadora a3 combina ocho GPU H100 junto con un solo procesador Xeon de gama alta fabricado por Intel.
Esa es una de las razones por las que el negocio de centros de datos de Nvidia creció un 14 % durante el primer trimestre calendario frente al crecimiento plano de la unidad de centros de datos de AMD y una disminución del 39 % en la unidad de negocios de centros de datos e IA de Intel.
Además, las GPU de Nvidia tienden a ser más caras que muchos procesadores centrales. La generación más reciente de CPU Xeon de Intel puede costar hasta $ 17,000 a precio de lista. Una sola Nvidia H100 puede venderse por $40,000 en el mercado secundario.
Nvidia se enfrentará a una mayor competencia a medida que se calienta el mercado de chips de IA. AMD tiene un negocio de GPU competitivo, especialmente en juegos, e Intel también tiene su propia línea de GPU. Las empresas emergentes están creando nuevos tipos de chips específicamente para IA y empresas centradas en dispositivos móviles como Qualcomm y Apple siguen impulsando la tecnología para que algún día pueda ejecutarse en su bolsillo, no en una granja de servidores gigante. Google y Amazon están diseñando sus propios chips de IA.
Pero las GPU de gama alta de Nvidia siguen siendo el chip elegido por las empresas actuales que crean aplicaciones como ChatGPT, que son costosas de entrenar mediante el procesamiento de terabytes de datos, y son costosas de ejecutar posteriormente en un proceso llamado «inferencia», que utiliza el modelo para generar texto, imágenes o hacer predicciones.
Los analistas dicen que Nvidia sigue a la cabeza de los chips de IA debido a su software patentado que facilita el uso de todas las funciones de hardware de la GPU para las aplicaciones de IA.
Huang dijo el miércoles que el software de la empresa no sería fácil de replicar.
«Tienes que diseñar todo el software y todas las bibliotecas y todos los algoritmos, integrarlos y optimizar los marcos, y optimizarlos para la arquitectura, no solo un chip sino la arquitectura de un centro de datos completo», Huang dijo en una llamada con analistas.