AMD lanzó el jueves un nuevo chip de inteligencia artificial que apunta directamente a los procesadores gráficos de centros de datos de Nvidia, conocidos como GPU.
El Instinct MI325X, como se llama el chip, comenzará a producirse antes de finales de 2024, dijo Advanced Micro Devices el jueves durante un evento en el que se anunció el nuevo producto. Si los desarrolladores y los gigantes de la nube consideran que los chips de IA de AMD son un sustituto cercano de Nvidia productos, podría ejercer presión sobre los precios de Nvidia, que ha disfrutado de márgenes brutos de aproximadamente el 75%, mientras que sus GPU han tenido una gran demanda durante el año pasado.
La IA generativa avanzada, como ChatGPT de OpenAI, requiere centros de datos masivos llenos de GPU para realizar el procesamiento necesario, lo que ha creado una demanda para que más empresas proporcionen chips de IA.
En los últimos años, Nvidia ha dominado la mayor parte del mercado de GPU para centros de datos, pero AMD históricamente ocupa el segundo lugar. Ahora, AMD apunta a quitarle participación a su rival de Silicon Valley o al menos capturar una gran parte del mercado, que, según dice, tendrá un valor de 500 mil millones de dólares para 2028.
«La demanda de IA ha seguido aumentando y superando las expectativas. Está claro que la tasa de inversión sigue creciendo en todas partes», dijo Lisa Su, directora ejecutiva de AMD, en el evento.
AMD no reveló nuevos clientes importantes de nube o Internet para sus GPU Instinct en el evento, pero la compañía reveló anteriormente que ambos Meta y microsoft compre sus GPU AI y que OpenAI las use para algunas aplicaciones. La compañía tampoco reveló el precio del Instinct MI325X, que normalmente se vende como parte de un servidor completo.
Con el lanzamiento del MI325X, AMD está acelerando su calendario de productos para lanzar nuevos chips anualmente para competir mejor con Nvidia y aprovechar el auge de los chips de IA. El nuevo chip AI es el sucesor del MI300X, que comenzó a distribuirse a finales del año pasado. El chip 2025 de AMD se llamará MI350 y su chip 2026 se llamará MI400, dijo la compañía.
El lanzamiento del MI325X lo enfrentará con los próximos chips Blackwell de Nvidia, que según Nvidia comenzarán a enviarse en cantidades significativas a principios del próximo año.
Un lanzamiento exitoso de la GPU para centros de datos más nueva de AMD podría atraer el interés de los inversores que buscan empresas adicionales que estén en línea para beneficiarse del auge de la IA. AMD solo ha subido un 20% en lo que va de 2024, mientras que las acciones de Nvidia han subido más del 175%. La mayoría de las estimaciones de la industria dicen que Nvidia tiene más del 90% del mercado de chips de IA para centros de datos.
Las acciones de AMD cayeron un 4% el jueves. Las acciones de Nvidia subieron alrededor del 1%.
El mayor obstáculo de AMD para hacerse con cuota de mercado es que los chips de su rival utilizan su propio lenguaje de programación, CUDA, que se ha convertido en estándar entre los desarrolladores de IA. Básicamente, eso bloquea a los desarrolladores en el ecosistema de Nvidia.
En respuesta, AMD dijo esta semana que ha estado mejorando su software de la competencia, llamado ROCm, para que los desarrolladores de IA puedan cambiar fácilmente más modelos de IA a los chips de AMD, a los que llama aceleradores.
AMD ha planteado sus aceleradores de IA como más competitivos para casos de uso en los que los modelos de IA crean contenido o hacen predicciones en lugar de cuando un modelo de IA procesa terabytes de datos para mejorar. Esto se debe en parte a la memoria avanzada que AMD está usando en su chip, dijo, lo que le permite servir el modelo Llama AI de Meta más rápido que algunos chips Nvidia.
«Lo que ves es que la plataforma MI325 ofrece hasta un 40% más de rendimiento de inferencia que el H200 en Llama 3.1», dijo Su, refiriéndose a meta Modelo de IA en lenguaje grande.
Enfrentándose a Intel también
Si bien los aceleradores de IA y las GPU se han convertido en la parte más observada de la industria de los semiconductores, el negocio principal de AMD han sido los procesadores centrales, o CPU, que se encuentran en el corazón de casi todos los servidores del mundo.
Las ventas de centros de datos de AMD durante el trimestre de junio se duplicaron con creces en el último año a 2.800 millones de dólares, y los chips de IA representaron sólo alrededor de 1.000 millones de dólares, dijo la compañía en julio.
AMD se queda con alrededor del 34% del total de dólares gastados en CPU para centros de datos, dijo la compañía. Eso es todavía menos que Intelque sigue siendo el jefe del mercado con su línea de chips Xeon. AMD pretende cambiar eso con una nueva línea de CPU, llamada EPYC 5th Gen, que también anunció el jueves.
Esos chips vienen en varias configuraciones diferentes, que van desde un chip de 8 núcleos de bajo costo y bajo consumo que cuesta 527 dólares hasta procesadores de 192 núcleos y 500 vatios destinados a supercomputadoras que cuestan 14.813 dólares por chip.
Las nuevas CPU son particularmente buenas para introducir datos en cargas de trabajo de IA, dijo AMD. Casi todas las GPU requieren una CPU en el mismo sistema para poder iniciar la computadora.
«La IA actual realmente tiene que ver con la capacidad de la CPU, y eso se ve en el análisis de datos y en muchos de esos tipos de aplicaciones», dijo Su.