Deepseek ha sacudido el ecosistema de IA liderado por Estados Unidos con su último modelo, afeitando cientos de miles de millones en el líder de Chip Nvidia Cape de mercado. Mientras los líderes del sector lidian con las consecuencias, las compañías de IA más pequeñas ven la oportunidad de escalar con la startup china.
Varias empresas relacionadas con la IA dijeron a CNBC que la emergencia de Deepseek es una oportunidad «masiva» para ellos, en lugar de una amenaza.
«Los desarrolladores están muy interesados en reemplazar los modelos costosos y cerrados de OpenAI con modelos de código abierto como Deepseek R1 …», dijo Andrew Feldman, CEO de los sistemas de cerebras de inicio de chips de inteligencia artificial.
La compañía compite con las unidades de procesamiento gráfico de NVIDIA y ofrece servicios basados en la nube a través de sus propios grupos informáticos. Feldman dijo que el lanzamiento del modelo R1 generó uno de los picos más grandes de Cerebras en demanda de sus servicios.
«R1 muestra que [AI market] El crecimiento no estará dominado por una sola empresa: los fosas de hardware y software no existen para los modelos de código abierto «, agregó Feldman.
El código abierto se refiere al software en el que el código fuente está disponible gratuitamente en la web para una posible modificación y redistribución. Los modelos de Deepseek son de código abierto, a diferencia de los de competidores como OpenAI.
Deepseek también afirma que su modelo de razonamiento R1 rivaliza con la mejor tecnología estadounidense, a pesar de correr a costos más bajos y ser capacitado sin unidades de procesamiento gráfico de vanguardia, aunque los observadores y competidores de la industria han cuestionado estas afirmaciones.
«Al igual que en los mercados de PC e Internet, la caída de los precios ayudan a alimentar la adopción global. El mercado de IA está en una ruta de crecimiento secular similar», dijo Feldman.
Chips de inferencia
Deepseek podría aumentar la adopción de nuevas tecnologías de chip al acelerar el ciclo de IA de la fase de capacitación a «inferencia», dijeron las nuevas empresas de chips y los expertos de la industria.
La inferencia se refiere al acto de usar y aplicar IA para tomar predicciones o decisiones basadas en nueva información, en lugar de la construcción o capacitación del modelo.
«En pocas palabras, la capacitación de IA se trata de construir una herramienta o un algoritmo, mientras que la inferencia se trata de implementar esta herramienta para su uso en aplicaciones reales», dijo Phelix Lee, analista de capital de Morningstar, con un enfoque en semiconductores.
Mientras que Nvidia tiene una posición dominante en las GPU utilizadas para el entrenamiento de IA, muchos competidores ven espacio para la expansión en el segmento de «inferencia», donde prometen una mayor eficiencia para menores costos.
La capacitación de IA es muy intensiva en cómputo, pero Lee agregó una inferencia menos potente para realizar una gama más estrecha de tareas.

Varias nuevas empresas de chips de IA dijeron a CNBC que estaban viendo más demanda de chips de inferencia e informática a medida que los clientes adoptan y construyen sobre el modelo de código abierto de Deepseek.
«[DeepSeek] ha demostrado que los modelos abiertos más pequeños pueden ser entrenados para que sean tan capaces o más capaces que los modelos patentados más grandes y esto se puede hacer a una fracción del costo «, dijo Sid Sheth, CEO de AI Chip Startup D-Matrix.
«Con la amplia disponibilidad de pequeños modelos capaces, han catalizado la era de la inferencia», dijo a CNBC, y agregó que la compañía ha visto recientemente un aumento en el interés de los clientes globales que buscan acelerar sus planes de inferencia.
Robert Wachen, cofundador y director de operaciones del fabricante de chips de IA grabado, dijo que docenas de compañías se han comunicado con la startup desde que Deepseek lanzó sus modelos de razonamiento.
«Las empresas son 1738983153 Cambiando sus gastos de entrenamiento de grupos a grupos de inferencia «, dijo.
«Deepseek-r1 demostró que el cómputo de la inferencia es ahora el [state-of-the-art] Enfoque para cada proveedor y pensamiento de modelos principales no es barato: solo necesitaremos más y más capacidad de calcular para escalar estos modelos para millones de usuarios «.
Paradoja de Jevon
Los analistas y los expertos en la industria están de acuerdo en que los logros de Deepseek son un impulso para la inferencia de IA y la industria de chips de IA más amplia.
«El rendimiento de Deepseek parece estar basado en una serie de innovaciones de ingeniería que reducen significativamente los costos de inferencia al tiempo que mejora el costo de capacitación», según un informe de Bain & Company.
«En un escenario alcista, las mejoras de eficiencia continua conducirían a una inferencia más barata, lo que estimula una mayor adopción de IA», agregó.

Este patrón explica la paradoja de Jevon, una teoría en la que las reducciones de costos en una nueva tecnología generan una mayor demanda.
La firma de servicios financieros e inversión Wedbush dijo en una nota de investigación la semana pasada que continúa esperando el uso de la IA en los consumidores empresariales y minoristas a nivel mundial para impulsar la demanda.
En declaraciones a «Fast Money» de CNBC la semana pasada, Sunny Madra, COO en Groq, que desarrolla fichas para la inferencia de IA, sugirió que a medida que crece la demanda general de IA, los jugadores más pequeños tendrán más espacio para crecer.
«Como el mundo va a necesitar más fichas [a unit of data that an AI model processes] Nvidia no puede suministrar suficientes chips a todos, por lo que nos da oportunidades para que vendamos al mercado aún más agresivamente «, dijo Madra.