Nvida anunciará sus resultados en medio de preocupaciones por el gasto en infraestructura y DeepSeek

Nvidia Está previsto que informe los resultados financieros del cuarto trimestre el miércoles después de la campana.
Se espera que sirva para poner el broche de oro a uno de los años más destacados de la historia de una gran empresa. Los analistas encuestados por FactSet esperan unas ventas de 38.000 millones de dólares para el trimestre que finalizó en enero, lo que supondría un aumento del 72% sobre una base anual.
El trimestre de enero cerrará el segundo año fiscal en el que las ventas de Nvidia se duplicaron con creces. Es una racha impresionante impulsada por el hecho de que las unidades de procesamiento gráfico de centros de datos de Nvidia, o GPU, son hardware esencial para crear e implementar servicios de inteligencia artificial como ChatGPT de OpenAI. En los últimos dos años, las acciones de Nvidia han subido un 478%, lo que la convierte en la empresa estadounidense más valiosa en ocasiones, con una capitalización de mercado de más de 3 billones de dólares.
Pero las acciones de Nvidia se han desacelerado en los últimos meses a medida que los inversores se preguntan hacia dónde puede ir la compañía de chips a partir de ahora.
Se cotiza al mismo precio que en octubre pasado y los inversores se muestran cautelosos ante cualquier señal de que los clientes más importantes de Nvidia podrían estar apretándose el cinturón después de años de grandes gastos de capital. Esto es particularmente preocupante a raíz de los recientes avances en inteligencia artificial en China.
Gran parte de las ventas de Nvidia se destinan a un puñado de empresas que construyen enormes granjas de servidores, normalmente para alquilárselos a otras empresas. Estas empresas de la nube suelen denominarse "hiperescaladores". En febrero pasado, Nvidia afirmó que un solo cliente representaba el 19% de sus ingresos totales en el año fiscal 2024.
Los analistas de Morgan Stanley estimaron este mes que Microsoft representará casi el 35% del gasto en 2025 en Blackwell, el último chip de inteligencia artificial de Nvidia. Google está en 32,2%, Oracle con un 7,4% y Amazon en un 6,2%.
Es por esto que cualquier señal de que Microsoft o sus rivales podrían reducir sus planes de gasto puede sacudir las acciones de Nvidia.
La semana pasada, los analistas de TD Cowen dijeron que se enteraron de que Microsoft había cancelado contratos de arrendamiento con operadores de centros de datos privados, había ralentizado su proceso de negociación para firmar nuevos contratos de arrendamiento y había ajustado los planes de gasto en centros de datos internacionales a favor de instalaciones estadounidenses.
El informe generó temores sobre la sostenibilidad del crecimiento de la infraestructura de IA. Eso podría significar una menor demanda de chips de Nvidia. Michael Elias, de TD Cowen, dijo que el hallazgo de su equipo apunta a "una posible posición de exceso de oferta" para Microsoft. Las acciones de Nvidia cayeron un 4% el viernes.
Microsoft contraatacó el lunes y dijo que todavía planeaba gastar 80 mil millones de dólares en infraestructura en 2025.
"Si bien podemos acelerar o ajustar estratégicamente nuestra infraestructura en algunas áreas, seguiremos creciendo con fuerza en todas las regiones. Esto nos permite invertir y asignar recursos a áreas de crecimiento para nuestro futuro", dijo un portavoz a CNBC.
Durante el último mes , la mayoría de los clientes clave de Nvidia anunciaron grandes inversiones. Alphabet apunta a 75 mil millones de dólares en gastos de capital este año, Meta gastará hasta 65 mil millones de dólares y Amazon apunta a gastar 100 mil millones de dólares .
Los analistas afirman que aproximadamente la mitad de los gastos de capital en infraestructura de IA terminan en manos de Nvidia. Muchos hiperescaladores incursionan en las GPU de AMD y están desarrollando sus propios chips de IA para reducir su dependencia de Nvidia, pero la empresa posee la mayoría del mercado de chips de IA de vanguardia.
Hasta ahora, estos chips se han utilizado principalmente para entrenar modelos de IA de vanguardia, un proceso que puede costar cientos de millones de dólares. Una vez que empresas como OpenAI, Google y Anthropic desarrollan la IA, se necesitan almacenes llenos de GPU de Nvidia para ofrecer esos modelos a los clientes. Es por eso que Nvidia prevé que sus ingresos sigan creciendo.
Otro desafío para Nvidia es la aparición el mes pasado de la startup china DeepSeek, que lanzó un modelo de IA eficiente y " destilado ". Su rendimiento era lo suficientemente alto como para sugerir que no se necesitaban miles de millones de dólares en GPU de Nvidia para entrenar y utilizar IA de vanguardia. Eso hundió temporalmente las acciones de Nvidia, lo que provocó que la empresa perdiera casi 600 mil millones de dólares en capitalización de mercado.
El CEO de Nvidia, Jensen Huang, tendrá la oportunidad el miércoles de explicar por qué la IA seguirá necesitando aún más capacidad de GPU incluso después del desarrollo masivo del año pasado.
Recientemente, Huang habló sobre la "ley de escala", una observación de OpenAI en 2020 que señala que los modelos de IA mejoran cuanto más datos y cálculos se utilizan al crearlos.
Huang dijo que el modelo R1 de DeepSeek apunta a una nueva faceta de la ley de escalado que Nvidia llama " Escalado del tiempo de prueba ". Huang ha sostenido que el próximo camino importante hacia la mejora de la IA es aplicar más GPU al proceso de implementación de la IA, o inferencia. Eso permite a los chatbots "razonar" o generar una gran cantidad de datos en el proceso de pensar en un problema.
Los modelos de IA se entrenan solo unas pocas veces para crearlos y ajustarlos, pero se los puede llamar millones de veces al mes, por lo que usar más recursos computacionales en la inferencia requerirá que se implementen más chips Nvidia para los clientes.
"El mercado respondió a R1 como si dijera 'Dios mío, la IA está acabada', que la IA ya no necesita realizar más cálculos", dijo Huang en una entrevista pregrabada la semana pasada . "Es exactamente lo contrario".
CNBC