viernes, 20 de marzo de 2026

Nvidia apunta a 1 billón en ventas de chips de IA hasta 2027

Chips de inteligencia artificial de Nvidia

El fabricante de semiconductores Nvidia ha dado un nuevo golpe sobre la mesa al actualizar sus previsiones de negocio ligadas a la inteligencia artificial. La compañía calcula ahora que podrá ingresar al menos 1 billón de dólares (en torno a 870.000 millones de euros) por la venta de sus chips de IA de nueva generación hasta 2027, una cifra que consolida su posición como referencia absoluta en este mercado.

La revisión del escenario a futuro llega en un contexto global complejo, con tensiones geopolíticas y presiones en materias primas que pueden acabar afectando a la industria tecnológica y a la cadena de fabricación de chips. Aun así, Nvidia considera que la demanda de capacidad de cálculo para entrenar y ejecutar modelos de IA seguirá disparada y que sus plataformas Blackwell y Rubin serán el pilar principal de esos ingresos.

Nvidia dobla su apuesta: de 500.000 millones a 1 billón de dólares

Previsiones de ingresos de Nvidia en IA

La nueva estimación supone un salto notable respecto a la hoja de ruta que el propio Jensen Huang, fundador y consejero delegado de la compañía, había presentado hace poco más de un año. Entonces, el directivo habló de unos 500.000 millones de dólares en ingresos para 2026 procedentes de sus sistemas de IA para centros de datos. Ahora, amplía el horizonte un año más y prácticamente duplica la cifra acumulada.

Durante la conferencia anual de desarrolladores GTC, celebrada en San José (California), Huang explicó que, desde su punto de vista, el mercado potencial de sus chips Blackwell y Rubin hasta 2027 puede superar holgadamente ese billón de dólares en contratos cerrados y envíos. Según el directivo, la demanda de computación para IA “se ha multiplicado por un millón en los últimos dos años” y no da señales de aflojar.

El discurso de Huang subraya un mensaje clave para los inversores: Nvidia confía en poder abastecer ese apetito de capacidad, tanto en la fase de entrenamiento de modelos como en la inferencia, cuando la IA genera respuestas o realiza tareas en tiempo real. Para el ejecutivo, la industria tecnológica -desde gigantes como OpenAI o Anthropic hasta start-ups emergentes- está condicionada por el acceso a más potencia de cálculo.

El propio CEO ha matizado, además, que la cifra de 1 billón se refiere exclusivamente a las familias de chips Blackwell y Rubin, sin incluir otros productos y líneas de negocio del grupo. De hecho, ha insistido en que la compañía tiene una “firme confianza” en poder superar ese umbral si se suman nuevas categorías de hardware y servicios asociados.

Impacto en bolsa y récords financieros

El mercado bursátil reaccionó con rapidez a las palabras del directivo. Las acciones de Nvidia llegaron a subir durante la sesión entre un 2% y casi un 5% en el índice tecnológico Nasdaq, aunque parte de ese avance se moderó al cierre. En cualquier caso, la compañía mantiene una capitalización superior a los 4,4 billones de dólares, tras haber rozado en meses previos la cota de los 5 billones.

Esta valoración viene respaldada por unos resultados financieros también excepcionales. En su último año fiscal, concluido a finales de enero, Nvidia registró unos ingresos cercanos a 216.000 millones de dólares, un 65% más que el ejercicio anterior, y un beneficio neto en torno a los 117.000 millones, con un crecimiento del 58%. Son datos que superan con claridad las previsiones de los analistas y que refuerzan la narrativa de un negocio de IA todavía en expansión.

No obstante, en los meses previos a esta GTC el comportamiento en bolsa había sido más irregular. Las acciones de la empresa llegaron a acumular caídas próximas al 3,4% en lo que iba de año, en un contexto de toma de beneficios y dudas sobre si el ritmo de crecimiento podría mantenerse. El anuncio de la nueva previsión de ingresos pretende precisamente despejar parte de esas incógnitas.

Además, Nvidia ha comunicado su intención de incrementar la remuneración al accionista durante la segunda mitad del año, destinando aproximadamente el 50% de su flujo de caja libre a recompras de títulos y dividendos, una vez cubiertas sus necesidades de inversión en expansión y acuerdos estratégicos.

Blackwell y Rubin: la nueva generación de chips de IA

El eje central de las proyecciones de Nvidia son sus nuevas plataformas de hardware para inteligencia artificial, diseñadas para grandes centros de datos y servicios en la nube. Blackwell y Vera Rubin -esta última bautizada en honor a la astrónoma cuyas observaciones apoyaron la existencia de la materia oscura- representan la próxima oleada de procesadores insignia de la compañía.

Blackwell se dirige principalmente a tareas de entrenamiento a gran escala y cargas de trabajo de alto rendimiento, mientras que Rubin tomará el relevo en la segunda mitad de 2026 como evolución de la arquitectura actual de GPU para IA. Nvidia ha señalado que el objetivo es renovar prácticamente toda su gama de productos de forma anual, incorporando nuevos componentes y optimizaciones para mejorar la eficiencia energética y el coste por unidad de computación.

En paralelo, la empresa está integrando tecnología adquirida a la start-up Groq, con la que firmó un acuerdo de licencia valorado en 17.000 millones de dólares. Los nuevos chips basados en esa tecnología pretenden mejorar la velocidad de respuesta de los sistemas de IA, sobre todo en entornos donde la latencia es crítica, como asistentes conversacionales, agentes autónomos o aplicaciones industriales en tiempo real.

La estrategia de Nvidia no se limita a las GPU. La compañía también ha presentado un ordenador para centros de datos basado en CPU de propósito general, marcando una incursión más decidida en un terreno históricamente dominado por Intel. Competidores también están desarrollando chips propios, como Microsoft con Maia 200, y Huang considera que el mercado de unidades centrales de procesamiento para cargas de IA y de datos masivos es, por sí solo, una oportunidad multimillonaria adicional.

La inferencia como nuevo gran frente de negocio

Una de las ideas más repetidas por el consejero delegado durante la GTC es que la industria ha entrado en una nueva fase: la IA empieza a hacer “trabajo productivo” a escala, especialmente en la parte de inferencia. Es decir, no solo se entrenan grandes modelos, sino que se despliegan para que generen contenido, tomen decisiones o automaticen tareas en empresas y administraciones.

Para dar respuesta a este escenario, Nvidia enfatiza una arquitectura de sistema completa que combina distintos tipos de chips para inferencia: GPU, procesadores especializados al estilo Groq, soluciones de red de alta velocidad y software optimizado. El mensaje de la compañía es que no existe un único componente milagroso, sino un conjunto de piezas coordinadas para reducir costes y maximizar el rendimiento.

Este enfoque resulta especialmente relevante en infraestructuras de escala hipergrande -como las de los grandes proveedores de nube- donde pequeños incrementos en eficiencia pueden traducirse en ahorros significativos. Huang ha asegurado que muchas empresas del sector perciben que podrían aumentar sus ingresos y ampliar su oferta de IA si tuvieran acceso a más capacidad de cálculo y a plataformas de inferencia más baratas por unidad de trabajo.

En este contexto, la demanda no se limita a empresas tecnológicas puras. Nvidia afirma estar viendo interés en sectores tan variados como automoción, sanidad, finanzas, industria manufacturera o servicios públicos, donde la IA se utiliza para tareas de mantenimiento predictivo, análisis de riesgos, generación de contenidos o gestión de infraestructuras críticas.

Acuerdos con gigantes de la nube y expansión global

El empuje que Nvidia espera para alcanzar el billón de dólares en ventas de chips de IA se apoya también en grandes contratos con proveedores de servicios en la nube. Entre los más destacados figura el acuerdo con Amazon Web Services (AWS), por el que la unidad de computación en la nube de Amazon comprará un millón de GPU de Nvidia de aquí a 2027.

Según responsables de la compañía, el pacto con AWS no solo cubre esas GPU, sino también chips de red Spectrum y soluciones basadas en tecnología Groq, que se integrarán en los centros de datos del proveedor. Para tareas de inferencia eficiente, AWS planea combinar varios tipos de chips de Nvidia, aprovechando siete diseños diferentes para ajustarse a las necesidades de cada aplicación. Asimismo, alianzas entre grandes actores, como Meta y AMD refuerzan su alianza, muestran la intensidad de la competencia y la cooperación en el sector.

El acuerdo incluye la instalación de equipos de red ConnectX y Spectrum X en infraestructuras donde, hasta ahora, AWS utilizaba mayoritariamente hardware propio y muy personalizado. Que un proveedor de nube de primer nivel incorpore de forma más extensa redes especializadas de Nvidia se interpreta como un respaldo importante a su ecosistema de centros de datos para IA.

Más allá de este contrato, Nvidia mantiene una intensa política de inversión y colaboración con compañías vinculadas a la inteligencia artificial en todo el mundo, entre ellas desarrolladores de modelos, plataformas de datos y empresas de software. La firma ha comprometido decenas de miles de millones de dólares en participaciones y acuerdos de suministro con actores que, a su vez, son clientes potenciales de sus chips.

Competencia y dudas sobre una posible burbuja de la IA

El extraordinario crecimiento de Nvidia y la magnitud de sus objetivos han reavivado el debate sobre si el mercado de la IA está entrando en una fase de exuberancia excesiva. Algunos analistas de Wall Street han señalado que, aunque la cifra de 1 billón de dólares en ventas es imponente, no implica necesariamente una aceleración mucho mayor del ritmo de crecimiento respecto a lo ya previsto.

Jensen Huang trata de rebajar esos temores insistiendo en que la compañía no solo se beneficia de un ciclo puntual, sino que está reorientando la informática hacia un modelo centrado en la IA a largo plazo. En su opinión, la demanda de computación seguirá expandiéndose a medida que nuevas capas de automatización y agentes inteligentes se incorporen al día a día de empresas y consumidores.

En cualquier caso, el fabricante de chips no opera en solitario. Competidores como Advanced Micro Devices (AMD) —AMD lanza los Ryzen AI 400 y los propios clientes de Nvidia -grandes tecnológicas que diseñan procesadores a medida- presionan para ganar cuota de mercado y reducir su dependencia de un único proveedor. Esta dinámica obliga a Nvidia a acelerar su ciclo de renovación de productos y a diversificar su oferta.

A pesar de esta competencia creciente, Nvidia sigue siendo, de momento, la referencia indiscutible en hardware de IA, tanto por cuota de mercado como por ecosistema de software. No obstante, el comportamiento reciente en bolsa, con altibajos y episodios de corrección, muestra que los inversores quieren ver pruebas continuas de que el mercado potencial se materializa y que la compañía puede mantener márgenes elevados en un entorno más disputado.

El conjunto de anuncios realizados en la GTC -desde la proyección de 1 billón de dólares hasta los nuevos chips, acuerdos con grandes nubes y planes de retorno al accionista- dibuja un escenario en el que Nvidia aspira a consolidarse como la columna vertebral de la infraestructura de inteligencia artificial mundial, mientras sortea un contexto macroeconómico complejo y un entorno competitivo cada vez más exigente.



from Actualidad Gadget https://ift.tt/1j4va9I
via IFTTT

No hay comentarios:

Publicar un comentario