Bloomberg — El CEO de Nvidia Corp. (NVDA), Jensen Huang, desveló tecnologías que van desde sistemas de chips más rápidos hasta software destinado a sostener el auge de la demanda de computación de IA, y a garantizar que sus productos se mantengan a la cabeza a medida que se endurece la competencia.
Huang inauguró el lunes Computex en Taiwán, el mayor foro de electrónica de Asia, promocionando nuevos productos y estrechando lazos con una región vital para la cadena de suministro tecnológico. El CEO presentó actualizaciones del ecosistema en torno a los chips aceleradores de Nvidia, que son clave para desarrollar y ejecutar servicios de IA. El objetivo central es ampliar el alcance de los productos de Nvidia y conseguir que más industrias y países adopten la IA.
Ver más: El CEO de Nvidia no ve indicios de desvío de chips de IA a China
Nvidia está deseando apuntalar su lugar en el corazón del auge de la inteligencia artificial, en un momento en que los inversores y algunos ejecutivos siguen sin estar seguros de que el gasto en centros de datos sea sostenible. La industria tecnológica también se enfrenta a profundos interrogantes sobre cómo el régimen arancelario de la administración Trump sacudirá la demanda y la fabricación mundiales.
Aún así, las acciones de Nvidia están subiendo tras un viaje de negociación a Medio Oriente como parte de una delegación encabezada por el presidente Donald Trump. El lunes, las acciones de los dos socios asiáticos más importantes de la empresa, Taiwan Semiconductor Manufacturing Co. (TSM) y Hon Hai Precision Industry Co., cayeron más de un 1% en un reflejo de la debilidad general del mercado.
Huang inauguró Computex con una actualización sobre el calendario de los sistemas GB300 de próxima generación de Nvidia, que, según dijo, llegarán en el tercer trimestre de este año. Supondrán una mejora de los actuales sistemas de gama alta Grace Blackwell, que ahora están instalando los proveedores de servicios en la nube.
El lunes, se aseguró de dar las gracias a las decenas de proveedores, desde TSMC hasta Foxconn, que ayudan a construir y distribuir la tecnología de Nvidia por todo el mundo.
“Cuando hay que crear nuevos mercados, hay que hacerlo empezando por aquí, en el centro del ecosistema informático”, dijo Huang, de 62 años, sobre su isla natal.
Lo que dice Bloomberg Intelligence
La preparación de los servidores GB300 en el segundo semestre será un punto clave. Creemos que las perspectivas más amplias de la demanda de servidores de IA también se enfrentarán a un escrutinio en medio de las continuas incertidumbres económicas y geopolíticas.
-Steven Tseng, analista.
Una apertura
Aunque Nvidia sigue siendo el líder indiscutible en los chips de IA más avanzados, tanto competidores como socios se apresuran a desarrollar sus propios semiconductores comparables, ya sea para ganar cuota de mercado o para ampliar el abanico de posibles proveedores de estos componentes caros y de alto margen.
En Computex, Huang presentó un nuevo sistema RTX Pro Server, del que dijo que ofrecía un rendimiento cuatro veces mejor que el anterior sistema de IA H100, buque insignia de Nvidia, con cargas de trabajo DeepSeek. El RTX Pro Server también es 1,7 veces mejor con algunos de los trabajos del modelo Llama de Meta Platforms Inc. (META). Ese nuevo producto ya está en producción en volumen, dijo Huang.
El fabricante de chips está ofreciendo una nueva versión de ordenadores completos que proporciona a los propietarios de centros de datos. Los productos NVLink Fusion permitirán a los clientes la opción de utilizar sus propias unidades centrales de procesamiento con los chips de IA de Nvidia o utilizar las CPU de Nvidia con los aceleradores de IA de otro proveedor.
Hasta la fecha, Nvidia sólo ha ofrecido este tipo de sistemas construidos con sus propios componentes. Esta apertura de sus diseños, que incluyen componentes de conectividad cruciales que garantizan un enlace de alta velocidad entre los procesadores y los aceleradores, da a los clientes de centros de datos de Nvidia más flexibilidad y permite una cierta competencia sin dejar de mantener la tecnología de Nvidia en el centro.
Grandes clientes como Microsoft Corp. (MSFT) y Amazon.com Inc. (AMZN) están intentando diseñar sus propios procesadores y aceleradores, y eso corre el riesgo de hacer que Nvidia sea menos esencial para los centros de datos.
MediaTek Inc., Marvell Technology Inc. (MRVL) y Alchip Technologies Ltd. crearán chips de IA personalizados que funcionen con los equipos basados en procesadores Nvidia, dijo Huang. Qualcomm Inc. (QCOM) y Fujitsu Ltd. planean fabricar procesadores personalizados que funcionen con los aceleradores de Nvidia en los ordenadores.
Adopción creciente
Los ordenadores de menor escala de la empresa, el Spark y el Station, que se anunciaron a principios de este año, van a ser ofrecidos por una gama más amplia de proveedores. Acer Inc., Gigabyte Technology Co. y otros socios locales se unen a la lista de empresas que ofrecerán los dispositivos portátiles y de sobremesa a partir de este verano, según Nvidia. Ese grupo ya incluye a Dell Technologies Inc. (DELL) y HP Inc. (HPQ).
Las empresas locales, incluida TSMC, han utilizado el software y los servicios que ofrece la plataforma Omniverse de Nvidia para crear los llamados gemelos digitales de sus fábricas.
El proceso ha ayudado a acelerar la actualización y puesta a punto de instalaciones cruciales para la cadena de suministro de ordenadores, según Nvidia. La firma estadounidense de chips también anunció un nuevo software “de ensueño” que permitirá un entrenamiento más rápido de los robots mediante escenarios de simulación afinados.
Ver más: Resultados decepcionantes de Alibaba enfrían el optimismo por las ‘big tech’ de China
Nvidia dijo que está ofreciendo planos detallados que ayudarán a acelerar el proceso de construcción de “fábricas de IA” por parte de las empresas. Proporcionará un servicio para que las empresas que no tienen experiencia interna en el proceso de múltiples pasos de construir sus propios centros de datos de IA puedan hacerlo.
Nvidia también anunció una nueva pieza de software llamada DGX Cloud Lepton. Actuará como un servicio para ayudar a los proveedores de computación en nube, como CoreWeave Inc. y SoftBank Group Corp., a automatizar el proceso de conectar a los desarrolladores de IA con los ordenadores que necesitan para crear y ejecutar sus servicios. La empresa de Huang está intentando crear lo que es esencialmente un mercado global virtual para la informática de IA.
Con la colaboración de Jane Lanhee Lee, Nick Turner y Debby Wu.
Lea más en Bloomberg.com