Bloomberg — La compañía Nvidia Corp. (NVDA), cuyos productos han provocado una avalancha de gasto en IA, ha asegurado que los nuevos tipos de modelos de inteligencia artificial que producen respuestas más complejas sólo incrementarán la necesidad de infraestructuras informáticas.
Jensen Huang, su CEO, afirmó que la preocupación suscitada por el modelo de IA R1 de la startup DeekSeek de China, según la cual en el futuro se necesitarán menos chips y servidores potentes para este tipo de software, estaba mal planteada.

“La interpretación de R1 fue totalmente incorrecta”, aseguró Huang durante una reunión con analistas e inversionistas en la conferencia GTC de su compañía celebrada este miércoles en San José, California. “La demanda de computación es mucho mayor”.
Lea más: Nvidia desarrollará proyectos con General Motors, Walt Disney y DeepMind
Las acciones de Nvidia avanzaron hasta un 2,4% en las operaciones de Nueva York. Antes de esta sesión, habían retrocedido un 14% en el 2025.
La compañía intenta persuadir a un grupo más amplio de industrias para que inviertan en equipos de IA, con la promesa de que los beneficios económicos de la tecnología están al alcance de la mano.
Nvidia, que se convirtió en el fabricante de chips más valioso del mundo tras un vertiginoso crecimiento en los últimos dos años, se enfrenta a un mayor escrutinio de los inversores en 2025. La principal preocupación es si los clientes mantendrán su inversión en infraestructura de IA.
DeepSeek avivó esos temores a principios de este año al lanzar su modelo de IA, afirmando que producía esta potente tecnología a un precio más bajo. Sin embargo, los principales clientes de Nvidia han reafirmado sus planes de gasto desde entonces. Un análisis de Bloomberg Intelligence de esta semana reveló que el gasto de los mayores operadores de centros de datos está aumentando más rápido de lo previsto.
En la reunión de analistas, se le preguntó a Huang, de Nvidia, sobre los esfuerzos de los clientes para desarrollar sus propios componentes: chips que podrían reemplazar sus aceleradores de IA en los centros de datos.
Empresas como Google, de Alphabet Inc (GOOGL)., han estado trabajando con Broadcom Inc. (AVGO) para desarrollar sus propios circuitos integrados de aplicación específica (ASIC) para esta área. Sin embargo, Huang replicó que muchos ASIC se diseñan, pero no siempre se instalan en los centros de datos.
Esos grandes clientes necesitan mejores chips para generar más ingresos a partir de su infraestructura, no chips más baratos para ahorrar costos, argumentó.
“Todas esas empresas están dirigidas por grandes directores ejecutivos que son realmente buenos en matemáticas”, dijo. “Los efectos no son solo de costo. Es un cálculo diferente”.
Los chips de la competencia no pueden igualar el diseño Hopper de Nvidia, de su generación anterior, afirmó. Y la plataforma Blackwell actual es 40 veces más potente.
Lea más: El primer sitio Stargate de OpenAI albergará hasta 400.000 chips Nvidia
Para subrayar que el gasto sigue creciendo, Huang mostró cifras que indican que recibió muchos más pedidos de productos Blackwell que de Hopper en el mismo punto de su ciclo de vida. Y eso solo de proveedores de la nube. La inversión de otras empresas en centros de datos de IA comenzará a complementar esa inversión, afirmó.
Si la economía estadounidense entra en recesión, Huang cree que las empresas destinarán más inversiones a equipos de IA, porque ahí es donde está el crecimiento de su negocio.
Mientras tanto, los aranceles propuestos a las importaciones tendrán un impacto mínimo a corto plazo, afirmó. No afectarán gravemente a Nvidia, ya que seguirá trasladando la fabricación de los componentes más importantes de su línea de productos a su territorio.
El fabricante de chips ya utiliza las instalaciones de Taiwan Semiconductor Manufacturing Co. (TSM) en Arizona y las ampliará a medida que su proveedor aumente su capacidad, añadió Huang.
Lea más en Bloomberg.com