Las acciones de Nvidia caen tras conocerse la competencia de Google en los chips de IA

Meta también podría alquilar chips a la división en la nube de Google el próximo año, según la misma fuente.

PUBLICIDAD
Imagen de referencia. Fuente: Bloomberg.
Por Nick Turner
25 de noviembre, 2025 | 05:08 AM

Bloomberg — Las acciones de Nvidia Corp. (NVDA) cayeron tras conocerse la noticia de que Meta Platforms Inc. (META) está en negociaciones para invertir miles de millones en chips de IA de Google, lo que sugiere que el líder en búsquedas en Internet está avanzando en sus esfuerzos por rivalizar con el acelerador de IA más vendido del sector.

Meta está negociando el uso de los chips de Google, conocidos como unidades de procesamiento tensorial o TPU, en centros de datos en 2027, según informó The Information, citando a una persona no identificada familiarizada con las negociaciones. Meta también podría alquilar chips a la división en la nube de Google el próximo año, según la misma fuente.

PUBLICIDAD

Ver más: Donald Trump firma la orden ‘Misión Génesis’ para impulsar la innovación científica con IA

Un acuerdo ayudaría a establecer las TPU como alternativa a los chips de Nvidia, el estándar de referencia para las grandes empresas tecnológicas y las startups, desde Meta hasta OpenAI, que necesitan potencia informática para desarrollar y ejecutar plataformas de inteligencia artificial.

Las acciones de Nvidia cayeron hasta un 3% en las operaciones previas a la apertura del mercado el martes. Alphabet Inc. (GOOGL), propietaria de Google, subió un 2,4%, lo que se suma al reciente aumento del optimismo sobre la última versión de su modelo de IA Gemini.

PUBLICIDAD

Google cerró previamente un acuerdo para suministrar hasta un millón de sus chips a Anthropic PBC, lo que llamó la atención sobre los posibles retos a largo plazo para la posición dominante de Nvidia en el mercado.

Tras el anuncio del acuerdo con Anthropic, el analista de Seaport Jay Goldberg lo calificó como una “validación realmente poderosa” para las TPU. “Mucha gente ya lo estaba pensando, y probablemente ahora haya mucha más gente pensándolo”, afirmó.

Los representantes de Meta se negaron a hacer comentarios, mientras que Google no respondió inmediatamente a las solicitudes.

Lo que dice Bloomberg Intelligence

El probable uso por parte de Meta de las TPU de Google, que ya utiliza Anthropic, muestra que es probable que los proveedores externos de grandes modelos de lenguaje aprovechen Google como proveedor secundario de chips aceleradores para la inferencia a corto plazo. El gasto de capital de Meta de al menos US$100.000 millones para 2026 sugiere que gastará al menos entre US$40.000 y US$50.000 millones en capacidad de chips de inferencia el próximo año, según nuestros cálculos. El crecimiento del consumo y la cartera de pedidos de Google Cloud podría acelerarse en comparación con otros hiperescaladores y nuevos competidores en la nube debido a la demanda de los clientes empresariales que desean consumir TPU y LLM Gemini en Google Cloud.

-Mandeep Singh y Robert Biggar, analistas.

Las acciones asiáticas relacionadas con Alphabet se dispararon en las primeras operaciones del martes en Asia. En Corea del Sur, IsuPetasys Co., que suministra placas multicapa a Alphabet, subió un 18% hasta alcanzar un nuevo récord intradía. En Taiwán, las acciones de MediaTek Inc. subieron casi un 5%.

Un acuerdo con Meta, uno de los mayores inversores mundiales en centros de datos y desarrollo de IA, supondría una victoria para Google. Pero mucho depende de si los chips Tensor pueden demostrar la eficiencia energética y la potencia de cálculo necesarias para convertirse en una opción viable a largo plazo.

El chip tensor, desarrollado hace más de 10 años especialmente para tareas de inteligencia artificial, está ganando impulso fuera de su empresa de origen como una forma de entrenar y ejecutar modelos complejos de IA. Su atractivo como alternativa ha crecido en un momento en que las empresas de todo el mundo se preocupan por la excesiva dependencia de Nvidia, en un mercado en el que incluso Advanced Micro Devices Inc. (AMD) es un lejano segundo.

Las unidades de procesamiento gráfico, o GPU, la parte del mercado de chips dominada por Nvidia, se crearon para acelerar el renderizado de gráficos, principalmente en videojuegos y otras aplicaciones de efectos visuales, pero resultaron ser muy adecuadas para entrenar modelos de IA, ya que pueden manejar grandes cantidades de datos y cálculos. Las TPU, por su parte, son un tipo de producto especializado conocido como circuitos integrados específicos para aplicaciones, o microchips diseñados para un fin concreto.

Los chips tensoriales también se adaptaron como aceleradores para tareas de IA y aprendizaje automático en las propias aplicaciones de Google. Dado que Google y su unidad DeepMind desarrollan modelos de IA de vanguardia como Gemini, la empresa ha podido trasladar las lecciones aprendidas de esos equipos a los diseñadores de chips. Al mismo tiempo, la capacidad de personalizar los chips ha beneficiado a los equipos de IA.

Este artículo fue actualizado a las 06:08 horas ET del martes 25 de noviembre de 2025.

Lea más en Bloomberg.com

PUBLICIDAD