Bloomberg — Ant Group Co., respaldada por Jack Ma, utilizó semiconductores fabricados en China para desarrollar técnicas de entrenamiento de modelos de IA que reducirían los costos en un 20%, según personas familiarizadas con el asunto.
Ant utilizó chips nacionales, incluidos los de las filiales Alibaba Group Holding Ltd. (BABA) y Huawei Technologies Co., para entrenar modelos utilizando el llamado enfoque de aprendizaje automático Mixture of Experts, dijeron las personas. Obtuvieron resultados similares a los de los chips de Nvidia Corp. (NVDA), como el H800, afirmaron, pidiendo no ser identificadas debido a que la información no es pública.
Ant, con sede en Hangzhou, sigue utilizando Nvidia para el desarrollo de IA, pero ahora depende principalmente de alternativas, incluidas las de Advanced Micro Devices Inc. (AMD) y chips chinos para sus últimos modelos, dijo una de las personas.
Los modelos marcan la entrada de Ant en una carrera entre empresas chinas y estadounidenses que se ha acelerado desde que DeepSeek demostró que se pueden entrenar modelos por mucho menos que los miles de millones invertidos por OpenAI y Google, de Alphabet Inc. (GOOGL).
Esto subraya cómo las empresas chinas están tratando de utilizar alternativas locales a los semiconductores Nvidia más avanzados. Aunque no es el más avanzado, el H800 es un procesador relativamente potente y actualmente Estados Unidos tiene restringida su venta a China.
La empresa publicó este mes un documento de investigación que afirmaba que sus modelos superaban en ocasiones a los de Meta Platforms Inc. (META) en ciertos parámetros de referencia, lo que Bloomberg News no ha verificado de forma independiente.
Pero si funcionan como se anuncia, las plataformas de Ant podrían suponer otro paso adelante para el desarrollo de la inteligencia artificial china al reducir drásticamente el costo de la inferencia o de los servicios de apoyo a la IA.
Lea más: China anuncia investigación sobre subvenciones de EE.UU. a chips y supuesto dumping
A medida que las empresas invierten grandes cantidades de dinero en IA, los modelos MoE se han convertido en una opción popular, ganando reconocimiento por su uso por parte de Google y la startup de Hangzhou DeepSeek, entre otros.
Esa técnica divide las tareas en conjuntos de datos más pequeños, de forma muy similar a tener un equipo de especialistas que se centran cada uno en un segmento de un trabajo, haciendo el proceso más eficiente. Ant declinó hacer comentarios en un mensaje enviado por correo electrónico.
Lea más en Bloomberg.com