Bloomberg — DeepSeek presentó el lunes una versión experimental de su modelo de IA, a la que definió como un paso hacia la próxima generación de inteligencia artificial.
La startup china esbozó la plataforma DeepSeek-V3.1-Exp, explicando que utiliza una nueva técnica que denomina DeepSeek Sparse Attention DeepSeek Atención dispersa o DSA), según un post en su página Hugging Face.
Ver más: DeepSeek lanzará un agente de IA a finales de 2025 para competir con OpenAI
La última versión marca “un paso intermedio hacia nuestra arquitectura de próxima generación”, dijo la startup con sede en Hangzhou, indicando también que estaba trabajando con fabricantes de chips chinos en el modelo.
DeepSeek, cuyo R1 seminal asombró a Silicon Valley con su sofisticación este año, está trabajando en nuevos productos para apuntalar ese liderazgo en el sector chino de la IA.
La última versión se basa en la anterior V3.1 al introducir un mecanismo diseñado para explorar y optimizar el entrenamiento y el funcionamiento de la IA. Su objetivo es mostrar la investigación de la startup sobre las formas de mejorar la eficacia a la hora de procesar secuencias de texto largas, dijo la startup.
DeepSeek también dijo que estaba reduciendo a la mitad los precios de sus herramientas de software, uniéndose a otras startups chinas en la reducción de costos para atraer a los usuarios.
Ver más: Huawei duplicará su producción de chips de IA en 2026 para desafiar a Nvidia
El lunes, Huawei Technologies Co. -líder en chips chinos de IA- anunció que sus productos serían compatibles con la última actualización del modelo de DeepSeek.
DeepSeek ha indicado que las versiones más recientes de sus modelos son compatibles con la arquitectura FP8 o de coma flotante 8, mientras que trabaja en la compatibilidad con la BF16. Ambos son términos técnicos que designan las formas de almacenar los números en los ordenadores para la IA y el aprendizaje automático. En teoría, FP8 ahorra memoria y acelera los cálculos.
Los modelos de IA manejan millones de números y el uso de formatos más pequeños como FP8 y BF16 equilibra la velocidad con la precisión, y facilita la ejecución de grandes modelos en un hardware limitado. Aunque no es muy preciso, el FP8 se considera útil para muchas tareas de IA. BF16 o Brain Floating Point 16 se considera más preciso para entrenar modelos de IA.
Lea más en Bloomberg.com