Bloomberg — Amazon.com Inc. (AMZN) está aumentando su oferta de inteligencia artificial, desplegando nuevas y potentes matrices de chips y un gran modelo de lenguaje que, según afirma, puede competir con los principales rivales.
La empresa con sede en Seattle está ensartando cientos de miles de sus semiconductores Trainium2 en clústeres que facilitarán a su socio Anthropic el entrenamiento de los grandes modelos de lenguaje necesarios para la IA generativa y otras tareas de aprendizaje automático. Las nuevas matrices quintuplicarán la potencia de procesamiento actual de la startup, dijo Amazon.
Amazon Web Services, la división de servicios en la nube, comenzó a ofrecer sus últimos chips a los clientes el martes, dijo la compañía en su conferencia anual.
Lea más: ¿Conviene comprar en Amazon desde Argentina? Estudio revela qué opción es más económica.
Andy Jassy, en su primera aparición en la feria desde que se convirtió en director ejecutivo de Amazon en 2021, presentó los nuevos modelos, denominados Nova. Capaces de generar texto, imágenes y video, representan el último esfuerzo de Amazon por competir con OpenAI y otros constructores de los grandes modelos lingüísticos que alimentan los chatbots y otras herramientas de IA generativa.
AWS, el mayor vendedor de potencia informática alquilada, gestiona muchos de los servidores que otras empresas alquilan para entrenar aplicaciones de inteligencia artificial. AWS también pone a disposición de los clientes de AWS modelos construidos por otras empresas, como Claude, de Anthropic, y Llama, de Meta Platforms Inc. (META) Pero la compañía aún no ha producido un gran modelo lingüístico que se considere competitivo con los modelos GPT más avanzados de OpenAI.
Los modelos anteriores creados por Amazon y lanzados en los dos últimos años, llamados Titan, eran en general de menor alcance. Los modelos Nova, algunos disponibles ahora y otros el año que viene, incluyen una versión "multimodal a multimodal" que puede tomar texto, voz, imágenes y vídeo como entradas y generar respuestas en cada modo.
Amazon, dijo Jassy, continuará tanto desarrollando sus propios modelos como ofreciendo los construidos por otros. "Vamos a ofrecerle la funcionalidad más amplia y mejor que pueda encontrar en cualquier lugar", afirmó.
Amazon dijo el mes pasado que estaba invirtiendo otros US$4.000 millones en Anthropic. Como parte del acuerdo, Anthropic dijo que utilizaría la nube de Amazon y sus chips para desarrollar sus modelos más avanzados.
El nuevo clúster de chips, llamado Proyecto Rainier, contendrá "significativamente más" de 100.000 chips, dijo en una entrevista Gadi Hutt, que trabaja con clientes en la unidad de fabricación de chips Annapurna Labs de Amazon. Amazon dice que espera que el clúster sea el mayor conjunto de hardware dedicado a la IA del mundo.
Amazon espera que los chips, la tercera generación de semiconductores de IA de la compañía, resulten competitivos frente a los productos de Nvidia Corp. (NVDA), ofreciendo a los clientes de AWS una alternativa a la hora de desarrollar productos de IA generativa. Para la mayoría de las empresas, las unidades de procesamiento gráfico de Nvidia, costosas y a menudo escasas, son el hardware por defecto para este tipo de tareas en la actualidad.
Amazon afirma que ofrecerá a los clientes potencia de cálculo respaldada por el nuevo chip Blackwell de Nvidia a partir de principios del año que viene.
Lea más en Bloomberg.com