Bloomberg — Apple Inc (AAPL) está en conversaciones iniciales sobre el uso de Google Gemini para impulsar una versión renovada del asistente de voz Siri, marcando un posible paso clave hacia la externalización de más de su tecnología de inteligencia artificial.
Ver más: ChatGPT-5 no ha solucionado por completo su problema más preocupante
El fabricante del iPhone se puso en contacto recientemente con Google, de Alphabet Inc (GOOGL), para explorar la posibilidad de construir un modelo de IA personalizado que serviría como base de la nueva Siri el año que viene, según personas familiarizadas con el asunto. Google ha comenzado a entrenar un modelo que podría funcionar en los servidores de Apple, dijeron las personas, que pidieron no ser identificadas porque las discusiones son privadas.
El trabajo forma parte de un esfuerzo por ponerse al día en la IA generativa, un campo en el que la compañía llegó tarde y luego luchó por ganar tracción. A principios de este año, Apple también exploró asociaciones con Anthropic PBC y OpenAI, sopesando si Claude o ChatGPT podrían servir como el nuevo cerebro de Siri.
Aún faltan varias semanas para que Apple tome una decisión sobre si seguirá utilizando modelos internos para Siri o recurrirá a un socio. Y aún no ha determinado quién puede ser ese socio. Los portavoces de Apple y Google declinaron hacer comentarios.
Las acciones de Google y Apple subieron a máximos de sesión el viernes después de que Bloomberg News informara de las conversaciones. Google subía un 2,9% a 205,46 dólares a partir de la 13:15 en Nueva York, mientras que Apple subía un 1,4% a 227,95 dólares.
El posible giro se produce tras los retrasos en una actualización de Siri largamente anunciada, que cumpliría órdenes aprovechando los datos personales y permitiría a los usuarios navegar por los dispositivos totalmente a través de la voz. La actualización de Siri estaba prevista para la pasada primavera, pero se pospuso un año debido a contratiempos de ingeniería.
El fracaso llevó a Apple a apartar al jefe de IA, John Giannandrea, del desarrollo de Siri. El proyecto está ahora supervisado por el jefe de software Craig Federighi y el creador de los auriculares Vision Pro Mike Rockwell, que están sopesando el uso de ayuda externa como posible camino a seguir.

La actualización de Siri se diseñó originalmente en torno a una tecnología desarrollada por el equipo de modelos de la Fundación Apple. Ese grupo también creó los grandes modelos lingüísticos en el dispositivo que potencian funciones de la Inteligencia de Apple como el resumen de texto y la creación de emoji personalizados.
Con el objetivo de arreglar los fallos de Siri y llevar al mercado las funciones retrasadas, Federighi, Rockwell y el equipo de desarrollo corporativo de Apple dirigido por Adrian Perica empezaron a reunirse con Anthropic y OpenAI sobre un posible acuerdo.
Internamente, Apple está llevando a cabo un bake-off para ver qué enfoque funcionará mejor. La empresa está desarrollando simultáneamente dos versiones de la nueva Siri: una apodada Linwood que funciona con sus modelos y otra con nombre en código Glenwood que funciona con tecnología externa.
Los ejecutivos llevaban tiempo considerando a Anthropic como el principal candidato para una asociación, pero las condiciones financieras exigidas por esa empresa llevaron a Apple a ampliar la búsqueda y a incluir a otros en la mezcla. Desde luego, Apple tampoco ha descartado seguir con sus propios modelos.
Estas conversaciones son independientes de otros acuerdos para integrar chatbots en la Inteligencia de Apple. El año pasado, Apple añadió ChatGPT como alternativa a Siri para las consultas de conocimientos generales, un área en la que el asistente lleva mucho tiempo rindiendo por debajo de sus posibilidades. Y tanto Apple como Google ya han señalado públicamente planes para una integración similar de Gemini.
Aunque Apple y Google son rivales en teléfonos inteligentes, sistemas operativos y servicios, ya tienen una asociación de búsqueda. Google paga miles de millones de dólares al año para que su motor de búsqueda sea la opción por defecto en los productos de Apple. Pero ese acuerdo se encuentra bajo el escrutinio antimonopolio del Departamento de Justicia de EE.UU. y podría deshacerse en última instancia.
Las conversaciones sobre el uso de los modelos Gemini de Google para potenciar Siri siguen siendo exploratorias, sin que haya negociaciones comerciales formales en curso. Google ha llegado a acuerdos similares con anterioridad y potencia gran parte de las funciones de IA de los teléfonos vendidos por Samsung Electronics Co.
El grupo de modelos de IA de Apple, mientras tanto, sigue sufriendo convulsiones. En julio, Ruoming Pang -el arquitecto jefe del equipo- se marchó a Meta Platforms Inc (META). Le atrajo un paquete de 200 millones de dólares y un puesto directivo en la nueva unidad Superintelligence Labs.
Varios colegas le siguieron pronto, y muchos de los que permanecen en Apple están haciendo entrevistas de trabajo en otros lugares, ya sea por el posible cambio a la tecnología de terceros o para cobrar ofertas de trabajo multimillonarias.

Algunos líderes de ingeniería de software han planteado una idea relacionada de sustituir también los modelos utilizados para las funciones de IA no relacionadas con Siri en los dispositivos de Apple.
Eso supondría una ruptura con el enfoque preferido de Apple. Por lo general, la compañía ha tratado de mantener la propiedad de las funciones de IA que se ejecutan en las máquinas de los consumidores, con el objetivo de garantizar la seguridad y la privacidad. Eso incluye las capacidades de la Inteligencia de Apple, como las herramientas de escritura.
Sin embargo, tal plan no es algo en lo que la compañía esté trabajando activamente. En el caso de una asociación Siri, los modelos de terceros se ejecutarían en los servidores Private Cloud Compute de Apple, que utilizan chips Mac para el procesamiento remoto de la IA. Eso significa que los modelos externos de Siri no se ejecutarían en los propios dispositivos.
Apple sigue años por detrás de sus rivales en IA, y eso ha impulsado a la dirección a considerar una serie de opciones. En una reciente reunión con todos los empleados, el consejero delegado Tim Cook dijo a los empleados que Apple debe ganar en IA y que está intensificando sus inversiones. Adoptó un tono optimista, señalando que Apple rara vez es la primera en llegar a nuevos mercados, pero aun así acaba ofreciendo un producto superior.
Durante una llamada sobre las ganancias trimestrales esa misma semana, Cook declinó hacer comentarios sobre el uso de modelos de terceros, diciendo que cualquier discusión revelaría los planes de la compañía. Pero eso en sí mismo fue una señal de que Apple estaba considerando un enfoque externo.
Apple ya ha empezado a reclutar socios para algunas funciones de consumo y sus operaciones internas. En el sistema operativo iOS 26, la empresa está ofreciendo una opción ChatGPT para generar imágenes, y acabó con un proyecto anunciado públicamente para desarrollar su propio sistema de codificación generativo basado en IA. En su lugar, la empresa está utilizando ChatGPT y Claude.
Al mismo tiempo, el trabajo dentro del equipo de Modelos de Fundación de Apple continúa. Recientemente, la empresa comenzó a probar su primer modelo de un billón de parámetros, un gran salto con respecto a los 150.000 millones de sistemas que funcionan actualmente en los centros de datos de IA de Apple.
Los parámetros son una medida de la complejidad y la capacidad de aprendizaje de los modelos de inteligencia artificial. Sobre esta base, Apple sigue estando muy por detrás de los líderes de la IA. OpenAI utiliza un enfoque de varios trillones de parámetros.
En cualquier caso, Apple aún no tiene planes de ofrecer este sistema más potente a los clientes. Al menos por ahora, sólo se utilizará para investigación.
Lea más en Bloomberg.com