La alianza entre Apple y Google en inteligencia artificial ya es oficial y va bastante más allá de un simple acuerdo puntual. La compañía de Cupertino ha decidido apoyarse en Gemini, la IA generativa de Google, para dar el salto que llevaba años posponiendo con Siri y con su plataforma Apple Intelligence. El movimiento marca un punto de inflexión en la estrategia de Apple y reconfigura el tablero de la IA a nivel global.
Tras meses de rumores, filtraciones y retrasos, Apple ha confirmado que la próxima generación de Siri y de sus Apple Foundation Models se construirá sobre los modelos de Gemini y la tecnología en la nube de Google. Eso sí, lo hará bajo sus propias reglas: los modelos se ejecutarán en la infraestructura de Apple, se integrarán de forma invisible para el usuario y mantendrán el enfoque tradicional de la compañía en privacidad y control del ecosistema.
Un acuerdo plurianual que cambia la estrategia de Apple
Apple y Google han anunciado una colaboración de varios años mediante la cual la nueva hornada de Apple Foundation Models se basará en Gemini y en la infraestructura cloud de Google. En palabras de ambas compañías, tras una evaluación detallada de distintas opciones, la tecnología de IA de Google proporciona «la base más capaz» y «la base más sólida» para los modelos que Apple necesita para la próxima fase de Apple Intelligence.
Según distintas fuentes del sector, entre ellas filtraciones previas de Bloomberg y CNBC, el acuerdo implicaría que Apple podría llegar a pagar en torno a 1.000 millones de dólares al año por licenciar y adaptar los modelos de Gemini. Se habla incluso de acceso a un modelo de alrededor de 1,2 billones de parámetros, muy por encima de los aproximadamente 150.000 millones de parámetros de los modelos internos más potentes que Apple tenía hasta ahora sobre la mesa.
Este giro llega después de que la empresa reconociera, de forma más o menos explícita, que su desarrollo interno de modelos fundacionales no avanzaba al ritmo esperado. La actualización de Siri y las funciones más ambiciosas de Apple Intelligence, que en principio se apuntaban a 2025, se han ido posponiendo, lo que dejaba a la compañía en una posición incómoda frente a la rapidez con la que competidores como OpenAI, Microsoft o Google iban desplegando productos generativos.
La alianza con Google encaja también con otros lazos previos entre ambas tecnológicas, como el acuerdo que hace que Google Search sea el buscador por defecto en Safari a cambio de varios miles de millones de dólares anuales. Ahora, el entendimiento se extiende a un terreno aún más sensible y estratégico: la inteligencia artificial que dará forma a la experiencia de usar un iPhone, un iPad o un Mac.

Cómo usará Apple Gemini: cerebro de fondo, sin logo de Google
Una de las claves del acuerdo es que Apple no va a «integrar Gemini» tal y como lo conocen los usuarios de Android, sino que va a licenciar el modelo para construir sus propios Apple Foundation Models encima. Técnicamente, Google entrega el modelo base —el «cerebro»— y Apple se encarga del postentrenamiento: ajustar su comportamiento, su tono de respuesta y su integración profunda con iOS, iPadOS, macOS y el resto del ecosistema.
Varios expertos que han analizado la arquitectura, como el desarrollador Max Weinbach, explican que Apple aplica una especie de «arnés» o harness sobre Gemini: el modelo mantiene su capacidad de razonamiento y comprensión del lenguaje, pero aprende las «reglas de la casa» de Apple. Eso implica desde el estilo de las respuestas hasta los límites de lo que puede hacer con los datos personales y cómo interactúa con apps como Mensajes, Mail, Recordatorios o Atajos.
Por eso, el usuario nunca verá un branding visible de Gemini en su iPhone. No habrá etiquetas del tipo «Powered by Google» ni un cambio de nombre del asistente: Siri seguirá siendo Siri, aunque por dentro esté utilizando una versión personalizada de Gemini como motor para determinadas tareas. Apple insiste en que lo que ha hecho es licenciar un modelo de Gemini para convertirlo en parte de sus Apple Foundation Models, no delegar la experiencia de usuario en un servicio externo.
Además, la compañía planea destilar versiones más ligeras de esa tecnología para ejecutarlas directamente en el dispositivo, algo similar a lo que Google hace con Gemini Nano en Android. Esto permitirá que parte de la inteligencia funcione de forma local, sin conexión, manteniendo el rendimiento y reduciendo la dependencia constante de la nube para las tareas menos exigentes.
Una Siri mucho más lista: qué cambiará con Gemini
El foco inmediato del acuerdo está en relanzar Siri como un asistente realmente capaz y conversacional. Apple lleva años prometiendo una Siri «más inteligente», pero los avances han sido graduales y la percepción general es que el asistente se había quedado corto frente a las experiencias que ofrecen ChatGPT o el propio Gemini en otros dispositivos.
Con la nueva arquitectura, Siri combinará modelos internos de Apple con el músculo de Gemini. Los modelos de Apple se encargarán de tareas muy ligadas al dispositivo y al contexto personal (por ejemplo, moverse entre apps, ejecutar atajos, gestionar notificaciones o realizar acciones muy específicas sobre datos locales), mientras que la IA de Google asumirá funciones como el resumen de contenido, la planificación compleja o el razonamiento de varias etapas.
En la práctica, esto permitirá que el asistente entienda mejor el lenguaje natural, gestione peticiones más largas y complejas y mantenga conversaciones más fluidas. La idea es que Siri pueda comprender contexto entre varias interacciones, recuperar información relevante de apps y documentos y sugerir pasos siguientes sin necesidad de estar repitiendo órdenes todo el tiempo.
Fuentes citadas por medios como CNBC señalan que Apple tendrá acceso a un modelo de unos 1,2 billones de parámetros, lo que supone un salto importante frente a sus modelos previos. Esa diferencia de escala debería traducirse en respuestas más precisas, tiempos de espera más reducidos y una mejor capacidad para «atar cabos» entre distintas consultas, tanto en español como en otros idiomas europeos.
La versión de Siri con nombre en clave «Linwood» se está desarrollando como parte de esta transición. Internamente, se plantea que esta nueva Siri pueda actuar casi como un agente que orquesta distintas acciones en el dispositivo: desde organizar un viaje entero combinando correos, mapas y calendario, hasta preparar resúmenes diarios personalizados con la información que más interesa al usuario.

Calendario: iOS 26.4, iOS 27 y una transición en dos tiempos
Apple no ha dado todavía una fecha cerrada para el despliegue definitivo de la nueva Siri, pero las piezas del calendario empiezan a encajar. Distintos analistas y filtraciones apuntan a que la primera gran oleada de cambios llegará con iOS 26.4, una actualización que se situaría en el primer trimestre de 2026, probablemente entre marzo y abril, tras un periodo de betas que podría arrancar a finales de enero o principios de febrero.
Esta primera fase tendría un objetivo claro: «rescatar» Siri, es decir, llevar al asistente de voz a un nivel competitivo sin desmontar de golpe el resto de Apple Intelligence. Los modelos actuales de Apple seguirían dando soporte a muchas funciones existentes, mientras que la parte de razonamiento avanzado y de conversación natural empezaría a apoyarse en Gemini.
A medio plazo, la compañía prepara una segunda etapa con iOS 27, donde el uso de Gemini se extendería más allá de Siri para abarcar nuevas funciones de Apple Intelligence. Se habla de mejoras profundas en generación de texto e imágenes, herramientas más sofisticadas de ayuda a la escritura, automatización avanzada mediante Atajos y una integración aún más estrecha con aplicaciones de productividad.
Esta transición escalonada responde a una lógica bastante pragmática: no tiene sentido rediseñar toda la plataforma de IA de un día para otro cuando millones de iPhone, iPad y Mac dependen de ella. Primero se refuerza la pieza más visible —Siri— y después se va extendiendo el nuevo «cerebro» al resto del sistema conforme se validan el rendimiento, la estabilidad y la aceptación del cambio.
Para los usuarios de España y del resto de Europa, el despliegue de estas novedades estará condicionado también por el marco regulatorio europeo y por los requisitos que marquen normas como el Reglamento de IA o la Ley de Mercados Digitales. No sería extraño ver un lanzamiento escalonado por regiones o ciertas funciones limitadas temporalmente hasta recibir el visto bueno de las autoridades competentes.

Privacidad y arquitectura técnica: tres niveles para procesar tus datos
La gran pregunta, especialmente en Europa, es qué pasa con la privacidad cuando la IA que da vida a Siri procede de un tercero como Google. Apple y Google han tratado de despejar dudas desde el primer momento, insistiendo en que Apple Intelligence seguirá ejecutándose en los dispositivos y en Private Cloud Compute, la plataforma de nube privada de Apple diseñada precisamente para procesar datos sensibles de forma segura.
La arquitectura se basa en tres niveles de procesamiento. En el primero, el más cercano al usuario, encontramos los modelos que corren directamente en el dispositivo (on-device). Son versiones más ligeras, derivadas o destiladas a partir de modelos mayores, que se ejecutan en el Neural Engine de los chips de Apple. Con ellos se gestionan tareas cotidianas como reescribir mensajes, resumir notificaciones o realizar sugerencias rápidas, todo sin que la información salga del iPhone o del iPad.
El segundo nivel es Private Cloud Compute, la nube privada de Apple. Sólo cuando el dispositivo detecta que una petición necesita más capacidad de cálculo —por ejemplo, por la longitud del texto o por la complejidad del razonamiento—, se envían los datos necesarios a esta infraestructura. Antes, el sistema realiza una validación criptográfica del dispositivo para asegurarse de que es legítimo. Los servidores, según Apple, no conservan memoria persistente de estas peticiones: procesan, responden y descartan.
En el tercer nivel entra en juego Gemini. La novedad es que los grandes modelos de Google se ejecutarán dentro de la propia nube privada de Apple, sin que los datos tengan que ir a centros de datos de Google identificables como tales. Es decir, Apple licencia el modelo, no el servicio. De esta forma, la compañía busca demostrar que puede usar la base de un LLM tan potente como Gemini sin que los datos personales se mezclen con otras cargas de trabajo de Google.
Para reforzar este enfoque, Apple y Google han señalado que, además de estos modelos en la nube, los dispositivos podrán utilizar versiones muy comprimidas, similares a Gemini Nano, en local. Este planteamiento rompe, en parte, con la idea de que una IA potente exige necesariamente abandonar cualquier control sobre la información que se procesa. Apple intenta situarse así en un punto intermedio: aprovechar el «cerebro» más avanzado disponible, pero encerrado en lo que describen como una especie de «caja fuerte criptográfica» propia.
ChatGPT, OpenAI y el resto de actores: qué cambia ahora
La apuesta por Gemini no borra de un plumazo otras colaboraciones de Apple en el terreno de la IA. A día de hoy, Apple Intelligence ya recurre a ChatGPT en determinadas circunstancias: cuando Siri detecta que una consulta requiere un conocimiento general muy amplio o una generación creativa de contenido que sus modelos no cubren bien, puede preguntar al usuario si desea enviar la petición a la IA de OpenAI.
Con la llegada de Gemini como motor central de Siri, este esquema se complica. Sobre el papel, el nuevo asistente debería ser capaz de resolver muchas de las peticiones que hoy se derivan hacia ChatGPT, lo que reduce la necesidad práctica de ese puente. Aun así, fuentes cercanas al sector apuntan a que Apple podría mantener la integración con OpenAI para escenarios muy específicos o como opción secundaria para quienes ya usan la cuenta de ChatGPT en otros contextos.
Desde el punto de vista estratégico, la alianza con Google confirma que Apple ha optado por un modelo de proveedores múltiples: licencia tecnología de distintos actores, la adapta a su ecosistema y se reserva el control de la capa final de experiencia y de seguridad. Es una posición distinta a la de empresas como Microsoft, mucho más alineada con un único socio principal (OpenAI), y contrasta también con la apuesta de compañías como Meta, que impulsan modelos abiertos.
Este enfoque híbrido tiene ventajas y riesgos. Por un lado, da flexibilidad para cambiar de socio si uno se queda atrás o si la regulación fuerza ajustes. Por otro, añade complejidad técnica y puede generar cierta confusión acerca de quién hace exactamente qué en segundo plano. De momento, Apple se agarra a un mensaje sencillo: el usuario hablará con Siri, no con Gemini ni con ChatGPT, y será el sistema el que decida a qué modelo recurrir en cada momento.
En paralelo, el acuerdo refuerza la posición de Google en la batalla por el liderazgo de la IA. La noticia ha tenido impacto directo en los mercados: la matriz de Google, Alphabet, ha llegado a superar los 4 billones de dólares de capitalización bursátil en operaciones intradía, un club al que sólo se han sumado hasta ahora empresas como Nvidia, Apple y Microsoft.
Reacciones, críticas y posible impacto regulatorio
Más allá de la acogida positiva en Wall Street, el pacto Apple-Google ha provocado reacciones críticas en el propio sector tecnológico. La más visible ha sido la de Elon Musk, fundador de xAI —creadora de la IA Grok— y propietario de X (antes Twitter), que ha aprovechado la red social para cargar contra lo que considera una concentración excesiva de poder en manos de Google.
En respuesta al anuncio oficial del acuerdo por parte de la cuenta de Google, Musk afirmó que «esto parece una concentración de poder irrazonable para Google, dado que también tienen Android y Chrome». Su preocupación se centra en que la misma compañía controle la IA que impulsa tanto el ecosistema Android como buena parte de las funciones inteligentes de los dispositivos Apple, reduciendo el espacio para alternativas como la suya propia.
Estas críticas se suman a debates regulatorios ya abiertos en Estados Unidos y en la Unión Europea sobre la posición dominante de grandes plataformas tecnológicas. Las autoridades de competencia han vigilado de cerca durante años el acuerdo que convierte a Google Search en el buscador predeterminado en los dispositivos de Apple, y no sería extraño que ahora analicen con lupa esta nueva colaboración en el campo de la IA.
En Europa, el contexto es especialmente sensible. El Reglamento de IA y la Ley de Mercados Digitales fijan estándares estrictos sobre transparencia, uso de datos y posibles prácticas anticompetitivas. Un acuerdo en virtud del cual un mismo proveedor de IA se convierte en pieza central de las plataformas de dos gigantes como Apple y Google puede plantear preguntas sobre dependencia tecnológica, interoperabilidad y opciones reales de elección para consumidores y desarrolladores.
Por ahora, tanto Apple como Google enfatizan que Apple controla la experiencia, la infraestructura y las garantías de privacidad, y que Gemini se limita a aportar el modelo subyacente. Aun así, el alcance real de la colaboración y su impacto en la competencia se irá clarificando a medida que la nueva Siri y las próximas funciones de Apple Intelligence vayan llegando a los dispositivos de los usuarios.

Con este movimiento, Apple pasa de una postura prudente en IA generativa a una apuesta decidida, aunque apoyada en un socio externo, mientras que Google consolida su tecnología Gemini como referencia para terceros. La nueva Siri, que debería empezar a llegar a lo largo de 2026 con iOS 26.4 y posteriores, será la primera prueba visible de hasta qué punto esta combinación es capaz de ofrecer una experiencia realmente más útil, respetuosa con la privacidad y competitiva en un mercado donde los asistentes y modelos de lenguaje se han convertido en la pieza clave de casi todo lo que hacemos con el móvil.