tech

Apple le está pagando $1,000 millones al año a Google para que Gemini sea el cerebro de la nueva Siri (y llega este mes)

tech · 7 min de lectura (actualizado)

Apple le está pagando $1,000 millones al año a Google para que Gemini sea el cerebro de la nueva Siri (y llega este mes)

Apple anunció en enero 2026 un acuerdo de $1B anuales con Google para que Gemini 1.2T parámetros sea la base de la nueva Siri personalizada. Qué cambia para tu iPhone, cuándo llega y qué pasa con tu privacidad.

Apple le está pagando $1,000 millones al año a Google para que Gemini sea el cerebro de la nueva Siri (y llega este mes)

Apple siempre presumió que hacía todo propio. Sus chips, sus sistemas operativos, su infraestructura de privacidad. Era parte de la identidad de la marca: “nosotros controlamos todo el stack.” Pues resulta que eso ya no aplica para la IA, y el 12 de enero de 2026 lo reconoció públicamente: va a pagarle a Google mil millones de dólares al año para que Gemini sea el cerebro de la nueva Siri.

Sí, leíste bien. Apple le paga a Google. La relación que normalmente va al revés (Google le paga ~$20 billones al año a Apple por ser el buscador default en Safari) ahora tiene una segunda capa donde el flujo de dinero cambia de dirección.

Qué fue lo que pasó exactamente

Bloomberg reportó en noviembre de 2025 que Apple planeaba usar un modelo Gemini de 1.2 trillones de parámetros para potenciar Apple Foundation Models, el sistema de IA que corre debajo de Siri. El 12 de enero de 2026, Apple y Google lo confirmaron con un comunicado conjunto.

El modelo en cuestión es Gemini con 1.2 trillones de parámetros: ocho veces más grande que el modelo que Apple usaba antes (150 billones de parámetros). Y el acuerdo no es pequeño: $1 billón al año según Bloomberg, con analistas como Gene Munster de Deepwater estimando que el valor total del contrato podría llegar a los $5,000 millones de dólares.

Antes de firmar con Google, Apple evaluó a OpenAI y a Anthropic. Los descartó a ambos. ¿La razón? Google pudo ofrecer mejores garantías en privacidad y propiedad intelectual, además de tener la infraestructura de nube más robusta para el tipo de procesamiento que Apple necesita.

Qué cambia en la práctica para tu iPhone

La nueva Siri no es la Siri que ya conoces (y que probablemente ya no usas porque siempre entiende mal). Esto es lo que viene con el rollout:

Contexto personal real: Siri podrá entender preguntas complejas cruzando información de tus apps. “Busca el podcast que me recomendó mi amigo en un mensaje de texto y ponlo ahora” es el tipo de cosa que debería poder hacer sin que tú copies y pegues nada manualmente.

On-screen awareness (conciencia de pantalla): Siri podrá ver lo que tienes en la pantalla y actuar en consecuencia. Si estás viendo una receta en Safari, puedes decirle “agrega los ingredientes al carrito de Amazon” y lo hará.

Cross-app actions: Encadenar acciones entre múltiples apps sin que tengas que saltar de una a otra. El tipo de automatización que antes requería Shortcuts con tres horas de configuración.

Summarizer y Planner mejorados: Resúmenes más inteligentes de hilos largos de correos o conversaciones de WhatsApp, y capacidad para ayudarte a planear cosas con múltiples pasos.

La arquitectura funciona en capas: las tareas simples se procesan en el dispositivo (on-device), las medianas van al Private Cloud Compute de Apple (sus servidores cifrados), y solo las consultas más exigentes escalan a la infraestructura de Google. El modelo opera con white-label, o sea, no vas a ver el nombre de Gemini en ninguna pantalla.

La pregunta que todos se hacen: ¿qué pasa con mi privacidad?

Aquí Apple fue cuidadosa con el mensaje. Tim Cook dijo: “Seguirá ejecutándose en el dispositivo y en Private Cloud Compute y mantendremos nuestros estándares líderes de privacidad.”

La versión técnica es esta: Google no tiene acceso a tu Gmail, tu Drive, ni a tus datos de Google aunque use Gemini para procesar consultas de Siri. Apple controla el pipeline de datos: Gemini solo recibe lo que Apple decide enviarle, no tiene visión completa de quién eres.

Lo que sí hay que notar, y que nadie está diciendo tan fuerte: aunque tus datos crudos no se transfieran, Google obtiene “inteligencia de producto”: patrones de consultas, features más usados, cómo interactúa la gente con el modelo. Eso es información valiosa aunque no sea tu nombre ni tu CURP.

¿Es un riesgo real? Comparado con darle acceso completo a tu cuenta de Google, no. Pero decir que Google “no sabe nada” tampoco es del todo honesto. Como discutimos en nuestro análisis sobre cómo Google quiere leer tu Gmail, tus fotos y tu historial con Personal Intelligence, la empresa ya lleva rato ampliando su acceso a datos personales. Saberlo y decidir con eso en mente es lo mínimo.

¿Cuándo llega a México?

9to5Mac reportó el 20 de marzo que el lanzamiento “podría llegar este mes”, aunque Apple ya retrasó las funciones de iOS 26.4 a iOS 26.5. El escenario más realista es un primer beta a finales de marzo y lanzamiento público en abril-mayo 2026.

Para México específicamente: la cosa se complica. Apple Intelligence históricamente llega primero en inglés (EE.UU.) y luego se expande progresivamente a otros idiomas. No hay fechas confirmadas para español/LATAM con las nuevas funciones de Gemini. Lo más probable es que el rollout completo en español llegue después de iOS 26.5, posiblemente con iOS 26.6 o iOS 27 en septiembre.

Para comparar: China tampoco entra en el acuerdo con Google por restricciones regulatorias. Apple está usando Alibaba y explorando con Baidu para ese mercado. México no tiene ese problema regulatorio, pero sí el de siempre: somos segunda o tercera ola en los rollouts de Apple Intelligence.

El giro estratégico que nadie esperaba

Lo más interesante del acuerdo no es el dinero ni las funciones. Es lo que dice sobre Apple.

Durante años, el discurso fue: “no podemos confiar nuestros datos a terceros, todo debe ser on-device o en nuestra propia nube.” Ese discurso sirvió para diferenciarse de Google y para justificar por qué Siri era menos capaz que Google Assistant o ChatGPT. La respuesta implícita siempre fue: “es que priorizamos tu privacidad sobre el rendimiento.”

Pues ahora Apple básicamente admite que no pudo construir un modelo fundacional competitivo de forma independiente a tiempo. El modelo que usaban antes tenía 150B parámetros. El de Gemini tiene 1.2T. Esa no es una diferencia de iteración: es una diferencia de generación completa.

Y mientras Apple hacía ese reconocimiento, en comparativas como la que hicimos entre ChatGPT, Claude, Gemini, Grok y DeepSeek, Gemini ya estaba posicionándose como uno de los modelos más capaces, especialmente en tareas multimodales y de contexto largo. Que Apple lo haya elegido sobre OpenAI y Anthropic dice mucho.

¿Quién gana y quién pierde?

Google gana bien: valida a Gemini como el modelo de referencia, obtiene distribución en más de 1,000 millones de iPhones, y su participación de mercado en IA creció significativamente desde el anuncio. Encima, cobra por ello.

Apple gana (a mediano plazo): la nueva Siri finalmente puede competir con lo que ya ofrecen Android y ChatGPT. El costo es la narrativa de “todo propio.”

OpenAI pierde: tenía acceso preferencial a los usuarios de iPhone con ChatGPT integrado en iOS. Con Gemini tomando el rol de modelo base, ese acuerdo queda en un segundo plano importante. Su cuota en mobile en EE.UU. ya cayó del 69% al 45% según analistas.

¿Los usuarios de iPhone en México?: en papel, ganan una Siri que por fin va a servir de algo. En práctica, hay que esperar al rollout en español, que no tiene fecha confirmada. Mientras tanto, si tienes iPhone y quieres la experiencia de IA más avanzada posible en el ecosistema Apple, la MacBook Air M5 ya tiene algunas funciones de Apple Intelligence disponibles desde antes.

Está una chimba el acuerdo desde el lado competitivo. Pero para ti, usuario de iPhone en México, la pregunta práctica sigue siendo: ¿cuándo llega en español y cuándo puedo usarlo? Ahí todavía no hay respuesta clara.

¿Ya probaste alguna función de Apple Intelligence en tu iPhone? ¿O sigues esperando que Siri entienda lo que le dices en español sin tener que repetírselo tres veces? Cuéntame abajo.

Fuentes

Comentarios

No te pierdas ningún post

Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.

También te puede interesar