Apple le está pagando $1,000 millones al año a Google para que Gemini sea el cerebro de la nueva Siri (y llega este mes)
Apple anunció en enero 2026 un acuerdo de $1B anuales con Google para que Gemini 1.2T parámetros sea la base de la nueva Siri personalizada. Qué cambia para tu iPhone, cuándo llega y qué pasa con tu privacidad.
Apple siempre presumió que hacía todo propio. Sus chips, sus sistemas operativos, su infraestructura de privacidad. Era parte de la identidad de la marca: “nosotros controlamos todo el stack.” Pues resulta que eso ya no aplica para la IA, y el 12 de enero de 2026 lo reconoció públicamente: va a pagarle a Google mil millones de dólares al año para que Gemini sea el cerebro de la nueva Siri.
Sí, leíste bien. Apple le paga a Google. La relación que normalmente va al revés (Google le paga ~$20 billones al año a Apple por ser el buscador default en Safari) ahora tiene una segunda capa donde el flujo de dinero cambia de dirección.
Qué fue lo que pasó exactamente
Bloomberg reportó en noviembre de 2025 que Apple planeaba usar un modelo Gemini de 1.2 trillones de parámetros para potenciar Apple Foundation Models, el sistema de IA que corre debajo de Siri. El 12 de enero de 2026, Apple y Google lo confirmaron con un comunicado conjunto.
El modelo en cuestión es Gemini con 1.2 trillones de parámetros: ocho veces más grande que el modelo que Apple usaba antes (150 billones de parámetros). Y el acuerdo no es pequeño: $1 billón al año según Bloomberg, con analistas como Gene Munster de Deepwater estimando que el valor total del contrato podría llegar a los $5,000 millones de dólares.
Antes de firmar con Google, Apple evaluó a OpenAI y a Anthropic. Los descartó a ambos. ¿La razón? Google pudo ofrecer mejores garantías en privacidad y propiedad intelectual, además de tener la infraestructura de nube más robusta para el tipo de procesamiento que Apple necesita.
Qué cambia en la práctica para tu iPhone
La nueva Siri no es la Siri que ya conoces (y que probablemente ya no usas porque siempre entiende mal). Esto es lo que viene con el rollout:
Contexto personal real: Siri podrá entender preguntas complejas cruzando información de tus apps. “Busca el podcast que me recomendó mi amigo en un mensaje de texto y ponlo ahora” es el tipo de cosa que debería poder hacer sin que tú copies y pegues nada manualmente.
On-screen awareness (conciencia de pantalla): Siri podrá ver lo que tienes en la pantalla y actuar en consecuencia. Si estás viendo una receta en Safari, puedes decirle “agrega los ingredientes al carrito de Amazon” y lo hará.
Cross-app actions: Encadenar acciones entre múltiples apps sin que tengas que saltar de una a otra. El tipo de automatización que antes requería Shortcuts con tres horas de configuración.
Summarizer y Planner mejorados: Resúmenes más inteligentes de hilos largos de correos o conversaciones de WhatsApp, y capacidad para ayudarte a planear cosas con múltiples pasos.
La arquitectura funciona en capas: las tareas simples se procesan en el dispositivo (on-device), las medianas van al Private Cloud Compute de Apple (sus servidores cifrados), y solo las consultas más exigentes escalan a la infraestructura de Google. El modelo opera con white-label, o sea, no vas a ver el nombre de Gemini en ninguna pantalla.
La pregunta que todos se hacen: ¿qué pasa con mi privacidad?
Aquí Apple fue cuidadosa con el mensaje. Tim Cook dijo: “Seguirá ejecutándose en el dispositivo y en Private Cloud Compute y mantendremos nuestros estándares líderes de privacidad.”
La versión técnica es esta: Google no tiene acceso a tu Gmail, tu Drive, ni a tus datos de Google aunque use Gemini para procesar consultas de Siri. Apple controla el pipeline de datos: Gemini solo recibe lo que Apple decide enviarle, no tiene visión completa de quién eres.
Lo que sí hay que notar, y que nadie está diciendo tan fuerte: aunque tus datos crudos no se transfieran, Google obtiene “inteligencia de producto”: patrones de consultas, features más usados, cómo interactúa la gente con el modelo. Eso es información valiosa aunque no sea tu nombre ni tu CURP.
¿Es un riesgo real? Comparado con darle acceso completo a tu cuenta de Google, no. Pero decir que Google “no sabe nada” tampoco es del todo honesto. Como discutimos en nuestro análisis sobre cómo Google quiere leer tu Gmail, tus fotos y tu historial con Personal Intelligence, la empresa ya lleva rato ampliando su acceso a datos personales. Saberlo y decidir con eso en mente es lo mínimo.
¿Cuándo llega a México?
9to5Mac reportó el 20 de marzo que el lanzamiento “podría llegar este mes”, aunque Apple ya retrasó las funciones de iOS 26.4 a iOS 26.5. El escenario más realista es un primer beta a finales de marzo y lanzamiento público en abril-mayo 2026.
Para México específicamente: la cosa se complica. Apple Intelligence históricamente llega primero en inglés (EE.UU.) y luego se expande progresivamente a otros idiomas. No hay fechas confirmadas para español/LATAM con las nuevas funciones de Gemini. Lo más probable es que el rollout completo en español llegue después de iOS 26.5, posiblemente con iOS 26.6 o iOS 27 en septiembre.
Para comparar: China tampoco entra en el acuerdo con Google por restricciones regulatorias. Apple está usando Alibaba y explorando con Baidu para ese mercado. México no tiene ese problema regulatorio, pero sí el de siempre: somos segunda o tercera ola en los rollouts de Apple Intelligence.
El giro estratégico que nadie esperaba
Lo más interesante del acuerdo no es el dinero ni las funciones. Es lo que dice sobre Apple.
Durante años, el discurso fue: “no podemos confiar nuestros datos a terceros, todo debe ser on-device o en nuestra propia nube.” Ese discurso sirvió para diferenciarse de Google y para justificar por qué Siri era menos capaz que Google Assistant o ChatGPT. La respuesta implícita siempre fue: “es que priorizamos tu privacidad sobre el rendimiento.”
Pues ahora Apple básicamente admite que no pudo construir un modelo fundacional competitivo de forma independiente a tiempo. El modelo que usaban antes tenía 150B parámetros. El de Gemini tiene 1.2T. Esa no es una diferencia de iteración: es una diferencia de generación completa.
Y mientras Apple hacía ese reconocimiento, en comparativas como la que hicimos entre ChatGPT, Claude, Gemini, Grok y DeepSeek, Gemini ya estaba posicionándose como uno de los modelos más capaces, especialmente en tareas multimodales y de contexto largo. Que Apple lo haya elegido sobre OpenAI y Anthropic dice mucho.
¿Quién gana y quién pierde?
Google gana bien: valida a Gemini como el modelo de referencia, obtiene distribución en más de 1,000 millones de iPhones, y su participación de mercado en IA creció significativamente desde el anuncio. Encima, cobra por ello.
Apple gana (a mediano plazo): la nueva Siri finalmente puede competir con lo que ya ofrecen Android y ChatGPT. El costo es la narrativa de “todo propio.”
OpenAI pierde: tenía acceso preferencial a los usuarios de iPhone con ChatGPT integrado en iOS. Con Gemini tomando el rol de modelo base, ese acuerdo queda en un segundo plano importante. Su cuota en mobile en EE.UU. ya cayó del 69% al 45% según analistas.
¿Los usuarios de iPhone en México?: en papel, ganan una Siri que por fin va a servir de algo. En práctica, hay que esperar al rollout en español, que no tiene fecha confirmada. Mientras tanto, si tienes iPhone y quieres la experiencia de IA más avanzada posible en el ecosistema Apple, la MacBook Air M5 ya tiene algunas funciones de Apple Intelligence disponibles desde antes.
Está una chimba el acuerdo desde el lado competitivo. Pero para ti, usuario de iPhone en México, la pregunta práctica sigue siendo: ¿cuándo llega en español y cuándo puedo usarlo? Ahí todavía no hay respuesta clara.
¿Ya probaste alguna función de Apple Intelligence en tu iPhone? ¿O sigues esperando que Siri entienda lo que le dices en español sin tener que repetírselo tres veces? Cuéntame abajo.
Fuentes
- Apple picks Google’s Gemini to run AI-powered Siri : CNBC
- Apple Plans to Use 1.2 Trillion Parameter Google Gemini Model : Bloomberg
- Apple’s Google Gemini Deal Could Be Worth $5 Billion : MacRumors
- Apple Explains How Gemini-Powered Siri Will Work : MacRumors
- Apple’s Gemini-powered Siri upgrade could still arrive this month : 9to5Mac
- Joint statement from Google and Apple : Google Blog
- Google wins in Apple AI deal : Fortune
Comentarios
No te pierdas ningún post
Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.
También te puede interesar
iOS 26.4 llega mañana: los 13 cambios reales para tu iPhone (y el drama de Siri con Gemini que Apple sigue sin resolver)
iOS 26.4 sale el 25 de marzo con Playlist Playground, emojis nuevos, CarPlay con IA y protección contra robo por default. Pero la Siri que todos esperaban se fue a iOS 26.5... o quizás iOS 27.
Apple Intelligence se encendió sola en China sin permiso: lo que eso revela sobre cuándo llega completa a México
El 30 de marzo, Apple Intelligence se activó accidentalmente en China antes de tener aprobación regulatoria. La historia detrás de ese error explica por qué en México todavía faltan funciones clave.
WWDC 2026 el 8 de junio: iOS 27 convierte a Siri en chatbot standalone y macOS 27 le dice adiós a las Macs Intel
Apple confirmó WWDC 2026 para el 8 de junio. iOS 27 trae Siri como app independiente tipo ChatGPT con Gemini, y macOS 27 deja fuera a todas las Macs Intel. Aquí está todo lo que necesitas saber si tienes un iPhone o Mac en México.