Meta y Broadcom van all-in en chips propios a 2nm hasta 2029: así baja el costo de la IA para empresas en México
Meta comprometió más de 1 gigawatt de su propio silicio MTIA a 2nm con Broadcom hasta 2029. Te explicamos qué significa esto para los devs y empresas en LATAM que usan sus APIs.
El 14 de abril de 2026, Meta y Broadcom anunciaron algo que muy poca gente en México notó entre tanto ruido tech: la primera aceleradora de IA fabricada en un proceso de 2 nanómetros del mundo, con más de 1 gigawatt de capacidad de cómputo comprometidos en la primera fase. Y esto no es un roadmap vaporware: es un deal firmado, con presupuesto, con tecnología definida, y con fecha de vigencia hasta 2029.
¿Por qué debería importarte si estás en México? Porque Meta es la empresa detrás de WhatsApp, Instagram, Facebook y los modelos Llama. Y cuando Meta reduce su costo de infraestructura, eso eventualmente llega a los precios que pagan las empresas que usan sus APIs.
Qué se anunció exactamente
La alianza entre Meta y Broadcom no es nueva, pero se expandió de manera brutal. El acuerdo extiende la colaboración hasta 2029 para co-desarrollar múltiples generaciones del chip MTIA (Meta Training and Inference Accelerator), que es el silicio personalizado con el que Meta quiere dejar de depender exclusivamente de Nvidia.
Los datos clave confirmados:
| Dato | Detalle |
|---|---|
| Proceso de fabricación | 2nm (el primero en IA a ese nodo) |
| Capacidad inicial | +1 gigawatt |
| Roadmap | Multi-gigawatt en fases sucesivas |
| Vigencia del deal | Hasta 2029 |
| Generaciones planeadas | MTIA 300, 400, 450, 500 |
| Base tecnológica | Plataforma XPU de Broadcom |
El propio Zuckerberg declaró al respecto: “Meta está asociándose con Broadcom en diseño de chips, empaquetado y redes para construir la base de cómputo masiva que necesitamos para entregar superinteligencia personal a miles de millones de personas.”
No suena a hype: el desmadre ya está ocurriendo.
Por qué 2nm es un pedo importante
Un proceso de 2 nanómetros no es solo marketing. Implica transistores más pequeños, más compactos y más eficientes energéticamente. En la práctica, significa más FLOPS por watt, que es exactamente lo que importa cuando tienes que sostener inferencia a escala de miles de millones de usuarios.
El roadmap de MTIA es ambicioso: del MTIA 300 al MTIA 500, Broadcom y Meta proyectan un aumento de 4.5x en el ancho de banda de memoria HBM y 25x en FLOPS de cómputo. Y no se toman años para hacerlo: Meta está lanzando una generación nueva de chips cada seis meses aproximadamente, contra el ciclo estándar de la industria que es de uno a dos años.
Eso es lo que pasa cuando tienes la escala de Meta y decides controlar tu propio hardware.
El golpe indirecto a Nvidia
Aquí el punto que más le duele a Jensen Huang: Meta no está reemplazando a Nvidia de un día para otro, pero sí está construyendo una salida. El chip MTIA está optimizado principalmente para inferencia (no solo entrenamiento), que es exactamente el segmento donde Nvidia domina con el H100 y el B200.
Los datos históricos del propio programa MTIA muestran que el costo por unidad de inferencia cayó 9.1 veces entre 2023 y 2027. Y eso es solo para Meta internamente. Ahora imagina qué pasa cuando esa eficiencia se multiplica por gigawatts de capacidad.
Como ya vimos en nuestro análisis sobre la burbuja de la IA y las señales de Wall Street, el mercado de chips IA se está bifurcando: los hyperscalers con escala suficiente fabrican su propio silicio, y los que no tienen esa escala siguen pagando la renta a Nvidia. Meta ya cruzó esa línea.
Para que te des una idea de qué tan fuerte viene Broadcom con esto, en el primer trimestre de su año fiscal 2026 reportó 8,400 millones de dólares en ingresos de IA, un crecimiento del 106% año contra año. Y tienen “línea de vista” hacia 100 mil millones en ingresos anuales de chips IA para 2027.
Qué significa esto para empresas y devs en México
La neta es que el impacto no llega mañana, pero la tendencia es clara.
Meta tiene en producción cientos de miles de chips MTIA desplegados ya en sus data centers para workloads de inferencia y recomendaciones. Las plataformas que usas (WhatsApp, Instagram) ya corren sobre este silicio. Y cuando la capacidad se escala a múltiples gigawatts, el costo por token de inferencia en los modelos que Meta ofrece tiene que bajar.
Esto importa para México por varias razones concretas:
1. Llama API y alternativas. Los proveedores que ofrecen acceso a modelos Llama vía API (como Together AI, Fireworks AI, u otros que los integran) compiten en un mercado donde el costo del cómputo dicta los precios. Más eficiencia en el silicio de Meta = más presión bajista en precios de tokens.
2. WhatsApp Business API. México lidera en adopción de Meta Business AI, con alrededor de 1 millón de conversaciones semanales. Cada negocio que usa chatbots vía WhatsApp API está pagando por ese cómputo. La escala de MTIA a largo plazo presiona esos costos hacia abajo.
3. Competencia en el mercado. Cuando Meta puede hacer inferencia más barata en su propia infraestructura, OpenAI, Anthropic y Google también tienen que ajustar. Ya vimos algo parecido cuando explicamos cómo el vibe coding democratizó el desarrollo con IA: más capacidad y menor costo de cómputo significa más herramientas accesibles para el desarrollador de a pie.
El contexto financiero que pone todo en perspectiva
Meta no está apostando solo a MTIA. En febrero de 2026 también firmó un acuerdo con AMD por 6 gigawatts de chips MI450 personalizados (se habla de unos 60 mil millones de dólares a cinco años). Y para 2026 en total, Meta tiene comprometidos entre 125 y 145 mil millones de dólares en infraestructura de IA.
Ese es el presupuesto más grande que cualquier empresa ha destinado a infraestructura de cómputo en toda la historia de la industria tecnológica. Y la estrategia de tener múltiples proveedores (Broadcom para los MTIA, AMD, y Nvidia también) le da a Meta palanca de negociación brutal.
Un detalle que tampoco pasa desapercibido: el CEO de Broadcom, Hock Tan, que estaba en el consejo de Meta desde febrero de 2024, va a salir del consejo para convertirse en asesor del roadmap de silicio personalizado de Meta. Cuando el CEO de tu proveedor estrella renuncia a su silla en el consejo para enfocarse exclusivamente en tu proyecto, es que el proyecto es una chimba de serio.
El timeline que debes tener en el radar
- MTIA 300: ya en producción para recomendaciones y ranking
- MTIA 400/450: 2026, para todos los workloads, foco en inferencia GenAI
- MTIA 500 (2nm): 2027-2028, el salto generacional con el proceso de 2nm de TSMC
- Multi-GW rollout: 2028-2029
No es un anuncio para ahorita. Es infraestructura que empezará a impactar precios de mercado en 12 a 24 meses. Si estás construyendo algo sobre APIs de IA hoy, es el tipo de contexto que te ayuda a tomar mejores decisiones de arquitectura. Como en nuestra guía de cómo correr IA local con Ollama y LM Studio: entender quién controla el silicio te ayuda a entender a quién le vas a pagar en el futuro.
La pregunta que queda abierta
El único punto que no está claro todavía es cuánto de esta eficiencia Meta va a trasladar a los desarrolladores externos versus cuánto se va a quedar como ventaja competitiva interna. Históricamente, los hyperscalers retienen la mayoría de las ganancias de eficiencia en los primeros años. Pero la presión competitiva de Google, OpenAI y Anthropic eventualmente obliga a compartir algo.
Lo que sí es inevitable: en 2028 o 2029, cuando el MTIA 500 a 2nm esté corriendo a múltiples gigawatts, el costo por token de inferencia va a ser muy diferente al de hoy. Y eso va a cambiar el mercado para todos los que estamos construyendo cosas encima de estas APIs desde México.
¿Tu empresa ya está usando Meta AI API o Llama en producción? ¿O todavía en Nvidia puro? Cuéntanos en los comentarios cómo estás armando tu stack de IA ahorita.
Fuentes
- Anuncio oficial de Broadcom: Extended Partnership with Meta
- Meta Partners With Broadcom to Co-Develop Custom AI Silicon (Meta Newsroom)
- Nerd Level Tech: Meta-Broadcom MTIA Deal: 1GW of 2nm Custom AI Silicon
- Meta: Expanding Meta’s Custom Silicon to Power AI Workloads
- CNBC: Meta commits to 1 gigawatt of custom chips with Broadcom
- GlobeNewswire: Broadcom Extended Partnership with Meta
Comentarios
No te pierdas ningún post
Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.
También te puede interesar
20,000 despidos en 48 horas: Meta y Microsoft dispararon el gatillo y la crisis laboral por IA ya llegó a México
Meta recorta 8,000 empleados, Microsoft ofrece retiro voluntario a otros 9,000 y el contador 2026 ya supera los 96,000 despedidos en tech. Esto es diferente a 2022. Te explicamos qué perfiles están en riesgo en México y qué habilidades te salvan.
Google apuesta $40,000 millones en Anthropic: la inversión más grande de la historia en IA y lo que cambia para México
Google mete $10B inmediatos y hasta $30B condicionales en Anthropic a valuación de $350 mil millones. Así quedó el tablero entre Google, Microsoft y OpenAI, y qué significa para devs y empresas en México.
El padre de la IA advirtió a la ONU: vamos en un carro sin volante y México llegó al semáforo antes que casi toda LATAM... pero ¿con qué carro?
Geoffrey Hinton sacudió la ONU el 23 de abril con su analogía más brutal sobre la IA sin regular. México aprobó reformas de IA en abril, pero la ley completa sigue en el limbo. ¿Llegamos a tiempo o llegamos a medias?