ia

Meta y Broadcom van all-in en chips propios a 2nm hasta 2029: así baja el costo de la IA para empresas en México

ia · 7 min de lectura (actualizado)

Meta y Broadcom van all-in en chips propios a 2nm hasta 2029: así baja el costo de la IA para empresas en México

Meta comprometió más de 1 gigawatt de su propio silicio MTIA a 2nm con Broadcom hasta 2029. Te explicamos qué significa esto para los devs y empresas en LATAM que usan sus APIs.

Meta y Broadcom van all-in en chips propios a 2nm hasta 2029: así baja el costo de la IA para empresas en México

El 14 de abril de 2026, Meta y Broadcom anunciaron algo que muy poca gente en México notó entre tanto ruido tech: la primera aceleradora de IA fabricada en un proceso de 2 nanómetros del mundo, con más de 1 gigawatt de capacidad de cómputo comprometidos en la primera fase. Y esto no es un roadmap vaporware: es un deal firmado, con presupuesto, con tecnología definida, y con fecha de vigencia hasta 2029.

¿Por qué debería importarte si estás en México? Porque Meta es la empresa detrás de WhatsApp, Instagram, Facebook y los modelos Llama. Y cuando Meta reduce su costo de infraestructura, eso eventualmente llega a los precios que pagan las empresas que usan sus APIs.

Qué se anunció exactamente

La alianza entre Meta y Broadcom no es nueva, pero se expandió de manera brutal. El acuerdo extiende la colaboración hasta 2029 para co-desarrollar múltiples generaciones del chip MTIA (Meta Training and Inference Accelerator), que es el silicio personalizado con el que Meta quiere dejar de depender exclusivamente de Nvidia.

Los datos clave confirmados:

DatoDetalle
Proceso de fabricación2nm (el primero en IA a ese nodo)
Capacidad inicial+1 gigawatt
RoadmapMulti-gigawatt en fases sucesivas
Vigencia del dealHasta 2029
Generaciones planeadasMTIA 300, 400, 450, 500
Base tecnológicaPlataforma XPU de Broadcom

El propio Zuckerberg declaró al respecto: “Meta está asociándose con Broadcom en diseño de chips, empaquetado y redes para construir la base de cómputo masiva que necesitamos para entregar superinteligencia personal a miles de millones de personas.”

No suena a hype: el desmadre ya está ocurriendo.

Por qué 2nm es un pedo importante

Un proceso de 2 nanómetros no es solo marketing. Implica transistores más pequeños, más compactos y más eficientes energéticamente. En la práctica, significa más FLOPS por watt, que es exactamente lo que importa cuando tienes que sostener inferencia a escala de miles de millones de usuarios.

El roadmap de MTIA es ambicioso: del MTIA 300 al MTIA 500, Broadcom y Meta proyectan un aumento de 4.5x en el ancho de banda de memoria HBM y 25x en FLOPS de cómputo. Y no se toman años para hacerlo: Meta está lanzando una generación nueva de chips cada seis meses aproximadamente, contra el ciclo estándar de la industria que es de uno a dos años.

Eso es lo que pasa cuando tienes la escala de Meta y decides controlar tu propio hardware.

El golpe indirecto a Nvidia

Aquí el punto que más le duele a Jensen Huang: Meta no está reemplazando a Nvidia de un día para otro, pero sí está construyendo una salida. El chip MTIA está optimizado principalmente para inferencia (no solo entrenamiento), que es exactamente el segmento donde Nvidia domina con el H100 y el B200.

Los datos históricos del propio programa MTIA muestran que el costo por unidad de inferencia cayó 9.1 veces entre 2023 y 2027. Y eso es solo para Meta internamente. Ahora imagina qué pasa cuando esa eficiencia se multiplica por gigawatts de capacidad.

Como ya vimos en nuestro análisis sobre la burbuja de la IA y las señales de Wall Street, el mercado de chips IA se está bifurcando: los hyperscalers con escala suficiente fabrican su propio silicio, y los que no tienen esa escala siguen pagando la renta a Nvidia. Meta ya cruzó esa línea.

Para que te des una idea de qué tan fuerte viene Broadcom con esto, en el primer trimestre de su año fiscal 2026 reportó 8,400 millones de dólares en ingresos de IA, un crecimiento del 106% año contra año. Y tienen “línea de vista” hacia 100 mil millones en ingresos anuales de chips IA para 2027.

Qué significa esto para empresas y devs en México

La neta es que el impacto no llega mañana, pero la tendencia es clara.

Meta tiene en producción cientos de miles de chips MTIA desplegados ya en sus data centers para workloads de inferencia y recomendaciones. Las plataformas que usas (WhatsApp, Instagram) ya corren sobre este silicio. Y cuando la capacidad se escala a múltiples gigawatts, el costo por token de inferencia en los modelos que Meta ofrece tiene que bajar.

Esto importa para México por varias razones concretas:

1. Llama API y alternativas. Los proveedores que ofrecen acceso a modelos Llama vía API (como Together AI, Fireworks AI, u otros que los integran) compiten en un mercado donde el costo del cómputo dicta los precios. Más eficiencia en el silicio de Meta = más presión bajista en precios de tokens.

2. WhatsApp Business API. México lidera en adopción de Meta Business AI, con alrededor de 1 millón de conversaciones semanales. Cada negocio que usa chatbots vía WhatsApp API está pagando por ese cómputo. La escala de MTIA a largo plazo presiona esos costos hacia abajo.

3. Competencia en el mercado. Cuando Meta puede hacer inferencia más barata en su propia infraestructura, OpenAI, Anthropic y Google también tienen que ajustar. Ya vimos algo parecido cuando explicamos cómo el vibe coding democratizó el desarrollo con IA: más capacidad y menor costo de cómputo significa más herramientas accesibles para el desarrollador de a pie.

El contexto financiero que pone todo en perspectiva

Meta no está apostando solo a MTIA. En febrero de 2026 también firmó un acuerdo con AMD por 6 gigawatts de chips MI450 personalizados (se habla de unos 60 mil millones de dólares a cinco años). Y para 2026 en total, Meta tiene comprometidos entre 125 y 145 mil millones de dólares en infraestructura de IA.

Ese es el presupuesto más grande que cualquier empresa ha destinado a infraestructura de cómputo en toda la historia de la industria tecnológica. Y la estrategia de tener múltiples proveedores (Broadcom para los MTIA, AMD, y Nvidia también) le da a Meta palanca de negociación brutal.

Un detalle que tampoco pasa desapercibido: el CEO de Broadcom, Hock Tan, que estaba en el consejo de Meta desde febrero de 2024, va a salir del consejo para convertirse en asesor del roadmap de silicio personalizado de Meta. Cuando el CEO de tu proveedor estrella renuncia a su silla en el consejo para enfocarse exclusivamente en tu proyecto, es que el proyecto es una chimba de serio.

El timeline que debes tener en el radar

  • MTIA 300: ya en producción para recomendaciones y ranking
  • MTIA 400/450: 2026, para todos los workloads, foco en inferencia GenAI
  • MTIA 500 (2nm): 2027-2028, el salto generacional con el proceso de 2nm de TSMC
  • Multi-GW rollout: 2028-2029

No es un anuncio para ahorita. Es infraestructura que empezará a impactar precios de mercado en 12 a 24 meses. Si estás construyendo algo sobre APIs de IA hoy, es el tipo de contexto que te ayuda a tomar mejores decisiones de arquitectura. Como en nuestra guía de cómo correr IA local con Ollama y LM Studio: entender quién controla el silicio te ayuda a entender a quién le vas a pagar en el futuro.

La pregunta que queda abierta

El único punto que no está claro todavía es cuánto de esta eficiencia Meta va a trasladar a los desarrolladores externos versus cuánto se va a quedar como ventaja competitiva interna. Históricamente, los hyperscalers retienen la mayoría de las ganancias de eficiencia en los primeros años. Pero la presión competitiva de Google, OpenAI y Anthropic eventualmente obliga a compartir algo.

Lo que sí es inevitable: en 2028 o 2029, cuando el MTIA 500 a 2nm esté corriendo a múltiples gigawatts, el costo por token de inferencia va a ser muy diferente al de hoy. Y eso va a cambiar el mercado para todos los que estamos construyendo cosas encima de estas APIs desde México.

¿Tu empresa ya está usando Meta AI API o Llama en producción? ¿O todavía en Nvidia puro? Cuéntanos en los comentarios cómo estás armando tu stack de IA ahorita.

Fuentes

Comentarios

No te pierdas ningún post

Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.

También te puede interesar