Meta y CoreWeave firmaron $21 mil millones con NVIDIA Vera Rubin: así va a bajar el precio de la IA para empresas en México
El deal de $21 mil millones entre Meta y CoreWeave incluye los primeros clusters comerciales del chip Vera Rubin de NVIDIA: 10 veces más barato por token que Blackwell. Qué significa esto para las empresas mexicanas que hoy pagan AWS o Azure.
Imagina que hoy pagas 10 pesos por correr un modelo de IA en la nube. Dentro de unos meses, el mismo trabajo podría costarte un peso. Eso, en términos muy burdos, es lo que promete el chip NVIDIA Vera Rubin, y la semana pasada dos de los actores más grandes del mundo lo acaban de apostar con $21 mil millones de dólares.
El 9 de abril, Meta y CoreWeave anunciaron una expansión de su acuerdo de infraestructura cloud: 21 mil millones de dólares en capacidad de cómputo para IA hasta diciembre de 2032. Sumado al deal previo de $14.2 mil millones firmado en septiembre de 2025, la relación total entre Meta y CoreWeave ya supera los $35 mil millones. Que quede claro: estamos hablando de la apuesta de infraestructura más grande en la historia reciente de la IA, y la razón detrás de todo esto tiene nombre propio: NVIDIA Vera Rubin.
Qué es Vera Rubin y por qué a todos se les están brillando los ojos
Vera Rubin es la siguiente generación de chips de IA de NVIDIA, anunciada en CES 2026 y con producción en volumen prevista para la segunda mitad de este año. El dato que tiene a todo mundo hablando: hasta 10 veces menor costo por token comparado con los chips Blackwell actuales, y 5 veces mayor rendimiento de inferencia.
Para que eso aterrice: la inferencia es el proceso de “usar” un modelo de IA, es decir, cuando tú le mandas un prompt a ChatGPT o cuando WhatsApp procesa tu mensaje con IA. No es entrenar el modelo desde cero, sino correrlo en producción. Eso es exactamente lo que Meta necesita a escala brutal: millones de usuarios en Facebook, Instagram y WhatsApp interactuando con modelos Llama todos los días.
En términos técnicos, el rack completo Vera Rubin NVL72 mete 72 GPUs, 36 CPUs Vera propios de NVIDIA, 20.7 TB de memoria HBM4 y 1,580 TB/s de ancho de banda de memoria. Tom’s Hardware reportó que los racks NVL72 VR200 están cotizados entre $5-7 millones de dólares. El precio de $8.8 millones corresponde a sistemas NVL144 VR300 de mayor capacidad, no al NVL72 estándar, sí, es hardware caro de comprar, pero el costo por token que genera es lo que lo hace rentable a escala.
El deal entre Meta y CoreWeave incluye explícitamente algunos de los primeros clusters comerciales de Vera Rubin. Meta los va a usar principalmente para inferencia de sus modelos Llama y Meta lanzó Llama 5 el 8 de abril de 2026, no se espera para finales de 2026.
Ya habíamos cubierto el anuncio de Vera Rubin cuando Jensen Huang lo presentó, pero esto es diferente: ahora alguien está poniendo decenas de miles de millones de dólares reales sobre la mesa para construirlo a escala. En nuestro análisis del NVIDIA GTC 2026 ya anticipábamos que este chip cambiaría la ecuación de costos de la IA, y el deal de Meta lo confirma.
CoreWeave vs. AWS vs. Azure: el pedo de los precios hoy
CoreWeave es un proveedor cloud especializado en GPU compute. No tiene los servicios enterprise de AWS ni la integración con Office de Azure, pero tiene algo que a las empresas que corren modelos de IA les importa mucho: precios más competitivos en puro cómputo de GPU.
Comparación directa en GPU por hora (nodos de 8 GPUs):
| GPU | AWS | CoreWeave | Diferencia |
|---|---|---|---|
| H100 SXM 80GB | $6.88/hr | $6.16/hr | CoreWeave -11.8% |
| H200 141GB | $7.91/hr | $6.30/hr | CoreWeave -25.5% |
| A100 SXM 80GB | $2.74/hr | $2.70/hr | Similar |
Azure cotiza sus H100 alrededor de $7/hr, lo que deja a CoreWeave roughly 30% más barato para ese hardware. Además, CoreWeave ofrece descuentos de hasta 60% en capacidad comprometida, lo que es básicamente lo que Meta está haciendo con este deal de 6 años.
El problema para México: CoreWeave no tiene data centers en LATAM. Sus 28 data centers en EUA (Las Vegas, Texas, Virginia, entre otros) y 5 en Europa son toda su infraestructura actual. Una empresa mexicana que use CoreWeave hoy tiene que mandar sus datos a un servidor en Texas o Nevada, lo cual agrega latencia y costos de transferencia de datos que los providers regionales no tienen.
AWS tiene región en São Paulo (Brasil) pero no en México. Google Cloud sí tiene puntos en LATAM incluyendo México. Azure tiene la región Mexico Central activa en Querétaro, que es la opción más cercana geográficamente para empresas mexicanas que necesitan baja latencia. Para las empresas que simplemente consumen APIs de IA sin manejar sus propios modelos, esto no importa tanto. Pero para startups o empresas que corren sus propios modelos Llama o DeepSeek en la nube, la ubicación del data center sí tiene impacto real en el precio final.
Dicho esto, el hecho de que todo este costo por la RAM del cómputo de IA sea tan alto hoy es exactamente el problema que describimos en nuestra nota sobre el RAMageddon y cómo la IA se está comiendo los recursos de cómputo del planeta.
Cómo y cuándo llega esto a los precios que pagan empresas mexicanas
La cadena de valor es así: NVIDIA fabrica los chips Vera Rubin, CoreWeave y otros clouds los compran a $5-8.8 millones el rack, los llenan de carga de trabajo, y eventualmente trasladan parte del ahorro a sus clientes en forma de precios más bajos por API call o por hora de GPU.
¿Cuándo? La estimación más realista tiene varias fases:
H2 2026: Vera Rubin empieza producción en volumen. CoreWeave, AWS, Google Cloud, Azure, Oracle Cloud y Lambda ya confirmaron que ofrecerán instancias Vera Rubin. En este punto los precios por token en proveedores enterprise deberían empezar a caer, pero todavía con una prima de “hardware nuevo”.
2027: Con el backlog de CoreWeave creciendo 342% y la competencia entre clouds recrudeciendo, los precios de inferencia deberían reflejar el beneficio real de Vera Rubin. Si el chip de verdad entrega 10x menor costo por token internamente, es razonable esperar que los precios de API caigan 50-70% respecto a los actuales en los servicios más competidos.
Para empresas mexicanas específicamente: el camino más directo no es CoreWeave (que no está en LATAM) sino Azure Mexico Central o Google Cloud, que son los que tienen infraestructura regional. Cuando ellos actualicen sus clusters con Vera Rubin, las empresas mexicanas que ya usan Azure OpenAI Service o Vertex AI van a ver mejores precios sin cambiar nada de su stack.
Bloomberg cubrió el acuerdo CoreWeave-Meta resaltando que Meta no es solo cliente: está apostando a que CoreWeave sea la columna vertebral de toda su infraestructura de IA a largo plazo, exactamente porque ningún hyperscaler convencional puede moverle los precios al ritmo que lo hace CoreWeave.
El contexto más grande: $66 mil millones de backlog y la pelea de infraestructura
Este deal de Meta no sale de la nada. CoreWeave lleva un año acumulando contratos que ya suman $66.8 mil millones en backlog total. Días después del anuncio de Meta, cerró otro acuerdo de $6.8 mil millones con Anthropic. NVIDIA metió $2 mil millones directamente en la empresa. CoreWeave salió a bolsa en marzo de 2025 a $40 por acción, reportó $5.13 mil millones en ingresos en 2025 (168% de crecimiento año contra año), y sus acciones subieron 3.49% (cierre) o 4% (intraday) el día del anuncio con Meta del 9 de abril.
Lo que está pasando es una carrera de infraestructura: las empresas grandes de IA necesitan asegurar capacidad de cómputo a largo plazo antes de que se acabe, y los clouds especializados como CoreWeave están capitalizando eso. Es el mismo patrón que vimos con la escasez de H100 en 2023-2024, pero ahora con contratos de 6 años.
Para quienes prefieren evitar toda esta madeja de clouds y APIs y simplemente quieren correr modelos de IA propios sin pagar suscripciones, sigue siendo válida la ruta de correr tu propia IA local con Ollama o LM Studio, aunque obviamente eso no escala para cargas empresariales.
La neta para empresas mexicanas
Si tu empresa ya usa Azure, AWS o Google Cloud para correr modelos de IA, no tienes que hacer nada diferente ahora mismo. El beneficio va a llegar solo cuando esos clouds actualicen su hardware en los data centers que tú estás usando, y para México la apuesta más sólida sigue siendo Azure Mexico Central por ser la región geográficamente más cercana con infraestructura real.
Si estás evaluando usar CoreWeave directamente porque ya operas a escala y el precio de GPU es tu principal bottleneck, considera que la latencia desde México va a ser un factor real, y que no hay garantía de cuándo van a abrir capacidad en LATAM. Dicho eso, si tu carga es batch (procesar datos en grandes lotes sin restricción de latencia), CoreWeave desde sus regiones de Texas o Las Vegas puede ser competitivo hoy mismo.
La cosa interesante es que está re piola que toda esta inversión de decenas de miles de millones esté jalando los precios hacia abajo para todos, incluso para quienes nunca pondrán un peso directamente en CoreWeave. La competencia de infraestructura entre clouds especializados y hyperscalers tradicionales beneficia a todos los que consumen estas APIs, y México no es la excepción.
¿Tu empresa ya está usando cloud para IA o todavía están evaluando la jugada? Tira el comentario, porque las opciones en 2026 son muy diferentes a lo que había hace apenas 12 meses.
Fuentes
- CoreWeave y Meta: Anuncio oficial de $21 mil millones (BusinessWire)
- NVIDIA Vera Rubin NVL72: página oficial del producto
- Tom’s Hardware: Vera Rubin promete 5x rendimiento y 10x menor costo por token vs Blackwell
- Tom’s Hardware: Precio de los racks Vera Rubin NVL72 hasta $8.8M
- ComputePrices: Comparativa de precios GPU AWS vs CoreWeave
- ThunderCompute: Guía de precios CoreWeave 2026
- CoreWeave Investor Relations: Backlog y métricas financieras
- The Next Web: Meta se compromete con $21B, relación total $35B
Comentarios
No te pierdas ningún post
Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.
También te puede interesar
La alternativa a Nvidia que el mismo Nvidia está financiando: SiFive levantó $400M para chips RISC-V
SiFive cerró una Serie G de $400M con Nvidia entre los inversores para llevar chips RISC-V a los data centers de IA. Si funciona, podría romper el monopolio y abaratar la infraestructura de IA para startups mexicanas.
Nature publicó los números y no mienten: los mejores agentes de IA hacen la mitad del trabajo de un PhD real
El Stanford AI Index 2026 y un estudio de Nature confirmaron que los top agentes de IA solo alcanzan el 50% del rendimiento de un científico con doctorado en tareas complejas. Y México ya destina casi el 10% de su presupuesto TIC a esto.
OpenAI apostó $20 mil millones a una sola empresa de chips: Cerebras quiere salir a bolsa a $35B y ya tiene tu dinero
OpenAI duplicó su apuesta con Cerebras de $10B a $20B+ en chips wafer-scale, y ahora la startup busca salir a bolsa con valuación de $35 mil millones. Aquí te explico qué pedo y por qué le importa a los devs mexicanos.