noticias

Coatlicue ya está activa en Barcelona: la supercomputadora más poderosa de LATAM y cómo los investigadores y devs mexicanos la pueden usar hoy

noticias · 8 min de lectura

Coatlicue ya está activa en Barcelona: la supercomputadora más poderosa de LATAM y cómo los investigadores y devs mexicanos la pueden usar hoy

México activó el Centro Mexicano de Supercómputo en el BSC de Barcelona en marzo 2026. 314 petaflops, $6,000 millones de pesos y soberanía tecnológica real: te explicamos en qué fase está Coatlicue y qué puedes hacer ahorita.

Coatlicue ya está activa en Barcelona: la supercomputadora más poderosa de LATAM y cómo los investigadores y devs mexicanos la pueden usar hoy

México lleva años hablando de soberanía tecnológica como si fuera un hashtag de campaña. Pero el 25 de marzo de 2026, algo cambió: el gobierno inauguró el Centro Mexicano de Supercómputo en el Barcelona Supercomputing Center y arrancó formalmente la fase interim de Coatlicue. No es hype, no es un PowerPoint bonito: ya hay meteorólogos mexicanos en Barcelona corriendo análisis climáticos de décadas en cuestión de horas.

Aquí te explico qué pedo con todo esto, en qué fase está el proyecto, y lo más importante: qué pueden aprovechar los investigadores y devs mexicanos en este momento.

Qué es Coatlicue y por qué importa tanto

Coatlicue es el proyecto de supercomputadora pública más ambicioso de México. Cuando esté completamente construida, va a operar a 314 petaflops con aproximadamente 14,480 GPUs y representa una inversión de 6,000 millones de pesos del erario público.

Para que eso aterrice: México hoy tiene una capacidad pico de apenas 2.3 petaflops en su sistema más potente. Coatlicue sería un salto de 136 veces respecto a eso. Y en el contexto latinoamericano, sería approximately 15 times more powerful than Pegaso (314 petaflops ÷ 21 petaflops ≈ 15x), el mayor supercomputador de Brasil (21 petaflops). Argentina has Clementina XXI with 15.4 petaflops.

No, no va a competir con El Capitan de EUA que opera a 1,809 petaflops. Pero para el trabajo científico que México necesita: modelación climática, análisis sísmico, entrenamiento de modelos de IA nacionales, datos del SAT y Pemex, es más que suficiente para cambiar el juego en LATAM.

Y todo esto es pública: no depende de Amazon, Google ni Microsoft. La opera el estado mexicano a través de la ATDT (Agencia de Transformación Digital y Telecomunicaciones) y la SECIHTI.

Lo que está pasando ahorita: la fase interim en Barcelona

La construcción del hardware doméstico de Coatlicue no ha empezado todavía. Está planeada para la segunda mitad de 2026 y tomará alrededor de 24 meses, lo que pone la operación completa en México alrededor de 2028.

Pero mientras tanto, México firmó un acuerdo de cooperación con el Barcelona Supercomputing Center (BSC) para usar MareNostrum 5, ranked 11th on the TOP500 list (as of November 2024) for the accelerated partition with 175.3 petaflops, con 314 petaflops de pico total y 4,480 GPUs NVIDIA Hopper H100.

Esta fase interim arrancó en enero 2026 y fue inaugurada formalmente el 25 de marzo con el lanzamiento del “Programa Mexicano de Supercómputo”. El primer caso de uso confirmado: el Servicio Meteorológico Nacional (CONAGUA) ya está procesando datos climáticos históricos de México desde 1950 hasta el presente. Análisis que antes tomaban semanas se completan en horas.

El Financiero reportó el 25 de marzo que los datos generados serán “públicos y gratuitos” para agencias de gobierno, universidades y centros de investigación para planificación territorial y gestión de riesgos.

Qué pueden aprovechar los investigadores mexicanos HOY

Aquí hay que ser honesto: el acceso en este momento es limitado y está principalmente orientado a investigadores del sector gobierno.

Lo que ya funciona:

  • Meteorólogos del SMN/CONAGUA tienen acceso activo a MareNostrum 5 en el BSC
  • Los datasets climáticos que se generen serán accesibles de forma pública y gratuita para universidades, centros de investigación y organismos gubernamentales
  • Se está construyendo el marco de gobernanza: SECIHTI y ATDT van a definir los criterios de acceso, porcentajes de capacidad por sector y mecanismos de asignación

Lo que viene para investigadores y startups: El plan explícito incluye “capacidad de cómputo para emprendimientos tecnológicos” y “servicios de cálculo masivo a empresas” como parte del modelo de sostenibilidad financiera del proyecto. Esto significa que startups y empresas privadas tendrán acceso, pero los esquemas de tarifas y portales formales de solicitud aún no se han publicado.

Si eres investigador de una universidad pública o privada y quieres adelantarte, el contacto del BSC para acceso es: info@bsc.es. No hay un programa específico para Coatlicue aún, pero el BSC tiene sus propios mecanismos de acceso para la comunidad científica de países con acuerdos de cooperación.

El cluster nacional que ya existe (y que pocos conocen)

Algo que no se menciona suficiente: México ya tiene un Cluster Nacional de Cómputo que agrega 9.45 petaflops y más de 10,000 TB de almacenamiento distribuidos en nodos de varias universidades y centros de investigación:

SistemaInstitución
XiuhcóatlIPN
AbacusIPN
MiztliUNAM
Leo ÁtroxUniversidad de Guadalajara
YucaUniversidad de Sonora
+ variosBaja California, Puebla, NL, Chiapas

Si estás en una institución académica y necesitas poder de cómputo ahora mismo, empieza por ahí. La conectividad es de 1 a 10 Gbps y están enlazados a RedCLARA e Internet2. Pregúntale a tu departamento de cómputo científico: es probable que ya tengan acceso y no lo estén aprovechando.

Por qué esto es diferente al laboratorio de Google en México

El editor lo puso bien: el ángulo aquí es distinto. Cuando Google, Microsoft o Amazon meten infraestructura en México, la narrativa es “empresas extranjeras invirtiendo en el país”. Coatlicue es otra cosa: es infraestructura soberana, pagada con impuestos mexicanos, controlada por el gobierno mexicano, con datos que se quedan en México.

Eso tiene implicaciones reales. Si entrenas un modelo de IA con datos climáticos mexicanos en Coatlicue, ese modelo y esos datos no viven en los servidores de una empresa estadounidense. Para salud pública, análisis sísmico, predicción de lluvias, seguridad alimentaria, el estar debajo de una nube propia importa mucho más de lo que parece.

Vale la pena notar que mientras el mundo habla del RAMaggedon y la escasez de cómputo para IA, México está apostando por no depender de la infraestructura de nadie más para su investigación científica más crítica.

El roadmap hasta 2028

FechaEvento
Noviembre 2025Presidenta Sheinbaum anuncia Coatlicue
Enero 2026Fase interim en BSC arranca; proceso de selección de sitio doméstico
25 marzo 2026Inauguración formal del Centro Mexicano de Supercómputo en Barcelona
2do semestre 2026Inicio de construcción doméstica (sitio por confirmar, cerca de CDMX)
~2028Operación completa de Coatlicue en México

La selección del sitio físico en México consideró tres requisitos: disponibilidad de agua (para enfriamiento), suministro energético estable y conectividad de fibra. No hay confirmación pública aún del terreno específico.

¿Y los devs? ¿Qué hacen mientras tanto?

Si eres dev y quieres estar posicionado para cuando Coatlicue abra acceso a empresas privadas, hay cosas concretas que puedes hacer hoy:

  1. Aprende a trabajar con HPC (High Performance Computing): SLURM, MPI, optimización de código para GPU clusters. El BSC tiene documentación pública y cursos en bsc.es.

  2. Conecta con SECIHTI: están buscando casos de uso. Si tienes un proyecto de investigación o startup con necesidades de cómputo real, hay incentivo político para que el gobierno demuestre casos de uso más allá del clima.

  3. Explora el cluster nacional existente: si estás en una universidad, ya tienes acceso potencial a 9.45 petaflops. Muchos departamentos de investigación no lo están usando al máximo.

  4. Para IA local mientras tanto: si tu caso de uso no requiere la escala de Coatlicue, la guía sobre cómo correr tu propia IA local con Ollama y LM Studio te puede sacar del paso sin gastar un peso.

Y si te interesa el panorama más amplio de modelos grandes y qué hardware los corre, el contexto de DeepSeek V4 y sus 1 trillón de parámetros te ayuda a entender por qué el acceso a supercómputo es una ventaja competitiva real, no solo para gobiernos sino para cualquier organización que quiera entrenar sus propios modelos.

La neta

Coatlicue no es un proyecto terminado ni algo que puedas usar mañana si eres dev independiente. Pero tampoco es el usual anuncio gubernamental que muere en conferencia de prensa. Hay investigadores mexicanos físicamente en Barcelona corriendo análisis reales en este momento. Eso ya es bacano para ser apenas el inicio.

El desafío real es lo que sigue: que el marco de acceso para universidades, empresas y startups esté bien diseñado cuando la máquina doméstica esté lista en 2028. Si ese proceso es burocrático y opaco, México habrá construido la supercomputadora más poderosa de LATAM para que la usen solo cuatro dependencias del gobierno federal.

La oportunidad está ahí. La pregunta es si la SECIHTI y la ATDT van a abrir el acceso de verdad o si Coatlicue va a terminar siendo un monumento caro al que pocos llegan.

¿Estás en investigación, academia o tienes una startup con necesidades de cómputo intensivo? Comparte en comentarios, me interesa saber quién en México ya está pensando en esto en serio.

Fuentes

Comentarios

No te pierdas ningún post

Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.

También te puede interesar