ia

Starcloud levantó $170 millones para meter servidores de IA en órbita: ¿el futuro del compute o una locura espacial?

ia · 6 min de lectura

Starcloud levantó $170 millones para meter servidores de IA en órbita: ¿el futuro del compute o una locura espacial?

La startup más rápida en llegar a unicornio en la historia de Y Combinator quiere construir data centers orbitales. Lo que esto significa para el costo del compute y por qué las startups en México deberían estar poniendo atención.

Starcloud levantó $170 millones para meter servidores de IA en órbita: ¿el futuro del compute o una locura espacial?

Imagínate rentarle cómputo a un servidor que está girando a 28,000 km/h sobre tu cabeza. Suena a ciencia ficción, pero el 30 de marzo de 2026, Starcloud anunció que levantó $170 millones en su Serie A con una valuación de $1.1 mil millones. Y lo más loco: en solo 17 meses desde su demo day en Y Combinator, ya son unicornio. El récord más rápido en los 21 años de historia de YC. Nada mal para una empresa que básicamente está apostando a que la Tierra ya se nos quedó chica para procesar toda la IA que estamos demandando.

El problema que nadie quiere admitir en voz alta

El CEO de Starcloud, Philip Johnston, lo dijo directo: “The AI revolution is colliding with the physical limits of our terrestrial energy grid.” Sin dramatismo, es la realidad. Los data centers terrestres están reventando. Necesitan energía masiva, sistemas de enfriamiento brutales, tierra que cuesta una fortuna, permisos que tardan años, y conexiones a la red eléctrica que los gobiernos ya no pueden satisfacer a la velocidad que la demanda de IA exige.

Ya lo vimos con el fenómeno que en Al Chile llamamos RAMaggedon: la IA se está comiendo toda la RAM del mundo. El hardware escasea, los precios suben y la infraestructura terrestre no aguanta el ritmo. Starcloud propone saltarse todos esos cuellos de botella yéndose literal al espacio.

La lógica tiene sentido brutal: en órbita baja tienes energía solar casi ilimitada y continua, enfriamiento pasivo radiactivo hacia el espacio profundo (sin necesidad de torres de agua ni aire acondicionado industrial), y cero broncas con permisos de construcción, adquisición de terrenos ni conflictos con la red eléctrica.

Starcloud-1 ya está en órbita y ya corrió un LLM

Esto no es un pitch deck bonito. Starcloud-1 se lanzó en noviembre de 2025 a bordo de un Falcon 9 de SpaceX y ya tiene el récord de ser el primer satélite en entrenar un large language model en el espacio, y el primero en correr inferencia con una variante de Gemini en órbita. Pesa unos 60 kg, lleva una GPU Nvidia H100 y usa un sistema de enfriamiento adaptado de la Estación Espacial Internacional.

Para octubre de 2026 planean lanzar Starcloud-2, que traerá múltiples GPUs incluyendo Nvidia H100 y Nvidia Blackwell, con 100 veces más capacidad de generación de energía que su antecesor, el radiador comercial desplegable más grande jamás construido, y nada menos que AWS Outposts corriendo en órbita. Amazon ya está adentro. Google Cloud también. Y Nvidia no solo les vende los chips, también es uno de sus backers. La ronda la lideran Benchmark y EQT Ventures, con Macquarie Capital, NFX, 776 Ventures y Manhattan West en la mesa.

A largo plazo, Starcloud está esperando aprobación regulatoria para desplegar una red de 88,000 satélites de data center orbitales. No es broma.

No están solos: la carrera espacial del compute

Starcloud levantó la lana más ruidosa, pero no son los únicos jugando este juego. Para entender el contexto:

EmpresaMovimiento
SpaceXFCC aprobó planes para hasta 1 millón de satélites de data center integrados con Starlink
Blue OriginAmbiciones similares declaradas públicamente
Axiom SpaceLanzó sus primeros dos nodos de data center orbital el 11 de enero de 2026
AetherfluxEn conversaciones para levantar a valuación de $2 mil millones (está en talks para Serie B, no confirmado)
Sophia SpaceSeed round de $10M en Pasadena para cómputo nativo espacial con enfriamiento pasivo
NvidiaAnunció módulo dedicado de hardware para cómputo espacial en marzo de 2026

Y como platicamos en nuestro análisis del NVIDIA GTC 2026 con Jensen Huang, Nvidia está en todos lados de la cadena de valor de la IA: en los data centers terrestres, en los edge devices y ahora en órbita. El hardware de los Blackwell B200 va a llegar al espacio.

¿Qué significa esto para el precio del compute y para México?

Aquí es donde se pone interesante para nosotros. Hoy, rentar GPU time de alta gama en nubes como AWS, Google Cloud o Azure no es precisamente barato, especialmente si tu startup o proyecto de IA en México tiene presupuesto limitado y latencia con servidores en Virginia o en Irlanda.

La promesa de largo plazo de los data centers orbitales es que, al eliminar los costos de tierra, energía de red y sistemas de enfriamiento terrestres (que representan porciones enormes del capex de un data center), el cómputo debería abaratarse. La energía solar en órbita es gratis. El enfriamiento hacia el espacio profundo es gratis. Lo que cuesta es el satélite, el lanzamiento y el mantenimiento, pero esos costos se amortizarían sobre millones de horas de cómputo.

Para startups mexicanas que están construyendo sobre APIs de IA o corriendo modelos propios, el abaratamiento del GPU compute es lo que puede hacer la diferencia entre escalar o no. Y si además se añade cobertura global sin depender de ubicación geográfica de servidores terrestres, la latencia para usuarios en CDMX, Monterrey o Guadalajara podría mejorar con constelaciones orbitales bien posicionadas.

Es el mismo argumento que aplica para la vigilancia física de infraestructura: ya vimos cómo los perros robot de $300,000 dólares custodian los data centers de IA en EUA. La infraestructura de IA se está volviendo activo estratégico a nivel nacional. Mover esa infraestructura al espacio le agrega una capa nueva de complejidad geopolítica: ¿de qué país es un data center en órbita? ¿Quién tiene jurisdicción? ¿Quién puede apagarlo?

La pregunta real: ¿es negocio o es hype orbital?

La neta, los riesgos son reales. Un satélite dañado por basura espacial o radiación cósmica no se repara con un técnico en camioneta. Los tiempos de latencia de órbita baja (cerca de 20-40ms adicionales sobre conexiones terrestres) no son ideales para todas las cargas de trabajo. La regulación para flotas de decenas de miles de satélites va a ser una pesadilla en la ONU y la ITU.

Pero el hecho de que Benchmark, EQT, Amazon y Nvidia ya pusieron su dinero encima no es accidental. Estos no son inversionistas que apuestan a cosas imposibles, están apostando a que la demanda de cómputo para IA va a superar cualquier solución terrestre antes de lo que creemos.

Está re piola la alineación de factores: los chips de Nvidia se hacen más poderosos y hambrientos de energía con cada generación, la energía eléctrica terrestre no escala a ese ritmo, y el espacio tiene energía abundante esperando ser aprovechada.

¿Vas a rentar GPU time de un satélite Starcloud desde tu startup en México en 2027? Probablemente no todavía. Pero los fundamentos que están construyendo hoy van a determinar quién controla el compute de IA en la siguiente década. Y esa conversación ya comenzó, aunque la mayoría todavía no lo sabe.

Fuentes

Comentarios

No te pierdas ningún post

Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.

También te puede interesar