ia

La alternativa a Nvidia que el mismo Nvidia está financiando: SiFive levantó $400M para chips RISC-V

ia · 7 min de lectura (actualizado)

La alternativa a Nvidia que el mismo Nvidia está financiando: SiFive levantó $400M para chips RISC-V

SiFive cerró una Serie G de $400M con Nvidia entre los inversores para llevar chips RISC-V a los data centers de IA. Si funciona, podría romper el monopolio y abaratar la infraestructura de IA para startups mexicanas.

La alternativa a Nvidia que el mismo Nvidia está financiando: SiFive levantó $400M para chips RISC-V

Imagínate que eres Coca-Cola e inviertes $400 millones en la empresa que fabrica los concentrados de Pepsi. Eso es, básicamente, lo que acaba de hacer Nvidia con SiFive.

El 9 de abril de 2026, SiFive anunció una ronda Serie G de $400 millones que la valúa en $3.65 mil millones de dólares. La ronda fue liderada por Atreides Management, con participación de Apollo Global Management, T. Rowe Price, Point72 Turion, y como cereza del pastel: Nvidia. Sí, el mismo Nvidia que controla más del 80% del mercado de chips para IA metió lana en la empresa que quiere construir una alternativa usando arquitectura abierta RISC-V.

La pregunta obvia es: ¿por qué?

Qué es SiFive y por qué RISC-V importa

Para entender el pedo, hay que entender qué es RISC-V. Es una arquitectura de procesadores de código abierto: sin dueño, sin royalties, sin tener que pedirle permiso a nadie para usarla. Lo contrario de ARM, donde Intel y Qualcomm pagan entre 1% y 2% del precio del chip más millones en licencias anuales solo por el derecho de fabricar procesadores con esa arquitectura.

SiFive es la empresa más seria del ecosistema RISC-V. No fabrican chips, diseñan el IP (propiedad intelectual) que otros compran para meterlo en sus chips. Ya tienen más de 10 mil millones de núcleos desplegados en más de 500 diseños, y hay un nombre que te va a sonar familiar entre sus clientes: Google usa el procesador X280 de SiFive como AI Compute Host junto con sus TPUs para IA.

El CEO de SiFive, Patrick Little, lo dijo sin rodeos: “Los clientes hyperscale han dejado muy claro que es tiempo de acelerar la disponibilidad de alternativas de estándar abierto para el data center.”

Traducción: Amazon, Google, Meta y compañía están hartos de depender 100% de Intel, AMD y Arm para sus CPUs de data center.

El pedo del cuello de botella que nadie te explica

Aquí viene la parte técnica que sí vale la pena entender, porque explica por qué esto importa para la IA.

Todo mundo habla de GPUs para IA. Y sí, los GPUs son los que hacen el trabajo pesado de entrenamiento e inferencia. Pero hay un problema estructural que se ha vuelto más serio conforme los modelos de lenguaje se hacen más grandes: durante la fase de “decode” de una inferencia LLM, la utilización de FLOPs de la GPU puede caer hasta el 10% o menos. El GPU está esperando que le lleguen los datos de memoria. No está trabajando, está esperando.

El CPU es el coordinador. Y en los sistemas de IA agéntica, donde tienes modelos que llaman herramientas, toman decisiones, coordinan múltiples subtareas, el CPU vuelve a ser crítico. Los analistas de Futurum Group calculan que la proporción CPU:GPU en estos sistemas está regresando a cerca de 1:1, algo que no se veía desde antes del boom del deep learning.

El P870-D de SiFive, su CPU de 3a generación para data center, está diseñado exactamente para eso: mantiene 1,024 solicitudes de memoria en vuelo simultáneamente con latencia de un ciclo percibida. En benchmark de data center, compite directamente con el ARM Neoverse N2, que es la clase de procesador que usa AWS en sus instancias Graviton.

Por qué Nvidia invierte en su potencial competidor

Aquí está el movimiento más inteligente de todo este asunto. En enero de 2026, SiFive fue la primera empresa RISC-V en integrar NVLink Fusion, la tecnología de interconexión de alta velocidad de Nvidia que permite conectar CPUs directamente con GPUs con coherencia de caché y ancho de banda máximo.

Jensen Huang lo explicó así: la integración da “flexibilidad para combinar CPUs RISC-V personalizables con aceleradores Nvidia para construir infraestructura de IA escalable, eficiente en energía y especializada.”

Lo que está haciendo Nvidia es brillante y ligeramente turbio al mismo tiempo: están apostando a que los data centers del futuro van a usar CPUs RISC-V open source junto con GPUs Nvidia. Si eso pasa, Nvidia sigue vendiendo sus GPUs que son donde está su margen brutal, pero los CPUs pasan a ser un commoditie más barato y abierto. Nvidia gana de todas formas.

Y si RISC-V despega como alternativa estructural al duopolio Intel/AMD en CPUs de servidor, eso abre un mercado de más de $100 mil millones de dólares, según los propios proyectados de la industria.

Además, esta es la última ronda privada antes del IPO de SiFive. Cuando una empresa dice eso, está diciendo: “en los próximos 12-18 meses vamos a salir a bolsa.”

Lo que esto significa para startups mexicanas

Ahora la pregunta de a peso: ¿a nosotros qué nos importa esto en México?

Si eres un developer o fundador de startup en México y corres infraestructura de IA, hoy estás en una situación brutal: pagas por instancias de AWS o GCP que corren en CPUs Intel o AMD más GPUs Nvidia. Todo con royalties baked in en el precio. No tienes elección.

Si RISC-V gana tracción en data centers, los proveedores de nube empezarán a ofrecer instancias sobre chips RISC-V que cuestan menos de fabricar porque no hay que pagar licencias. ARM ya demostró que cuando Amazon hizo sus propios chips (Graviton con arquitectura ARM) el costo por instancia bajó significativamente. RISC-V va un paso más allá: sin royalties en absoluto.

Para startups mexicanas que hoy gastan $5,000 o $10,000 USD al mes en cómputo de IA, una reducción del 20-30% en costos de infraestructura no es trivial. Es la diferencia entre quemarte el runway en servidores o tener seis meses más de pista.

Y si quieres ir más local: como ya vimos con DeepSeek v4, el modelo chino de 1 trillón de parámetros que no necesita chips de Nvidia, la dependencia total de un solo ecosistema de hardware tiene riesgos geopolíticos reales. RISC-V como alternativa abierta reduce ese riesgo estructuralmente.

Los riesgos reales

Siendo honestos: RISC-V en data center no es madurez de producto mañana.

Los 10 mil millones de núcleos de SiFive están principalmente en dispositivos embebidos, no en servidores. El ecosistema de software para data center, la profundidad de optimización de compiladores, la compatibilidad con software empresarial: todo eso lleva años construirlo. x86 e Intel tienen décadas de ventaja ahí.

También hay un reporte de Counterpoint Research que dice que los chips Arm van a dominar el 90% de los servidores AI basados en procesadores custom para 2029, dejando a RISC-V y x86 en la periferia. Eso puede pasarr.

Y como bien señala Futurum Group en su análisis: los $400 millones resuelven el gap de inversión, pero no los 2-3 años que toma una fabricación real en foundry y producción en volumen.

Pero hay algo que no se puede ignorar: que Nvidia, Jensen Huang en persona, haya metido dinero aquí, y que Jensen haya dado una declaración pública respaldando la integración, dice que esto no es un proyecto de hobbyistas. Cuando Nvidia apuesta, el ecosistema se mueve.

Para los que ya están experimentando con IA local o reduciendo su dependencia del stack de pago, nuestra guía de cómo correr tu propia IA local con Ollama y LM Studio sin pagar un peso de suscripción sigue siendo relevante mientras la industria de chips se reorganiza.

El fondo del asunto

En el GTC 2026 donde Jensen Huang anunció Vera Rubin y la siguiente generación de la plataforma Nvidia, quedó claro que Nvidia piensa en sí misma como la plataforma de IA, no solo como el fabricante de GPUs. Invertir en SiFive encaja perfectamente: si el mundo migra a CPUs open source + GPUs Nvidia, Nvidia sigue siendo el centro de gravedad.

Lo que SiFive está construyendo es arquitectura alternativa real, con validación real (Google TPU), inversores reales que incluyen al competidor que más te podría lastimar, y una ruta al IPO. Eso no es hype.

Si RISC-V rompe el monopolio en CPUs de data center en los próximos 3-5 años, el costo de la infraestructura de IA baja estructuralmente para todos, incluyendo startups mexicanas que hoy no pueden ni aspirar a competir con las Big Tech en músculo computacional. No porque seamos la prioridad de nadie, sino porque los mercados grandes arrastran a los mercados pequeños cuando el precio baja.

Vale la pena seguirle la pista a esto.

Fuentes

Comentarios

No te pierdas ningún post

Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.

También te puede interesar