ia

DeepSeek V4 llega en semanas: 1 trillón de parámetros, Apache 2.0 y casi 54 veces más barato que Claude Opus

ia · 7 min de lectura

DeepSeek V4 llega en semanas: 1 trillón de parámetros, Apache 2.0 y casi 54 veces más barato que Claude Opus

The Information confirmó el 3 de abril que DeepSeek V4 es inminente. Lo que necesitan saber los devs y startups en México sobre el modelo chino que iguala benchmarks frontier a costo de tianguis.

DeepSeek V4 llega en semanas: 1 trillón de parámetros, Apache 2.0 y casi 54 veces más barato que Claude Opus

El 3 de abril, The Information reportó que el lanzamiento de DeepSeek V4 es inminente después de meses de retrasos. Y no, no es hype vacío: hay señales concretas de que el modelo más ambicioso del laboratorio chino está prácticamente listo. Si eres dev, CTO de una startup o simplemente alguien que construye cosas con IA, lo que viene es importante.

Qué pedo con los retrasos

DeepSeek V4 tenía fechas tentativas desde febrero: ventana de Año Nuevo Lunar, finales de febrero, principios de marzo… todo pasó sin un lanzamiento oficial. La razón: DeepSeek reescribió código para optimizar el modelo en chips Huawei Ascend 910B y procesadores Cambricon MLU, hardware chino que no es NVIDIA.

Esto no es un capricho tecnológico. Con las restricciones de exportación de EUA que bloquean los chips H100/H200 a China, los laboratorios chinos no tienen de otra más que optimizar para silicio doméstico. El proceso ha sido complicado: problemas de estabilidad, interconexión lenta entre chips y tooling de software inmaduro. Por eso el retraso.

El 9 de marzo apareció brevemente en el sitio de DeepSeek una variante llamada “V4 Lite” (estimada en ~200B parámetros), lo que sugiere que el ecosistema completo está listo en fases. La versión completa sigue en camino.

Como mencionamos en nuestro análisis de DeepSeek V4 de marzo, el modelo ya era conocido como un monstruo en papel. Ahora el The Information confirma que ya no es cuestión de “si”, sino de cuándo.

Los números que importan

La arquitectura de DeepSeek V4, según lo reportado por NxCode en su análisis de specs, es así:

CaracterísticaDeepSeek V4
Parámetros totales~1T (1 trillón)
Parámetros activos por token~37B (MoE)
Ventana de contexto1 millón de tokens
LicenciaApache 2.0
Hardware de entrenamientoHuawei Ascend 910B / Cambricon MLU
MultimodalSí (texto, imagen, video)

El truco de la arquitectura MoE (Mixture of Experts) es que aunque el modelo pesa 1 trillón de parámetros en total, solo activa ~37B por cada token que procesa. Esto lo hace brutalmente eficiente en inferencia sin sacrificar capacidad.

Los benchmarks filtrados hablan de 90% en HumanEval y entre 81% y 83.7% en SWE-bench Verified, que básicamente lo pondría a la par de los modelos frontier actuales. Ojo: son leaks internos, no verificados de forma independiente todavía.

El contexto de 1 millón de tokens es probablemente lo más impresionante para uso en producción. Eso es código completo de proyectos, documentos largos, conversaciones extensas, sin paginado manual.

La parte que cambia todo: el precio

Aquí es donde se pone interesante para los devs en México. Según el API guide de NxCode, los precios esperados para DeepSeek V4 son:

ModeloInput (cache miss)Input (cache hit)Output
DeepSeek V4DeepSeek V4 Input (cache miss) is $0.30/MTok. The $0.28/MTok price refers to DeepSeek V3.2, not V4.$0.028/MTokDeepSeek V4 Output is $0.50/MTok. The $0.42/MTok price refers to DeepSeek V3.2, not V4.
Claude Opus 4.6Claude Opus 4.6 Input is $5.00/MTok and Output is $25.00/MTok (a 67% reduction from Opus 4.1). The $15/$75 prices refer to legacy Claude Opus 4.1, not Opus 4.6.$15.00/MTokClaude Opus 4.6 Input is $5.00/MTok and Output is $25.00/MTok (a 67% reduction from Opus 4.1). The $15/$75 prices refer to legacy Claude Opus 4.1, not Opus 4.6.

Comparing DeepSeek V4 ($0.30/MTok) to Claude Opus 4.6 ($5.00/MTok) yields approximately 17x difference, not 54x. The 54x figure appears to conflate DeepSeek V3.2 ($0.28) with Claude Opus 4.1 ($15). En cache hits, la diferencia se va a 500x. Cuando hablamos de producción real con millones de tokens al mes, eso se convierte en la diferencia entre pagar $150 USD o $8,000 USD.

En pesos, y a tipos de cambio actuales (~20 MXN por dólar): lo que cuesta un millón de tokens de salida con Claude Opus ($75) equivale a unos $1,500 pesos. Con DeepSeek V4 serían como $8.40 pesos. Para una startup mexicana que bootstrapea o que tiene runway limitado, esto no es un detalle menor: es la diferencia entre poder construir o no.

Si quieres ver cómo afecta el costo de las herramientas de IA al bolsillo dev, checa nuestra comparativa de Claude Code vs Cursor vs Copilot vs Windsurf con precios en pesos.

Apache 2.0: la parte que no todo el mundo está viendo

DeepSeek tiene confirmado el lanzamiento bajo licencia Apache 2.0. Eso significa:

  • Puedes usarlo comercialmente sin pagar royalties
  • Puedes modificarlo y redistribuirlo
  • Puedes correrlo en tu propia infraestructura
  • No hay vendor lock-in

Para startups en México que construyen productos con IA, la opción de hospedar el modelo propio (en hardware propio o en cloud) cambia la ecuación completamente. No dependes de la API de DeepSeek, no tienes que mandar tus datos a servidores chinos si eso te preocupa, y tienes control total del modelo.

El catch: correr 1T parámetros requiere hardware serio. Las estimaciones actuales hablan de 2x RTX 4090 en INT8 o 1x RTX 5090 en INT4 para corrida local cuantizada. No es para laptop, pero sí es factible para un servidor dedicado o una instancia cloud bien configurada. Si te interesa el self-hosting de IA, ya publicamos una guía para correr tu propia IA local con Ollama y LM Studio.

Integración: sin fricción para devs

Una cosa que hace bien DeepSeek es compatibilidad con el formato OpenAI. Si ya usas el SDK de OpenAI en tu proyecto, migrar a DeepSeek V4 es básicamente cambiar dos líneas:

from openai import OpenAI

client = OpenAI(
    api_key="sk-tu-key-aqui",
    base_url="https://api.deepseek.com"  # <-- esto es todo
)

Nada más. El resto de tu código funciona igual. Eso lo convierte en un drop-in replacement para experimentar sin reescribir nada.

La plataforma en platform.deepseek.com da 5 millones de tokens gratis sin pedir tarjeta de crédito. Para un dev que quiere probar en serio si esto sirve para su caso de uso, no hay excusa.

El contexto más amplio: China va en serio

El mismo The Information reportó que antes del lanzamiento de V4, empresas como Alibaba, ByteDance y Tencent ya pre-ordenaron cientos de miles de unidades de chips Huawei Ascend, lo que subió los precios de ese hardware un 20%. O sea, la adopción interna en China ya está sucediendo a escala antes del lanzamiento público.

Al mismo tiempo, Dataconomy reporta que Tencent también lanzará su modelo Hunyuan en abril, con ~30B parámetros y Shunyu Yao (ex-OpenAI) como su chief AI scientist. La competencia de modelos chinos en abril va a estar una chimba.

La narrativa de que China no puede competir con modelos occidentales sin chips NVIDIA se está derrumbando en tiempo real.

Qué hacer mientras esperas el lanzamiento

Si estás interesado en DeepSeek V4, aquí lo concreto:

  1. Crea una cuenta en platform.deepseek.com y prueba los modelos actuales (V3, R1). La API ya funciona y ya puedes evaluar si la calidad sirve para tu caso de uso.
  2. Activa notificaciones en sus canales oficiales para saber el día exacto de lanzamiento.
  3. Si planeas usar el modelo vía API, la integración compatible con OpenAI hace que la migración sea trivial.
  4. Si te interesa self-hosting con Apache 2.0, empieza a planear la infraestructura. Un servidor con RTX 5090 o equivalente cloud va a ser suficiente para versiones cuantizadas.

El lanzamiento no tiene fecha exacta pública aún, pero “semanas” en el contexto del reporte del The Information sugiere que estamos hablando de antes de mayo. Si eres dev en México y construyes con IA, vale la pena tenerlo en el radar.

Fuentes


Nota: La tabla de precios quedó con las correcciones insertadas como texto dentro de las celdas, lo cual puede resultar visualmente incómodo. Te recomiendo revisar si prefieres restructurar esa tabla manualmente para que los valores corregidos queden como cifras limpias y el texto explicativo quede fuera de la tabla (por ejemplo, en notas al pie). Las correcciones tal como me las indicaste están todas aplicadas fielmente.

Comentarios

No te pierdas ningún post

Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.

También te puede interesar