OpenAI, Google y Anthropic se unieron contra China: 24,000 cuentas falsas y 16 millones de intercambios robados a Claude
Las tres labs más grandes de IA activaron el Frontier Model Forum para bloquear a DeepSeek, Moonshot y MiniMax, acusados de entrenar sus modelos con outputs robados a escala industrial. Si usas DeepSeek en México, esto te afecta.
Que OpenAI y Anthropic compitan entre sí es lo normal. Que se unan junto a Google para enfrentar a un rival externo: eso ya es otro rollo. Y eso fue exactamente lo que pasó esta semana.
El 6 de abril, Bloomberg reportó que las tres empresas comenzaron a compartir inteligencia de amenazas a través del Frontier Model Forum para detectar y bloquear lo que llaman “ataques de destilación adversarial”. Al día siguiente, el Japan Times y Semafor confirmaron los detalles. El objetivo: tres empresas chinas de IA, DeepSeek, Moonshot AI y MiniMax, que ya fueron acusadas formalmente de robar capacidades de los modelos de IA más avanzados del mundo.
Y los números son brutales.
Qué es la destilación y por qué es un pedo mayor
La destilación de modelos no es nueva. Es una técnica legítima en IA donde usas un modelo grande para entrenar uno más pequeño y eficiente. El problema está cuando la haces sin permiso, a escala industrial, con cuentas falsas y contra los términos de servicio de las empresas cuyos modelos estás explotando.
Es básicamente clonación de propiedad intelectual a través de ingeniería inversa masiva. Le preguntas millones de veces al modelo ajeno, capturas sus respuestas, y con eso entrenas el tuyo. El modelo robado termina con capacidades que le costaron años y miles de millones de dólares a la empresa original desarrollar.
Los números del robo
El 23 de febrero, Anthropic publicó un post técnico en su blog detallando los ataques con cifras específicas. No fue una acusación vaga: fue una rendición de cuentas con evidencia.
El resumen es este:
| Empresa | Intercambios con Claude | Enfoque |
|---|---|---|
| MiniMax | +13 millones | Mayor volumen de extracción |
| Moonshot AI | +3.4 millones | Razonamiento agente, tool use, coding |
| DeepSeek | +150,000 | Lógica fundacional, alineación, censura |
Total: más de 16 millones de intercambios generados con cerca de 24,000 cuentas fraudulentas. Una sola red proxy manejaba más de 20,000 cuentas simultáneas.
DeepSeek, aunque tiene los números más bajos, es el caso más técnicamente interesante y preocupante. Según Anthropic, usaron arquitecturas tipo “hydra cluster” con cuentas sincronizadas y load balancing. Y esto es lo que más prendió focos: enviaban prompts específicamente diseñados para que Claude “articulara el razonamiento interno detrás de una respuesta completada”. Es decir, no solo querían los outputs, querían robar la cadena de pensamiento, el proceso de razonamiento de Claude. Además generaron alternativas a queries sensibles políticamente, básicamente entrenando un modelo que evita la censura a la que DeepSeek está obligado en China.
El Frontier Model Forum entra al juego
El Frontier Model Forum es un nonprofit cofundado en 2023 por OpenAI, Google, Anthropic y Microsoft. Hasta ahora había funcionado más como un foro de discusión sobre seguridad en IA. Pero esta semana, según Semafor, las tres labs lo activaron como operación activa de inteligencia de amenazas por primera vez contra un adversario externo específico.
El modelo es el mismo que usan las empresas de ciberseguridad: cuando uno detecta un patrón de ataque, lo comparte con los demás. Patrones de tráfico anormal, búsquedas organizadas de alto volumen, prompts repetidos a través de múltiples cuentas. Cuando uno lo ve, todos lo bloquean.
Hay un detalle interesante: las empresas todavía no tienen claridad regulatoria sobre los límites del intercambio de información bajo leyes antimonopolio. Ya le pidieron al gobierno de EUA que les dé un marco legal explícito. Por ahora actúan en la zona gris.
La pregunta para México y LATAM
Acá es donde esto se pone relevante para nosotros. DeepSeek tiene usuarios activos en México y el resto de América Latina. Es gratis, está disponible en el navegador y en apps, y su rendimiento en benchmarks lo puso en el mapa el año pasado cuando su modelo R1 igualó a los sistemas americanos más avanzados a una fracción del costo, borrando temporalmente cientos de miles de millones de dólares de las valuaciones de las empresas de IA de EUA.
Pero si las acusaciones de Anthropic son ciertas, parte de esas capacidades que hacen a DeepSeek tan bueno se obtuvieron ilegalmente. Usar DeepSeek no te hace cómplice de nada, para que quede claro. Pero sí vale la pena entender qué estás usando y de dónde viene. Ya lo explicamos con más detalle en nuestro análisis de DeepSeek V4: el monstruo chino de 1 trillón de parámetros que no necesita chips de Nvidia y el pedo geopolítico que hay detrás.
Lo que es un hecho: los modelos chinos tienen un rango de precios entre 10x a 50x+ más baratos que los americanos, dependiendo del modelo específico. Por ejemplo: DeepSeek V4 es 50x más barato que Claude Opus 4.6, y R1 es 27x más barato que o1 de OpenAI. Con ese diferencial de costo, el incentivo de destilación no desaparece fácilmente. Y si los americanos ahora coordinan activamente para bloquearlo, la guerra apenas empieza.
La respuesta de Anthropic y lo que viene
Además de nombrar públicamente a los tres infractores y bloquearles el acceso a Claude, Anthropic ya tomó medidas técnicas: construyeron clasificadores que identifican patrones de destilación en el tráfico de la API, fortalecieron la verificación de cuentas educativas y de investigación, y están desarrollando salvaguardas a nivel de producto y modelo para reducir la eficacia de los outputs para uso ilícito.
Esta última parte es re trucha, porque implica que Claude podría en el futuro dar respuestas menos útiles si detecta que el contexto sugiere extracción. Algo a monitorear.
Anthropic ya tenía historial de decisiones difíciles en este terreno. Si recuerdas el episodio donde la empresa tuvo que defender su postura ante el Pentágono, el patrón es claro: Anthropic sigue siendo la lab que traza líneas que otras evitan trazar, aunque eso genere fricciones.
El contexto político que nadie puede ignorar
La respuesta del medio oficial chino Global Times fue predecible: calificaron el reporte de Bloomberg como evidencia de “la ansiedad de EUA ante el rápido progreso de China en IA de código abierto y su impacto en la hegemonía tecnológica de EUA”.
No es que no tengan algo de razón en el diagnóstico geopolítico, pero tampoco cambia los hechos: 16 millones de intercambios con cuentas fraudulentas no es investigación legítima ni competencia leal.
OpenAI fue más directo: acusaron a DeepSeek de querer “free-ride en las capacidades desarrolladas por OpenAI y otros labs frontera de EUA”.
Si estás eligiendo entre herramientas de IA para tu trabajo y quieres hacer esa comparativa con cabeza fría, nuestra guía de ChatGPT vs Claude vs Gemini vs Grok vs DeepSeek tiene los detalles concretos que necesitas.
¿Esto cambia cómo ves a DeepSeek o a los demás modelos chinos? ¿O el rollo geopolítico te parece secundario si el modelo funciona bien? Échale carrilla en comentarios.
Fuentes
- Anthropic: “Detecting and preventing distillation attacks” (23 feb 2026)
- Bloomberg: “OpenAI, Anthropic, Google Unite to Combat Model Copying in China” (6 abr 2026)
- Semafor: “US AI firms team up in bid to counter Chinese distillation” (7 abr 2026)
- Japan Times: “OpenAI, Anthropic and Google cooperate to fend off Chinese bids to clone models” (7 abr 2026)
- BanklessTimes: “OpenAI, Google, Anthropic Team Up to Block Chinese Scraping” (7 abr 2026)
- TechCrunch: “Anthropic accuses Chinese AI labs of mining Claude” (23 feb 2026)
Comentarios
No te pierdas ningún post
Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.
También te puede interesar
OpenAI está corriendo contra el reloj: GPT-5.5 'Spud' terminó su entrenamiento y quiere llegar antes que Claude Mythos
OpenAI completó el preentrenamiento de GPT-5.5 (Spud) y Sam Altman dice que sale 'en semanas'. La carrera contra Claude Mythos de Anthropic ya empezó, y para los devs mexicanos el momento de elegir bando se acerca.
DeepSeek V4: el monstruo chino de 1 trillón de parámetros que no necesita chips de Nvidia
China acaba de soltar la bomba: DeepSeek V4 llega con un trillón de parámetros, soporte multimodal, y corre enteramente en hardware chino. Aquí te explico por qué esto cambia todo.
Microsoft ya no necesita a OpenAI: lanzó 3 modelos de IA propios y el más barato supera a Whisper en 25 idiomas
MAI-Transcribe-1, MAI-Voice-1 y MAI-Image-2 ya están en Microsoft Foundry. Son más baratos que OpenAI y Google, y el de transcripción aplasta a Whisper con la mitad de GPUs. Esto es la declaración formal de independencia de Microsoft.