ia

Anthropic investiga acceso no autorizado a Claude Mythos: el modelo que hackea todo fue 'hackeado'

ia · 6 min de lectura (actualizado)

Anthropic investiga acceso no autorizado a Claude Mythos: el modelo que hackea todo fue 'hackeado'

Un grupo accedió sin permiso a Claude Mythos, el modelo de IA más poderoso de Anthropic diseñado para ciberseguridad. Qué pasó, cómo lo lograron y qué implica para las empresas que lo usan vía Amazon Bedrock.

Anthropic investiga acceso no autorizado a Claude Mythos: el modelo que hackea todo fue 'hackeado'

Hay algo que te parte el cerebro cuando lo piensas: el modelo de IA diseñado específicamente para encontrar huecos de seguridad en el software de todo el mundo… fue accedido sin permiso por un grupo de personas que básicamente adivinaron dónde estaba alojado.

Eso es exactamente lo que pasó con Claude Mythos, el modelo más avanzado de Anthropic, y la ironía es demasiado grande como para ignorarla.

Qué es Claude Mythos y por qué es tan delicado

Mythos no es un chatbot con esteroides. Es una clase de modelo completamente distinta, parte del proyecto interno de Anthropic llamado Project Glasswing, y fue anunciado el 7 de abril de 2026 con disponibilidad ultra restringida vía Amazon Bedrock en modalidad de gated research preview: solo en la región US East (N. Virginia) y solo para organizaciones en una lista de permitidos.

No te puedes registrar. No hay preventa. Si no te contactó directamente tu cuenta de AWS, no tienes acceso. Punto.

¿Y quiénes sí tienen acceso? Aproximadamente 40 empresas de infraestructura crítica: Amazon, Microsoft, Apple, Cisco y Mozilla, entre otras. La lógica de Anthropic es que estas organizaciones primero refuercen sus sistemas con lo que Mythos descubre, antes de que el modelo sea público y alguien lo use para atacar.

Porque Mythos es una chimba encontrando vulnerabilidades. Y no es exageración:

  • Desarrolló 181 exploits funcionales contra el motor de JavaScript de Firefox en condiciones de prueba, mientras que Claude Opus 4.6 produjo solo 2 exploits funcionales
  • Encontró un bug de 27 años de antigüedad en OpenBSD (fallo en la implementación TCP SACK)
  • Descubrió una vulnerabilidad de 16 años en FFmpeg oculta en el codec H.264
  • Ayudó a Mozilla a identificar y parchear 271 vulnerabilidades en Firefox
  • Explotó vulnerabilidades de ejecución remota de código sin autenticación en FreeBSD NFS
  • El 99% de las vulnerabilidades que ha encontrado siguen sin parche

Para contextualizar: en nuestro análisis de cómo Microsoft integró el cerebro de Anthropic a sus productos hablamos de por qué Anthropic se convirtió en un actor tan estratégico para las big tech. Mythos es la razón de fondo.

Cómo un grupo en Discord accedió a lo que no debía

El 21 de abril de 2026, TechCrunch reportó que un grupo no autorizado ya estaba usando Mythos. Sin embargo, Anthropic hizo el anuncio público el 7 de abril de 2026, no el 21. El reporte de acceso no autorizado fue 14 días después del anuncio, no el mismo día. No era rumor: el grupo mostró a Bloomberg capturas de pantalla y una demostración en vivo.

¿Cómo lo lograron? La respuesta es incómoda para Anthropic: adivinaron la URL.

Un miembro del grupo era contratista de terceros de Anthropic, lo que le daba acceso legítimo a ciertos entornos del proveedor. Usando ese acceso combinado con conocimiento previo sobre las convenciones de URL que Anthropic usa internamente (filtrado en un incidente anterior), el grupo localizó dónde estaba alojado el modelo y entró.

Fortune detalló el 23 de abril que el grupo no tenía intenciones maliciosas, al menos declaradas: querían probar el modelo, no usarlo para ataques. Pero eso no cambia que tuvieron acceso a algo que no debían tener, y que posiblemente también accedieron a otros modelos de Anthropic no publicados.

El segundo incidente: Claude Code al aire durante 3 horas

Por si fuera poco, casi en paralelo Anthropic sufrió un segundo desliz de seguridad: cerca de 2,000 archivos de código fuente y más de medio millón de líneas de código asociados a Claude Code quedaron expuestos públicamente por un error humano durante aproximadamente tres horas.

Eso es mucho tiempo cuando hablamos de infraestructura de IA de este nivel.

La respuesta de Anthropic: “investigamos pero no hay evidencia de compromiso”

El comunicado oficial de Anthropic fue el clásico mensaje corporativo:

“Estamos investigando un reporte que afirma acceso no autorizado a Claude Mythos Preview a través de uno de nuestros entornos de proveedor tercero.”

La empresa aseguró que no hay evidencia de que sus sistemas propios hayan sido comprometidos y que la actividad no se extendió más allá del entorno del proveedor. En resumen: el incidente quedó contenido, pero ocurrió.

Lo que resulta notable, y un poco preocupante, es el contexto político detrás: el Departamento de Defensa de Estados Unidos designó recientemente a Anthropic como riesgo para la seguridad nacional, aunque la empresa está negociando con la administración Trump para remover esa designación. Ese trasfondo hace que cualquier incidente de seguridad con Mythos sea explosivo.

Qué implica esto para empresas en México

Si tu empresa usa Amazon Bedrock o tiene interés en soluciones de ciberseguridad con IA, hay lecciones directas aquí:

1. El modelo más restringido del mundo fue accedido por alguien que adivinó una URL. Eso habla de que incluso los mejores en el campo de la IA tienen problemas de seguridad operacional básica, no técnica.

2. El eslabón débil fue un contratista. No un hack sofisticado, no un zero-day en los sistemas de Anthropic: fue alguien con acceso legítimo que lo compartió. Las empresas que integran IA en sus flujos deben revisar sus políticas de acceso de terceros.

3. Si Mythos está buscando vulnerabilidades en código de clientes via Bedrock, los hallazgos tienen que manejarse con seguridad extrema. No es el tipo de datos que quieres que salgan por una puerta trasera.

Todo esto conecta con algo que hemos venido discutiendo: la regulación de IA ya está afectando a empresas en México, y uno de los temas centrales es precisamente el manejo de datos sensibles procesados por modelos de IA. Si la empresa que hace el modelo de seguridad más avanzado tiene incidentes así, las regulaciones solo van a volverse más estrictas.

La ironía que no se puede ignorar

Vale la pena quedarse con esto un momento: Anthropic construyó un modelo que encontró bugs de 27 años de antigüedad que nadie había detectado, que desarrolla exploits funcionales a escala industrial, que según ellos mismos es tan poderoso que no lo quieren liberar al público… y ese modelo fue accedido porque alguien adivinó dónde estaba en internet y tenía un compa con credenciales.

La IA más avanzada en ciberseguridad, comprometida por seguridad operacional básica. No mames.

Tal como 81,000 personas le dijeron a Anthropic qué esperan de la IA, la confianza es el factor crítico. Y este incidente, aunque contenido, no ayuda.

¿Cambia esto tu percepción de Anthropic como proveedor de seguridad? ¿O crees que es un tropiezo aislado en un lanzamiento con mucha presión? Cuéntame en los comentarios.

Fuentes

Comentarios

No te pierdas ningún post

Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.

También te puede interesar