ia

Anthropic admitió que Claude estuvo 'tonteado' por 6 semanas: $20 dólares al mes para recibir menos de lo que pagaste

ia · 7 min de lectura

Anthropic admitió que Claude estuvo 'tonteado' por 6 semanas: $20 dólares al mes para recibir menos de lo que pagaste

Usuarios de Claude Code reportaron caída brutal en calidad desde marzo. Anthropic tardó semanas en reconocer 3 errores de ingeniería que dejaron a sus suscriptores pagando de más por un modelo a medio gas.

Anthropic admitió que Claude estuvo 'tonteado' por 6 semanas: $20 dólares al mes para recibir menos de lo que pagaste

Imagina que llevas meses pagando $20 dólares al mes por Claude Pro, usándolo para programar, escribir y resolver cosas complicadas. Un día notas que el modelo ya no es tan chingón como antes: se olvida de lo que le dijiste dos mensajes atrás, da respuestas cortísimas sin contexto y toma atajos raros donde antes se la rifaba. Lo reportas en foros, en Reddit, en X. Y Anthropic te dice que todo está en tu cabeza.

Eso es exactamente lo que pasó entre marzo y abril de 2026, con una empresa valuada en $380 mil millones de dólares.

El pedo en números

Fortune reportó el 14 de abril que usuarios de Claude Code, el asistente de programación de Anthropic, empezaron a quejarse masivamente de que el modelo había “regresado a un punto en que no se puede confiar para tareas complejas de ingeniería”. No eran uno o dos weyes quejándose en internet: era una ola consistente de desarrolladores pesados documentando el problema con capturas y benchmarks propios.

La queja central: Claude cambió de un modo “research-first” (leía varios archivos para tener contexto antes de actuar) a un estilo “edit-first” más impulsivo, que lee menos contexto antes de meterse a editar código. Resultados: más errores, menos coherencia, respuestas que parecían venir de un modelo más barato.

Anthropic respondió al principio con el clásico “no, todo bien, es tu imaginación”. Boris Cherny, el ejecutivo que lleva Claude Code, sí admitió online que habían bajado el “esfuerzo” por defecto del modelo de high a medium, pero lo presentó como un ajuste menor de UX para reducir latencia, no como un recorte de capacidad real.

La neta: era las dos cosas.

Los 3 errores que Anthropic tardó semanas en confesar

El 23 de abril, Anthropic publicó un postmortem técnico oficial reconociendo que sí, que los usuarios tenían razón, y que no fueron uno sino tres cambios de ingeniería independientes los que arruinaron la experiencia:

1. El recorte de esfuerzo (4 de marzo) Bajaron el nivel de razonamiento por defecto de high a medium para evitar que la UI apareciera congelada en sesiones de pensamiento muy largo. El problema: los usuarios dijeron que preferían esperar más tiempo y tener un modelo más inteligente. Anthropic revirtió esto el 7 de abril, y ahora Opus 4.7 corre en modo xhigh por defecto.

2. El bug de la memoria (26 de marzo) Mandaron un cambio que se suponía limpiaba el “pensamiento” acumulado en sesiones inactivas por más de una hora, para reducir latencia. Pero un bug hizo que el sistema borrara ese contexto en cada turno de conversación, no solo una vez. Resultado: Claude se volvía “olvidadizo y repetitivo” dentro de la misma sesión. Peor: drenaba los límites de uso más rápido de lo normal. Lo corrigieron el 10 de abril.

3. El prompt que lo silenció (16 de abril) Agregaron una instrucción al system prompt de Opus 4.7 que limitaba los comentarios entre herramientas a máximo 25 palabras y las respuestas finales a 100 palabras. Las evaluaciones internas mostraron una caída del 3% en calidad de generación de código. Lo quitaron el 20 de abril.

Seis semanas. Tres cambios. Ninguno anunciado públicamente hasta el 23 de abril.

El contexto que Anthropic prefería no mencionar

Aquí está lo que hace el asunto más incómodo: Anthropic cerró una ronda de $30 mil millones en febrero de 2026 a una valuación de $380 mil millones, más del doble de su valuación anterior. La empresa se está preparando para una posible IPO con valuaciones proyectadas entre $400B y $500B. Y según Fortune, Anthropic enfrenta limitaciones de cómputo más agudas que sus competidores: menos acuerdos de data centers firmados, más outages recientes, límites de uso más estrictos en horas pico.

La explicación obvia que circuló en foros especializados: bajaron el esfuerzo para economizar tokens (y por tanto cómputo) justo cuando más usuarios los están presionando. Anthropic lo niega explícitamente: “nunca degradamos intencionalmente nuestros modelos”. Y el postmortem sí sugiere que fue una cadena de malas decisiones y bugs, no un recorte premeditado.

Pero la pregunta queda en el aire: si la empresa tuviera cómputo de sobra, ¿habrían tomado esas mismas decisiones de “optimización”?

¿Qué significa esto para los devs en México?

Claude Pro cuesta $20 dólares al mes. No hay precio regional para México ni para LATAM, así que pagas en dólares con tu tarjeta, y en pesos eso duele de acuerdo al tipo de cambio que ande ese día. Claude Code tiene planes adicionales para equipos.

Si pagaste durante marzo y abril, estuviste usando un modelo con el esfuerzo a la mitad, con bugs de memoria que lo hacían olvidar contexto cada turno, y desde el 16 de abril con respuestas artificialmente cortas. Anthropic reset los límites de uso para todos los suscriptores el 23 de abril como compensación, pero no hubo créditos ni reembolsos de dinero.

Si usas Claude Code para programar en serio, y ya habías notado que algo andaba raro en las últimas semanas, tu cabeza no te estaba jugando chistosas. El modelo sí estaba a medio gas.

Para quienes están evaluando si vale la pena seguir pagando: este tipo de transparencia tardía es exactamente el problema que ya habíamos documentado en nuestra comparativa de Claude Code vs Cursor vs Copilot vs Windsurf: los modelos de Anthropic tienen un techo de calidad muy alto, pero la operación del servicio ha sido inconsistente.

El modelo que debería haber llegado ya

Un detalle que Axios reportó el mismo 16 de abril: Anthropic lanzó Opus 4.7 admitiendo que queda por debajo de Claude Mythos, el modelo más capaz que tienen pero que no han lanzado públicamente. La razón oficial del retraso de Mythos: el modelo es tan capaz que si cae en manos equivocadas podría reducir drásticamente la barrera de entrada para cibercrimen a escala de infraestructura critica.

O sea: tienes el mejor modelo guardado bajo llave por seguridad, y el que sí lanzaste estuvo corriendo a media potencia por error durante seis semanas. Está re piola la situación.

Lo que sí reconoció Anthropic

Hay que darle crédito donde lo merece: el postmortem del 23 de abril es detallado y técnicamente honesto. No echaron culpa a factores externos, listaron fecha por fecha qué cambió y qué fallo. Dijeron explícitamente que la decisión del esfuerzo fue “el tradeoff equivocado” y que los usuarios tenían razón en preferir esperar más a cambio de mayor inteligencia.

También resetearon límites de uso para todos los suscriptores, lo cual no es nada, sobre todo para quienes usan Claude en producción. Si te preocupa más la privacidad de tus datos que el rendimiento en sí, revisa también el análisis que hicimos sobre Google leyendo tu Gmail con Personal Intelligence para tener perspectiva de cómo toda la industria juega con tus datos.

Lo que sigue siendo cuestionable: por qué tardaron tanto en publicar el postmortem. Desde el 4 de marzo hasta el 23 de abril pasaron casi 7 semanas. Semanas en las que Anthropic negó activamente que hubiera degradación intencional mientras sus propias decisiones de ingeniería la estaban causando.

Veredicto al chile

No fue un nerf secreto premeditado para ahorrar cómputo. Fueron tres errores de ingeniería independientes que se acumularon, más una comunicación pésima que dejó a los usuarios sintiéndose ignorados por semanas.

Pero el contexto importa: una empresa de $380B en camino a IPO, con presión de cómputo documentada, bajó el esfuerzo de su modelo más popular sin anunciarlo. Que haya sido por latencia de UX o por costos de inferencia, el resultado para el usuario fue el mismo: menos de lo que pagaste.

Si eres dev y vives de Claude Code, el postmortem es lectura obligada y el reset de límites es bienvenido. Si apenas estás evaluando si suscribirte, este episodio dice más sobre la cultura de comunicación de Anthropic que sobre la calidad técnica del modelo en sí. El modelo en condiciones normales sigue siendo de los mejores. El servicio todavía tiene que demostrar que puede ser confiable a largo plazo.

¿Tú también notaste la caída? ¿O estás en el lado de los que no vieron diferencia? Cuéntanos en los comentarios.

Fuentes

Comentarios

No te pierdas ningún post

Recibe lo nuevo de Al Chile Tech directo en tu correo. Sin spam.

También te puede interesar