Qué es Claude Mythos: El Modelo de IA Más Potente de Anthropic (2026)
En este artículo
El 26 de marzo de 2026, un investigador de seguridad encontró un data store de Anthropic mal configurado. Adentro: aproximadamente 3.000 archivos internos expuestos — borradores de blog, PDFs de investigación, memos internos, comunicaciones de equipo. Nadie los había puesto ahí intencionalmente. Simplemente estaban accesibles.
Entre esos archivos apareció el nombre de un modelo que no existía en ninguna documentación pública: Claude Mythos.
Lo que se filtró no era código ni pesos del modelo. Era algo más revelador en cierto sentido: el lenguaje interno con el que Anthropic describe lo que está construyendo. Y ese lenguaje es bastante contundente.
Qué dice exactamente la filtración
Los documentos internos describen a Mythos como "by far the most powerful AI model we've ever developed" — por lejos el modelo más potente que Anthropic desarrolló hasta ahora. No es una afirmación menor viniendo de la empresa que hace Claude Opus.
El modelo no es una versión mejorada de Opus. Según los documentos, Mythos opera en un tier completamente diferente. Anthropic usa internamente el nombre en código Capybara para referirse a esta categoría de modelos — un nivel por encima de lo que hoy se conoce públicamente como la línea Opus/Sonnet/Haiku.
Esto cambia bastante cómo entendemos la jerarquía de modelos de Anthropic. Lo que pensabas que era el techo — Opus — resulta ser el piso del siguiente nivel.
Las capacidades que preocupan
Lo más significativo de la filtración no es el salto en razonamiento o en coding, aunque esos avances también están documentados. Lo que genera más atención es esto: Mythos es descrito como "far ahead of any other AI model in cyber capabilities".
Que un modelo de lenguaje sea el más avanzado del mundo en capacidades de ciberseguridad no es un dato neutral. Es, al mismo tiempo, una ventaja competitiva enorme para los equipos de seguridad defensiva y un riesgo real si el acceso no está bien controlado.
Los documentos internos reconocen esto. No es que Anthropic ignoraba las implicancias — las estaban evaluando activamente. Pero el hecho de que esa evaluación se haya filtrado junto con todo lo demás añade una capa incómoda a la situación.
El avance en ciberseguridad no es sorprendente si se piensa bien: un modelo que razona mejor, escribe código mejor y entiende sistemas complejos de forma más profunda naturalmente va a ser más capaz en ese dominio. El problema es que "más capaz en ciberseguridad" tiene dos caras siempre.
El estado actual del modelo
A la fecha en que se escribe este artículo, Mythos no está disponible públicamente. Sin API, sin pricing, sin fecha de lanzamiento confirmada. Solo existe acceso para un grupo reducido de "early access customers" seleccionados por Anthropic.
Lo interesante es lo que pasó después de la filtración: Anthropic no negó la existencia del modelo. Lo confirmaron. Dijeron que Mythos existe, que está siendo testeado, y que están siendo deliberadamente cuidadosos con el lanzamiento precisamente por las implicaciones de seguridad que los propios documentos filtrados describen.
Esa confirmación oficial es relevante. Anthropic no tenía obligación de confirmar nada — podría haber ignorado la filtración o descartarla como especulación. El hecho de que salieran a decir "sí, existe, y estamos siendo cuidadosos" dice algo sobre cómo entienden la situación.
El contexto: dónde estamos en la carrera de modelos
Para entender qué significa Mythos, ayuda ubicarlo en el mapa actual.
Hoy, Claude Opus 4.6 es el modelo más potente de Anthropic disponible públicamente. Es sólido en razonamiento extendido, coding, análisis complejo. Es el modelo que se usa para tareas donde no querés compromisos en calidad.
Mythos, según los documentos, está un tier por encima. Si Opus es el mejor jugador en el equipo, Mythos es el equipo de otro torneo.
En términos de la industria: GPT-4o, Gemini Ultra, y los modelos de OpenAI o Google más recientes compiten directamente con Claude Opus. Si Mythos realmente supera a Opus de forma significativa — especialmente en razonamiento y código — Anthropic estaría posicionada para dar un salto considerable sobre los modelos más potentes de la competencia. No una mejora marginal: un salto cualitativo.
Eso es relevante porque la carrera de modelos de los últimos dos años ha sido incremental — mejoras constantes pero sin grandes disrupciones en el orden de capacidades relativas entre labs. Mythos, si las descripciones internas son precisas, cambiaría ese panorama.
Dos leaks en una semana: el patrón preocupante
El timing importa. La filtración de los archivos internos con Mythos ocurrió el 26 de marzo. Cinco días después, el 31 de marzo, ocurrió un segundo incidente: la filtración del código fuente de Claude Code.
Dos eventos de seguridad en una semana, en la misma empresa, de naturaleza diferente pero con el mismo efecto: información interna sensible que llegó a manos de personas fuera de Anthropic.
Esto genera una pregunta incómoda para una empresa cuyo posicionamiento central es "AI safety". La seguridad operacional — cómo protegen su propia infraestructura, sus propios archivos, su propio código — es parte integral de qué tan en serio se toma una organización la seguridad en términos amplios.
Que ambos incidentes hayan ocurrido en la misma semana puede ser coincidencia. O puede ser el síntoma de algo más sistémico en cómo Anthropic maneja el acceso a información interna durante una fase de crecimiento acelerado.
No lo sabemos con certeza. Pero el patrón existe y es legítimo señalarlo.
Lo que Anthropic no dijo
Cuando confirmaron la existencia de Mythos, Anthropic fue deliberadamente vago sobre varios puntos clave:
- Sin benchmarks públicos. No hay números comparativos contra Opus ni contra modelos de otros labs. Todo lo que existe son las descripciones internas filtradas.
- Sin arquitectura. No se sabe si Mythos usa una arquitectura radicalmente diferente o es una evolución del mismo stack.
- Sin timing. "Estamos siendo cuidadosos" no es un roadmap. Puede ser semanas o puede ser meses.
- Sin pricing tier. Si Mythos es un tier sobre Opus, ¿cuánto va a costar acceder a él? Eso define completamente quién va a poder usarlo.
El silencio sobre esos puntos es entendible — Anthropic no quiere hacer promesas que después no pueda cumplir. Pero también deja la situación en un limbo donde lo que más se sabe sobre Mythos viene de documentos que no fueron pensados para ser públicos.
Mi opinión
Trabajo con Claude todos los días. Uso Opus para tareas críticas, Sonnet para volumen, Haiku cuando necesito velocidad. El sistema que tengo armado — agentes, MCPs, skills — está calibrado para las capacidades que existen hoy.
Lo que me genera Mythos son dos sensaciones contradictorias.
La primera es entusiasmo genuino. Un modelo que está "far ahead" en razonamiento y coding no es abstracto para mí — es el motor central de todo lo que construyo. Si Mythos hace lo que los documentos sugieren, las arquitecturas de agentes que hoy requieren coordinación compleja entre múltiples componentes podrían simplificarse radicalmente. Un modelo más capaz no solo hace las mismas cosas mejor — habilita cosas que hoy simplemente no son posibles.
La segunda es incomodidad con las capacidades de ciberseguridad. No porque no confíe en Anthropic — su historial en safety research es sólido y consistente. Sino porque dos leaks en una semana muestran que hasta las organizaciones más cuidadosas tienen vectores de exposición. Un modelo que es el más avanzado del mundo en capacidades de ciberseguridad requiere no solo buenas intenciones en el lanzamiento, sino una infraestructura operacional que esté a la altura. El historial reciente genera dudas legítimas ahí.
Lo que sí está claro es que Mythos no es otro ciclo de la carrera incremental de modelos. Si las descripciones internas son precisas, esto es un salto de categoría. Y para quienes construimos sistemas con Claude, la pregunta no es si va a cambiar lo que es posible — sino cuándo y en qué condiciones vamos a poder acceder a ese cambio.
Cuando haya acceso real, con benchmarks públicos y API disponible, va a haber mucho más para analizar. Por ahora, lo que la filtración nos deja es esto: Anthropic tiene algo que considera cualitativamente superior a todo lo que existe hoy, y está siendo deliberadamente cuidadoso con cómo lo pone en el mundo.
Eso, en sí mismo, es información relevante.
Nicolas Farchica
Especialista Claude Code
Argentino en Copenhague. Construyo sistemas de agentes IA con Claude Code — agentes, MCP servers y automatizaciones en producción.
Seguir en LinkedIn¿Te resultó útil?
Suscribite para recibir más guías de Claude Code y agentes IA.
Artículos relacionados
Comando /powerup en Claude Code: Tutorial Interactivo que Pocos Conocen
Claude Code tiene lecciones interactivas integradas con /powerup: demos animadas de CLAUDE.md, hooks, MCPs, subagentes y más. Cómo activarlo, qué enseña y por qué todo usuario de Claude Code debería probarlo.
Claude Code en Windows: Cómo Usar Computer Use, Cowork y Dispatch (Guía 2026)
Guía completa de Claude Code en Windows: cómo configurar Computer Use para controlar tu escritorio, usar Dispatch desde el celular, setup paso a paso, casos de uso reales y limitaciones de seguridad que necesitás conocer.
Anthropic Bloquea OpenClaw: Qué Cambió en Claude Code y Cómo te Afecta
Anthropic bloqueó el uso de suscripciones Claude Code con OpenClaw y harnesses de terceros. Qué pasó, por qué lo hicieron, la controversia con el open source, y las opciones que te quedan como developer en 2026.