Anthropic ha protagonizado una de las semanas más intensas en la historia reciente de la inteligencia artificial. En apenas unos días, la compañía ha estado en el centro de tres acontecimientos clave: la filtración de su modelo más avanzado, una victoria judicial frente al Pentágono y la exposición accidental del código de una de sus herramientas más utilizadas.
Tres eventos distintos, pero conectados por un mismo eje: el reto de gestionar tecnología crítica en un entorno donde innovación, seguridad y política avanzan al mismo ritmo.

Índice de contenidos
Qué es Anthropic y por qué importa
Anthropic es una de las compañías más influyentes en el desarrollo de inteligencia artificial. Responsable de Claude, compite directamente con OpenAI, Google DeepMind y Meta en la carrera por sistemas más potentes, seguros y alineados con principios éticos.
Su enfoque en seguridad y control de riesgos la ha convertido en un referente dentro del sector tecnológico.
Una semana clave: tres eventos que marcan el sector
En menos de una semana, Anthropic ha protagonizado:
- La filtración de Claude Mythos, su modelo más avanzado
- Una victoria judicial frente al Departamento de Defensa de EE.UU.
- La exposición de 512.000 líneas de código de su herramienta Claude Code
Un triple episodio que refleja tanto el potencial como los riesgos de la inteligencia artificial actual.
Claude Mythos: filtración del modelo más avanzado
Qué se filtró
Claude Mythos, conocido internamente como “Capybara”, representa el modelo más potente desarrollado por Anthropic hasta la fecha.
Un error de configuración dejó expuestos miles de documentos internos en una caché pública, incluyendo borradores técnicos y páginas de producto.
Capacidades clave
Según los documentos filtrados, el modelo destaca en:
- Razonamiento avanzado
- Programación
- Ciberseguridad ofensiva y defensiva
Especialmente relevante es su potencial en ciberseguridad, donde podría superar las capacidades actuales de defensa, abriendo nuevos debates sobre riesgos y control.
Estado actual
Claude Mythos no está disponible públicamente. Su despliegue es limitado debido a su alto coste operativo y a las implicaciones de seguridad.
La batalla judicial contra el Pentágono
El conflicto comenzó tras un contrato firmado en 2025 para desplegar Claude en redes clasificadas. El Departamento de Defensa exigió eliminar restricciones de uso, incluyendo aplicaciones sensibles como vigilancia o armamento autónomo.
Anthropic se negó.
Como respuesta, el gobierno clasificó a la empresa como “riesgo para la cadena de suministro”. Sin embargo, la jueza Rita Lin bloqueó esta medida, señalando que una empresa no puede ser sancionada por decidir cómo se utiliza su tecnología.
Máster en Analitica Digital
Mejora tus resultados online analizando datos y optimizando campañas digitales con precisión.
¡Quiero información!Este fallo marca un precedente clave en la relación entre gobiernos y compañías de IA.
La otra filtración: 512.000 líneas de código de Claude Code
Si la filtración de Claude Mythos fue el gran titular, lo ocurrido con Claude Code añadió un nuevo capítulo igual de relevante.
Claude Code, la herramienta de programación con IA de Anthropic, expuso accidentalmente 512.000 líneas de código en 1.900 archivos al publicar una nueva versión en el repositorio público npm.
El origen fue un error humano en el proceso de empaquetado que permitió reconstruir el código fuente original.
Qué se encontró en el código
La comunidad técnica detectó elementos especialmente llamativos:
- Kairos: sistema interno de memoria del agente
- Buddy: una mascota de IA tipo Tamagotchi en desarrollo
- Modo Encubierto: diseñado para evitar que el modelo revele información interna
Este último incluía instrucciones explícitas como: “No reveles tu identidad”, lo que generó debate en la comunidad.
Reacción y consecuencias
Anthropic confirmó que no hubo exposición de datos sensibles ni credenciales, pero el impacto fue inmediato:
- El código se difundió rápidamente en internet
- Se emitieron solicitudes de retirada bajo derechos de autor
- Un desarrollador recreó la arquitectura en Python (claw-code), alcanzando miles de estrellas en GitHub en pocas horas
Esto refuerza una realidad clave: una vez que algo se publica en internet, eliminarlo completamente es prácticamente imposible.
Impacto en el mercado y el sector tecnológico
Estos eventos han tenido efectos inmediatos:
- Caídas en empresas de ciberseguridad tras la filtración de Mythos
- Mayor visibilidad de Anthropic como líder tecnológico
- Debate abierto sobre riesgos, ética y regulación en IA
Pero, sobre todo, han puesto el foco en la gestión del riesgo tecnológico.
Qué significa para el futuro de la IA
- La IA ya no es solo tecnología: es estrategia, política y regulación
- Los errores técnicos pueden escalar a impacto global en cuestión de horas
- La gestión del riesgo es tan crítica como la innovación
Para empresas y profesionales, entender este contexto es clave para tomar decisiones estratégicas.
Conclusión
En una semana, Anthropic mostró tanto su poder tecnológico con Claude Mythos como su capacidad de proteger decisiones estratégicas frente a presiones políticas.
El mensaje es claro: en la era de la IA, la tecnología, la ética y la política están indisolublemente unidas. Las organizaciones y profesionales que comprendan este tablero tendrán una ventaja estratégica decisiva.
Máster en Analitica Digital
Mejora tus resultados online analizando datos y optimizando campañas digitales con precisión.
¡Quiero información!