Lo que comenzó como un avance más en inteligencia artificial terminó encendiendo alertas en toda la industria tecnológica.
La empresa Anthropic decidió no lanzar públicamente su nuevo modelo, conocido como Mythos, luego de descubrir que su capacidad iba mucho más allá de lo esperado. En cuestión de semanas, esta IA logró detectar miles de vulnerabilidades en sistemas informáticos, incluyendo fallas que llevaban décadas ocultas.
De acuerdo con la propia compañía, el modelo —denominado internamente “Mythos Preview”— no solo identifica errores, sino que también puede desarrollar herramientas para explotarlos. Es decir, no se limita a encontrar el problema: también sabe cómo aprovecharlo.
Uno de los testimonios más reveladores fue el del investigador Nicholas Carlini, quien aseguró que el sistema encontró más fallas en dos semanas que él en toda su carrera.
Fallas ocultas por décadas
Entre los descubrimientos más delicados destacan vulnerabilidades en sistemas ampliamente utilizados como:
- OpenBSD, con una falla de 27 años
- FFmpeg, con un error de 16 años
- El núcleo de Linux, donde se detectaron accesos que podían escalar privilegios hasta tomar control total
Estos hallazgos no solo sorprendieron por su antigüedad, sino por el riesgo que representaban si caían en manos equivocadas.
Activan protocolo con gigantes tecnológicos
Ante el potencial impacto, Anthropic puso en marcha el proyecto “Glasswing”, una alianza con empresas líderes como Apple, Amazon Web Services, Google, Microsoft, Nvidia y CrowdStrike.
El objetivo es claro: corregir las vulnerabilidades antes de que una inteligencia artificial —o cualquier actor malicioso— pueda explotarlas.
Además, el modelo ha sido compartido con decenas de empresas que manejan infraestructura crítica y se ha discutido directamente con el gobierno de Estados Unidos.
De promesa técnica a riesgo real
El CEO de Anthropic, Dario Amodei, explicó que Mythos no fue diseñado inicialmente como una herramienta de ciberseguridad, sino como un modelo enfocado en programación. Sin embargo, su desempeño en la detección de fallas cambió completamente el rumbo del proyecto.
El temor ahora no es teórico. A diferencia de otras preocupaciones sobre inteligencia artificial —como la desinformación—, aquí el riesgo es tangible: una vulnerabilidad existe o no, y puede ser explotada.
Un precedente que revive el debate
No es la primera vez que una empresa tecnológica decide frenar su propia creación. En 2019, OpenAI retrasó el lanzamiento de GPT-2 por preocupaciones similares.
Hoy, la discusión vuelve con más fuerza: ¿hasta dónde se debe avanzar cuando la tecnología supera los límites de control?
Por ahora, Mythos seguirá en la sombra.


