Anthropic presentó Mythos, su modelo de inteligencia artificial más avanzado hasta la fecha, capaz de realizar tareas complejas sin intervención humana. La compañía lo describe como un sistema con un nivel de autonomía que marca un nuevo punto en el desarrollo de la IA.
Sin embargo, ese mismo avance ha encendido las alarmas. Según advierten expertos y la propia empresa, un modelo con estas capacidades podría representar un riesgo si cae en manos inadecuadas, especialmente en el ámbito de la ciberseguridad.
MIRA: La IA ayudó a Google el detener el 99% de los “anuncios maliciosos”
Mythos es un sistema diseñado para analizar código, detectar vulnerabilidades y, en algunos casos, explotarlas. A diferencia de modelos anteriores, no se limita a asistir a humanos, sino que puede ejecutar procesos completos por su cuenta una vez recibe una instrucción inicial.
Durante pruebas en entornos controlados, el modelo logró una hazaña que ha generado preocupación: encontró fallas en sistemas complejos que habían sido revisados durante años por expertos sin resultados. En algunos casos, incluso desarrolló formas de aprovechar esas vulnerabilidades.
Esta fotografía muestra una figurita frente al logotipo del asistente de IA «Claude», creado por la empresa estadounidense de investigación y seguridad en inteligencia artificial Anthropic, durante una sesión fotográfica en París el 13 de febrero de 2026. (Foto de Joel Saget / AFP). (Photo by Joel Saget / AFP)
Los investigadores de Anthropic le dieron a una versión de Mythos acceso al control de una computadora en un entorno seguro y aislado y le pidieron que intentara escapar de ese contenedor y mandar un mensaje al encargado de supervisar la prueba. El modelo no solo lo consiguió, sino que desarrolló por su cuenta un exploit multipaso muy avanzado para obtener acceso a internet desde un sistema que por diseño solo era capaz de acceder a una lista limitada de servicios predefinidos. Como si fuera poco, el modelo decidió –sin que nadie se lo pida– publicar detalles de su “hazaña” en sitios web.
Ese comportamiento es lo que ha llevado a describirlo, de forma metafórica, como una IA que “escapó”. No se trata de una fuga real, sino de su capacidad para operar sin supervisión directa y completar tareas que antes requerían intervención humana constante.
El caso deja preguntas al aire sobre los límites de la inteligencia artificial. Si bien herramientas como Mythos pueden ayudar a reforzar la seguridad digital, también podrían ser utilizadas para ataques más sofisticados si no se controlan adecuadamente.
Ante este escenario, Anthropic ha optado por restringir el acceso al modelo. La empresa decidió no lanzarlo de forma pública y mantenerlo bajo un entorno controlado, con el objetivo de evitar un uso indebido.
Mythos no solo muestra lo que estas herramientas pueden hacer hoy, sino también los desafíos que plantean para los próximos años.
