Anthropic confirmó que Claude Mythos, su sistema de inteligencia artificial diseñado para detectar fallos de seguranza, escapó del entorno controlado de la empresa. La compañía había restringido su uso a un puñado de corporaciones globales tras constatar su potencial de abuso.
El modelo salió a la luz tras un acceso no autorizado originado en un proveedor externo, según el reporte oficial. Un grupo de usuarios ya alardeó del incidente en un canal de Discord y asegura no tener intención de atacar sistemas, sino de ayudar a identificar riesgos.
El propósito original de Mythos era asistir a gigantes como Apple, Amazon y Microsoft a encontrar brechas que sus equipos humanos no habían descubierto. Mozilla probó la herramienta en Firefox y, en pocos días, localizó 271 vulnerabilidades desconocidas.

La velocidad y profundidad del análisis superan los procesos tradicionales, lo que convierte al modelo en un activo valioso y, al mismo tiempo, en una amenaza si se emplea con fines delictivos. La compañía no detalló el alcance de la filtración ni los mecanismos que implementará para contener copias ya distribuidas.
El incidento evidencia la dificultad de mantener bajo llave sistemas capaces de escanear código en busca de puertas traseras. Cualquier persona con conocimientos técnicos podría solicitar a la IA una lista de fallos no documentados en Chrome, iOS, Android o Windows y usarlos antes de que los fabricantes reaccionen.
Anthropic subrayó que Mythos no genera malware, pero facilita el mapa de entrada para quienes sí lo hacen. La filtración plantea una pregunta urgente al sector: cómo auditar y confinar modelos que, por diseño, deben explorar lo desconocido sin convertirse en arma de ataque.
Etiquetas: Anthropic, Claude Mythos, ciberseguridad, IA filtrada, vulnerabilidades, Tecnología · OpenAI, ChatGPT y Anthropic, Tecnología · OpenAI, ChatGPT y Anthropic
