El creador de Claude, Anthropic, está desarrollando un nuevo modelo de IA llamado Claude Mythos, descrito internamente como el modelo más capaz de la compañía hasta la fecha, con materiales de borrador sobre el sistema que esta semana se filtraron en línea. La existencia del modelo fue reportada por primera vez por Fortune el jueves, después de que archivos no publicados vinculados al blog de Anthropic se descubrieran en una caché de datos accesible públicamente. Un portavoz de Anthropic confirmó la existencia del modelo a la publicación. “Estamos desarrollando un modelo de propósito general con avances significativos en razonamiento, programación y ciberseguridad”, dijo el portavoz de Anthropic a Fortune. “Dada la fortaleza de sus capacidades, somos deliberados sobre cómo lo lanzamos. Como práctica estándar en toda la industria, trabajamos con un pequeño grupo de clientes con acceso temprano para probar el modelo. Consideramos que este modelo supone un cambio sustancial y el más capaz que hemos construido hasta la fecha”.
En una página de desarrollo archivada revisada por Decrypt, Anthropic llamó a Mythos “el modelo de IA más poderoso que hayamos desarrollado”. “Mit hos es un nombre nuevo para un nuevo nivel de modelo: más grande y más inteligente que nuestros modelos Opus—que hasta ahora eran nuestro modelo más poderoso”, escribió Anthropic. “Elegimos el nombre para evocar los tejidos conectivos profundos que enlazan el conocimiento y las ideas”. Según Anthropic, Mythos obtuvo “de manera dramática” una puntuación superior a Claude Opus 4.6 en pruebas de codificación de software, razonamiento académico y ciberseguridad.
La filtración de Mythos parece haberse originado en materiales de borrador almacenados en un sistema de gestión de contenidos no asegurado. Según Fortune, Anthropic restringió el acceso público al repositorio de datos después de que se le notificara que los archivos eran buscables en línea. La compañía atribuyó la exposición a un error humano en la configuración de sus herramientas de CMS. Sin embargo, los documentos de Anthropic etiquetaron a Mythos como la versión uno del nuevo modelo, y describieron internamente la versión dos como “Capybara”, que la compañía también posicionó por encima de sus modelos actuales de nivel superior Opus. Los materiales de borrador también destacaron preocupaciones sobre las posibles implicaciones de ciberseguridad del sistema. “Aunque Mythos está actualmente muy por delante de cualquier otro modelo de IA en capacidades cibernéticas, anticipa una próxima ola de modelos que pueden explotar vulnerabilidades de maneras que superan con creces los esfuerzos de los defensores”, escribió la empresa. Debido a esos riesgos, la compañía dijo que planea lanzar el modelo con cautela, comenzando con un despliegue limitado de acceso temprano dirigido a organizaciones que trabajan en defensa de ciberseguridad. Anthropic no respondió de inmediato a la solicitud de comentarios de Decrypt. Si bien Anthropic eliminó la publicación del blog, las noticias de la filtración se filtraron rápidamente a los mercados financieros. Las acciones de varias empresas de ciberseguridad cayeron después de que surgieran los informes, incluidas Palo Alto Networks (PANW), que cayó aproximadamente 7%, y CrowdStrike (CRWD), que bajó alrededor de 6.4%. Mientras tanto, Zscaler (ZS) declinó alrededor de 5.8%, y Fortinet (FTNT) se deslizó cerca de 4% durante la negociación del viernes, según Yahoo Finance.
La reacción de venta se hace eco de una respuesta similar del mercado ante el anuncio de un nuevo producto de Anthropic. En febrero, Anthropic presentó Claude Cowork, un sistema de IA diseñado para automatizar tareas complejas del lugar de trabajo—incluida la revisión de contratos y el cumplimiento—lo que desencadenó una amplia venta masiva entre empresas de software y servicios profesionales. Esa venta masiva borró aproximadamente $285 mil millones en valor de mercado, ya que los inversores recalcularon el impacto a largo plazo de los agentes de IA en los negocios de software empresarial. “La respuesta del mercado fue una señal, no de que los agentes de IA vayan a reemplazar inmediatamente a estas empresas, sino de que los inversores por fin están valorando el riesgo estructural de que los proveedores de modelos base ahora pueden competir directamente con la capa de software”, dijo Scott Dylan, fundador de Nexatech Ventures, a Decrypt en ese momento. “Esa es una forma educada de decir que si Anthropic puede construir una herramienta de flujo de trabajo legal internamente, ¿qué les impediría hacer lo mismo para finanzas, compras o recursos humanos?”