Aunque Anthropic pareciera ser el líder del momento en Inteligencia Artificial, eso no lo libra de errores, como lo demostró la filtración de 3.000 archivos ocurrida el 26 de marzo y gracias a la cual fue dado a conocer el siguiente producto de esta empresa: Mythos, también conocido como Capybara. Un nombre que ya ha generado dolores de cabeza en el mercado de Ciberseguridad.
Para ser más exactos y de acuerdo con los documentos expuestos, ‘Claude Mythos’ es el nombre comercial del modelo, mientras que ‘Capybara’ es el nombre interno o el nombre de la nueva categoría (nivel) de modelos superando a Opus, el módulo actual de alto desempeño. Se trata de un modelo costoso de operar:
“Mythos es también un modelo grande e intensivo en cómputo. Es muy costoso para nosotros de operar y será muy costoso de usar para nuestros clientes. Estamos trabajando para hacer que el modelo sea mucho más eficiente antes de cualquier lanzamiento general”, explica una publicación del blog para desarrolladores de Anthropic .
Índice de temas
¿Cuál es el problema de Mythos?
Según voceros de Anthropic, Mythos es tan bueno que podría revolucionar la forma en que se detectan vulnerabilidades de ciberseguridad y en que se automatizan procesos (incluyendo ataques masivos de ingeniería social), entre otras capacidades. Para ser más exactos, el blog explica:
“Al prepararnos para lanzar Claude Mythos, queremos actuar con precaución adicional y entender los riesgos que plantea, incluso más allá de lo que aprendemos en nuestras propias pruebas. En particular, queremos comprender los riesgos potenciales del modelo a corto plazo en el ámbito de la ciberseguridad y compartir los resultados para ayudar a los defensores a prepararse”.
Por ello, la salida al mercado de este producto es más lenta y gradual que la de sus predecesores. “Estamos comenzando con un pequeño número de clientes con acceso anticipado, quienes explorarán las aplicaciones de ciberseguridad del modelo y reportarán lo que encuentren”.
No es el único del pueblo
Aunque Mythos es la preocupación actual de nuestros días lo cierto es que no está solo. En diciembre pasado OpenAI, los padres de ChatGPT, anunciaron que sus próximos modelos de IA plantean un riesgo ‘elevado’ para la Ciberseguridad. Y es que los expertos señalaron que la IA puede agravar los peligros existentes y generar rápidamente nuevos ataques informáticos.
Además, la carrera de la IA no es exclusiva de Anthropic y OpenAI. Google trabaja en Gemini 4 y Meta se prepara para Avocado, el nombre código de la siguiente generación de Llama. En otras palabras, lo que estamos viendo no es un fenómeno aislado, sino una convergencia de modelos y agentes de IA que están reescribiendo las reglas de la seguridad digital.
El desafío resultante es la diversificación de los modelos de IA en la incesante batalla de seguridad digital donde mientras las empresas de ciberseguridad se apresuran a integrar estas IA para blindar sus sistemas, los atacantes encuentran en la misma tecnología una forma de automatizar el caos a una fracción del costo y tiempo habituales.








