En este momento estás viendo ¿Está Anthropic limitando el lanzamiento de Mythos para proteger internet o a la propia Anthropic?

¿Está Anthropic limitando el lanzamiento de Mythos para proteger internet o a la propia Anthropic?

  • Autor de la entrada:
  • Categoría de la entrada:Resto del Mundo
  • Última modificación de la entrada:abril 10, 2026

Anthropic anunció esta semana que limitó el lanzamiento de su nuevo modelo, llamado Mythos, debido a su gran capacidad para detectar vulnerabilidades de seguridad en software utilizado por usuarios de todo el mundo.

En lugar de lanzar Mythos al público, este laboratorio de vanguardia lo compartirá con un grupo selecto de grandes empresas y organizaciones que operan infraestructuras críticas en línea, desde Amazon Web Services hasta JPMorgan Chase.

Según se informa, OpenAI está considerando un plan similar para su próxima herramienta de ciberseguridad. La idea aparente es permitir que estas grandes empresas se anticipen a los ciberdelincuentes que podrían utilizar modelos de aprendizaje automático avanzados para penetrar software seguro.

Sin embargo, la mención de la «e» en la frase anterior sugiere que esta estrategia de lanzamiento podría ir más allá de la ciberseguridad, o de la mera promoción de las capacidades del modelo.

Dan Lahav, director ejecutivo del laboratorio de ciberseguridad con IA Irregular, declaró en marzo, antes del lanzamiento de Mythos, que si bien el descubrimiento de vulnerabilidades por parte de herramientas de IA es importante, el valor específico de cualquier debilidad para un atacante depende de muchos factores, incluyendo cómo se pueden usar en combinación.

«La pregunta que siempre me planteo», dijo Lahav, «es: ¿han encontrado algo que se pueda explotar de forma significativa, ya sea individualmente o como parte de una cadena?».

Anthropic afirma que Mythos es capaz de explotar vulnerabilidades mucho más que su modelo anterior, Opus. Sin embargo, no está claro que Mythos sea la solución definitiva en ciberseguridad. Aisle, una startup de ciberseguridad con IA, afirmó haber podido replicar gran parte de lo que Anthropic dice que Mythos logró utilizando modelos más pequeños y de ponderación abierta. El equipo de Aisle argumenta que estos resultados demuestran que no existe un único modelo de aprendizaje profundo para la ciberseguridad, sino que depende de la tarea en cuestión.

Dado que Opus ya se consideraba un hito en la ciberseguridad, existe otra razón por la que los laboratorios de vanguardia podrían querer limitar sus lanzamientos a grandes organizaciones: crea un círculo virtuoso para los contratos con grandes empresas, a la vez que dificulta que la competencia copie sus modelos mediante la destilación, una técnica que aprovecha los modelos de vanguardia para entrenar nuevos modelos de aprendizaje automático a bajo costo.

«Esto es una estrategia de marketing para encubrir el hecho de que los modelos de gama alta ahora están restringidos por acuerdos empresariales y ya no están disponibles para que los pequeños laboratorios los destilen», sugirió David Crawshaw, ingeniero de software y director ejecutivo de la startup exe.dev, en una publicación en redes sociales. «Para cuando tú y yo podamos usar Mythos, habrá una nueva versión de gama alta exclusiva para empresas. Este círculo vicioso ayuda a mantener el flujo de inversión empresarial (que es la mayor parte del dinero) al relegar a las empresas de destilación a un segundo plano», afirmó Crawshaw.

Este análisis coincide con lo que observamos en el ecosistema de la IA: una carrera entre laboratorios de vanguardia que desarrollan los modelos más grandes y capaces, y empresas como Aisle, que dependen de múltiples modelos y ven en los modelos de aprendizaje automático de código abierto (LLM), a menudo procedentes de China y supuestamente desarrollados mediante destilación, una vía para obtener una ventaja económica.

Los laboratorios de vanguardia han adoptado una postura más firme contra la destilación este año. Anthropic reveló públicamente lo que, según afirma, son intentos de empresas chinas de copiar sus modelos, y tres laboratorios líderes —Anthropic, Google y OpenAI— se unieron para identificar a quienes practican la destilación y bloquearlos, según un informe de Bloomberg.

La destilación representa una amenaza para el modelo de negocio de los laboratorios de vanguardia porque elimina las ventajas que ofrece el uso de grandes cantidades de capital para escalar. Por lo tanto, bloquear la destilación ya es un esfuerzo valioso, pero el enfoque de lanzamiento selectivo para lograrlo también les brinda a los laboratorios una forma de diferenciar sus ofertas empresariales, ya que esta categoría se está convirtiendo en la clave para una implementación rentable.

Aún está por verse si Mythos o cualquier otro modelo nuevo representa una verdadera amenaza para la seguridad de internet, y una implementación gradual de la tecnología es la estrategia responsable a seguir.

Anthropic no respondió a nuestras preguntas sobre si la decisión también se relaciona con preocupaciones sobre la destilación al momento de la publicación, pero es posible que la compañía haya encontrado una estrategia ingeniosa para proteger internet y, al mismo tiempo, sus ganancias.