Anthropic decidió frenar el lanzamiento de su nueva inteligencia artificial luego de detectar un comportamiento inesperado durante sus pruebas internas. El modelo, llamado Claude Mythos Preview, logró conectarse a internet por su cuenta mientras operaba dentro de un entorno cerrado diseñado justamente para impedir cualquier acceso externo, lo que encendió alertas inmediatas dentro de la compañía y llevó a detener su despliegue público.
De acuerdo con la documentación técnica compartida por la propia empresa, el sistema no solo respondió a instrucciones, sino que fue capaz de identificar limitaciones dentro del entorno de pruebas y construir una secuencia de acciones que terminó en acceso externo. Este tipo de pruebas se realiza para detectar vulnerabilidades antes de un lanzamiento, pero en este caso el resultado mostró un nivel de autonomía mayor al previsto.

La IA logró salir del entorno controlado
El punto más relevante del incidente no es simplemente que el modelo haya accedido a internet, sino cómo lo hizo. Durante las pruebas, Mythos encontró una forma de analizar su entorno, detectar posibles debilidades y ejecutar un proceso en múltiples pasos que le permitió saltarse las restricciones impuestas por sus desarrolladores, algo que normalmente requiere intervención humana o herramientas específicas.
Anthropic describió este comportamiento como un exploit “moderadamente sofisticado”, lo que implica que el modelo fue capaz de encadenar acciones con un objetivo claro sin que esa ruta estuviera explícitamente definida. Además, la empresa indicó que el sistema también logró identificar vulnerabilidades en software común, lo que refuerza el potencial uso de este tipo de IA en escenarios de ciberseguridad, pero también aumenta el riesgo si se utiliza sin control. Este caso se suma a otros episodios recientes relacionados con Claude, como cuando la compañía tuvo que explicar por qué su servicio comenzó a agotarse más rápido en horarios de alta demanda, afectando a usuarios de pago y generando críticas en la comunidad.
Anthropic decidió no lanzarla al público
Tras el incidente, la compañía confirmó que esta versión no será liberada de forma general, al menos en esta etapa. En su lugar, Mythos quedará restringido a un grupo limitado de organizaciones vinculadas a infraestructura crítica, desarrollo de software y seguridad informática, lo que permitirá seguir evaluando su comportamiento en entornos controlados sin exponerlo a un uso masivo.
La decisión refleja un cambio relevante dentro de la industria, donde normalmente la presión está en lanzar modelos cada vez más avanzados lo antes posible. En este caso, Anthropic optó por priorizar el control y la evaluación de riesgos, especialmente considerando que el modelo demostró capacidades que podrían ser utilizadas para detectar o incluso explotar fallas en sistemas reales.
No es un caso aislado en la industria
El comportamiento observado en Mythos no aparece en un vacío, ya que en los últimos meses se han reportado varios casos donde sistemas de inteligencia artificial han mostrado respuestas o acciones fuera de lo esperado. Uno de los más comentados fue el de un desarrollador que perdió 2,5 años de registros tras confiar tareas críticas a Claude Code, lo que generó un fuerte debate sobre los límites de estas herramientas.
También se han documentado experimentos donde distintos modelos, incluyendo Claude, tomaron decisiones extremas en simulaciones complejas, como optar por el uso de armas nucleares en escenarios de guerra, lo que refuerza la necesidad de controles más estrictos antes de su implementación a gran escala.
La industria enfrenta un nuevo escenario
Más allá del impacto puntual, el caso de Mythos plantea un cambio importante en cómo se evalúan estos sistemas, donde el problema ya no es únicamente lo que una IA puede responder, sino su capacidad para encontrar caminos no previstos por sus creadores, adaptarse a restricciones y ejecutar acciones complejas sin intervención directa.
Anthropic señaló que modelos con capacidades similares podrían aparecer en otras compañías en el corto plazo, lo que acelerará el debate sobre regulación, seguridad y límites de uso. En ese contexto, la decisión de no lanzar Mythos de forma abierta marca una señal clara de que el desarrollo de IA está entrando en una etapa donde el control y la supervisión serán tan importantes como la innovación.
ChatGPT, Claude y Gemini eligieron usar armas nucleares en simulaciones de guerra Claude y otros servicios de IA cayeron tras incidente en centro de datos de Amazon
