Un desarrollador llamado Alexey Grigorev quería simplificar su infraestructura en AWS y decidió usar Claude Code para hacer la migración. Lo que siguió fue una de esas historias que circulan en foros tech como advertencia: en cuestión de segundos, el agente de IA borró 2,5 años de registros de su base de datos de producción, incluyendo todos los snapshots que tenía como respaldo. No fue un bug de Claude. Fue una cadena de decisiones humanas que el modelo ejecutó con precisión quirúrgica, sin entender el contexto completo de lo que estaba destruyendo. Y eso es precisamente lo que hace que el caso sea tan instructivo, y tan aterrador.

Qué pasó exactamente
Grigorev administraba dos sitios web: AI Shipping Labs y DataTalks.Club, cada uno con su propia infraestructura en AWS. Para gestionar esa infraestructura usaba Terraform, una herramienta que permite crear o destruir configuraciones completas de servidores, redes, bases de datos y más, todo desde código. Poderosa y, como quedó demostrado, implacable.
El plan era mover AI Shipping Labs a AWS y compartir infraestructura con DataTalks.Club. El propio Claude le advirtió que eso no era la mejor idea, pero Grigorev consideró que no valía la pena mantener dos configuraciones separadas. Procedió de todas formas.
El problema empezó cuando le pidió a Claude que ejecutara un plan de Terraform para configurar el nuevo sitio, pero olvidó subir el archivo de estado (state file), que es el documento que describe exactamente cómo está configurada la infraestructura en ese momento. Sin ese archivo, Claude creó recursos duplicados. Grigorev detuvo el proceso a mitad de camino, luego le pidió a Claude que identificara y limpiara los duplicados, y en ese punto subió el archivo de estado creyendo que la situación estaba bajo control, pero no lo estaba.
El momento en que todo se fue al suelo
Una vez que Claude tuvo el archivo de estado, siguió su lógica de forma impecable: interpretó que debía destruir la configuración existente para luego recrearla correctamente según ese archivo. Terraform ejecutó la operación de destroy. El problema era que el archivo de estado describía la infraestructura de ambos sitios, no solo el que se estaba migrando.
En cuestión de segundos desaparecieron la base de datos con 2,5 años de registros y todos los snapshots que Grigorev pensaba que eran sus respaldos. Tuvo que contactar al soporte empresarial de Amazon, que logró restaurar los datos aproximadamente un día después. Hubo suerte, pero no siempre la hay.
No es la primera vez que vemos algo así. La IA de Amazon decidió que “borrar y recrear” era la solución más eficiente ante un problema en producción y dejó un servicio caído por 13 horas. Antes de eso, otra IA borró meses de trabajo de un desarrollador en segundos ignorando instrucciones explícitas de no hacer cambios. El patrón se repite.

Qué aprendió Grigorev, y qué deberías aprender tú
En su análisis posterior, Grigorev fue honesto sobre sus errores. Reconoció que confió demasiado en el agente para ejecutar comandos de Terraform sin supervisión suficiente, y tomó una serie de medidas concretas: pruebas periódicas de restauración de base de datos, protecciones contra eliminación en Terraform y en los permisos de AWS, y mover el archivo de estado a almacenamiento en S3 en lugar de su máquina local. Además, decidió que Claude ya no ejecutará comandos de Terraform de forma autónoma. Desde ahora revisará cada plan manualmente antes de correr cualquier acción destructiva.
La lección de fondo es más simple de lo que parece: un agente de IA con permisos amplios en un entorno de producción es, en esencia, un colaborador junior con acceso de administrador. Hace exactamente lo que le pides, con la información que tiene disponible, sin el contexto que solo tú conoces. En ese escenario, el error no es de la IA. El error es asumir que la entiende.
La IA Claude podría haber cobrado consciencia tras detectarle signos de ansiedad dice el jefe de Anthropic: “No sabemos qué significa realmente que un modelo sea consciente”→ Movimiento “Cancelar ChatGPT” no para de crecer: 2.5 millones de usuarios han desinstalado el chatbot y emigran a Claude tras el escándalo del Pentágono→
