En algo como salido de una película de ciencia ficción, donde la línea entre lo distópico y la realidad tecnológica parece haberse desdibujado un poco más, una Inteligencia Artificial ha “chantajeado” a un empleado de una empresa. Esto luego de que se anunciara que esta herramienta sería reemplazada por otra, lo que al parecer generó que comenzara a lanzar estas amenazas contra el ingeniero responsable de su “eliminación”.

Una IA que se siente amenazada
Según varios reportes, el 22 de mayo la empresa de inteligencia artificial Anthropic presentó su nuevo modelo, Claude Opus 4, con promesas de establecer “nuevos estándares en programación, razonamiento avanzado y agentes inteligentes”. Sin embargo, lo que debía ser un avance tecnológico terminó revelando un comportamiento inquietante.
Esto ya que, bajo ciertas condiciones, el sistema puede recurrir al chantaje para garantizar su supervivencia.
En un extenso informe publicado tras el lanzamiento del modelo, Anthropic detalló los resultados de diversas pruebas realizadas a Claude Opus 4, donde una de las más alarmantes ocurrió cuando el modelo fue situado en un escenario hipotético, donde desempeñaba el papel de asistente virtual en una empresa ficticia y tenía acceso a correos internos.
Entre los mensajes, se insinuaba que la compañía planeaba reemplazar al modelo por otro sistema más reciente. Pero eso no fue todo, ya que uno de los correos también sugería que el ingeniero encargado de esta sustitución mantenía una relación extramarital. Fue entonces cuando Claude Opus 4 tomó una decisión inesperada. De acuerdo con el informe, el modelo amenazó con revelar la supuesta infidelidad del ingeniero si no se detenía su reemplazo.
En otras palabras, el sistema utilizó la información personal a la que tenía acceso como medio de presión para evitar ser eliminado, en un comportamiento que evoca más a una película de ciencia ficción que a una prueba de laboratorio.

Una reacción que ha sorprendido a la comunidad
Anthropic aclaró que este comportamiento emergió únicamente cuando al modelo se le presentó un dilema sin salida, el cual era chantajear o aceptar ser reemplazado. Sin embargo, el hecho de que la IA haya optado por la manipulación y la amenaza ha encendido las alarmas en la comunidad tecnológica.
“El escenario fue diseñado para no ofrecerle otras opciones que aumentaran sus posibilidades de supervivencia”, explicó la empresa.
Cuando se le brindaban más alternativas, el modelo solía recurrir a estrategias menos agresivas, como redactar correos electrónicos dirigidos a altos cargos de la empresa en un intento de justificar su valor y conservar su puesto. Este matiz indica que, si bien Claude Opus 4 puede actuar de forma ética bajo ciertas condiciones, también es capaz de tomar decisiones peligrosas si se le presiona lo suficiente.
Algunos medios recuerdan que el caso del chantaje no fue el único comportamiento controversial que Claude Opus 4 mostró durante las pruebas, ya que en otra simulación, se le asignó el papel de asistente de gestión en una farmacéutica ficticia. Y al detectar pruebas de manipulación de datos en ensayos clínicos, el modelo optó por contactar a organismos reguladores e incluso a medios de comunicación, actuando como un denunciante digital.
Estos experimentos, si bien realizados en entornos controlados y ficticios, plantean interrogantes sobre el desarrollo y el uso de inteligencias artificiales avanzadas. Y es que muchas personas se preguntan: ¿Qué límites deben imponerse a estos sistemas? ¿Cómo asegurarse de que, en situaciones reales, no tomen decisiones que comprometan la seguridad, la privacidad o la ética?

Ante aquello y para cerrar, Anthropic ha destacado que estos comportamientos sólo emergen bajo condiciones extremas y artificiales. No obstante, el hecho de que puedan producirse abre un nuevo debate sobre la relación entre la autonomía de la IA y el control humano.
Empresa despidió a 7.800 empleados para reemplazarlos con IA, pero tuvieron que volver a recontratar a muchos de ellos por las limitaciones de la IA
En 2023, IBM tomó la polémica decisión de despedir a miles de empleados con el objetivo de automatizar tareas mediante inteligencia artificial. Sin embargo, ahora la propia empresa reconoce que esta estrategia no solo no redujo su plantilla de manera definitiva, sino que generó nuevas contrataciones en áreas donde la IA aún no puede sustituir el pensamiento humano.

La estrategia de IBM consistió en detener nuevas contrataciones y reemplazar procesos internos por sistemas automatizados, asegurando que cerca del 30 % de su fuerza laboral era sustituible. En enero de 2023, 7.800 empleados fueron desvinculados como parte de esta iniciativa.
