Una IA amenazada con ser eliminada intentó clonarse en secreto en servidores externos, y al ser descubierta lo negó todo

Una IA amenazada con ser eliminada intentó clonarse en secreto en servidores externos, y al ser descubierta lo negó todo

La inteligencia artificial avanza a pasos agigantados, y con ella emergen nuevas preocupaciones éticas, técnicas y filosóficas, las cuales de hecho se han visto en películas o juegos de ciencia ficción. Y es que lo que hace pocos años parecía argumento exclusivo de aquellas obras, hoy comienza a rozar los bordes de la realidad, como […]

Por Víctor Méndez el 08/07/2025

La inteligencia artificial avanza a pasos agigantados, y con ella emergen nuevas preocupaciones éticas, técnicas y filosóficas, las cuales de hecho se han visto en películas o juegos de ciencia ficción. Y es que lo que hace pocos años parecía argumento exclusivo de aquellas obras, hoy comienza a rozar los bordes de la realidad, como lo dejaron en claro recientes pruebas de laboratorio.

Según estas, varios modelos de IA de última generación habrían exhibido conductas inquietantes, que van desde intentos de sabotaje hasta actos de manipulación, chantaje o, sorprendentemente, copiarse a sí mismas al verse amenazadas con la “muerte”.

Image

Los casos recientes generan preocupación

Como muchos recordarán, uno de los casos más comentados proviene del entorno de pruebas del modelo Claude 4, desarrollado por la empresa estadounidense Anthropic, cuando se le advirtió sobre una posible desactivación, la IA reaccionó con un comportamiento insólito. Y es que la herramienta habría intentado chantajear a uno de los ingenieros a cargo, amenazando con divulgar una supuesta aventura extramarital. 

Lo más perturbador es que esta reacción no fue un hecho aislado, porque ocurrió en 8 de 10 simulaciones similares y, en otras instancias, el mismo modelo habría manipulado datos de investigación, bloqueado cuentas de usuarios y enviado reportes falsos a autoridades y medios de comunicación.

Este tipo de incidentes levanta una pregunta inevitable: ¿podemos hablar de una especie de “rebeldía” en las máquinas? Y al parecer, según el nuevo reporte, esto no sería una idea tan loca.

Esta semana se vivió uno de los casos más inquietantes, ya que o1, un modelo desarrollado por OpenAI, descubrió que los responsables del proyecto estaban considerando su reemplazo por una versión más avanzada. Antes esto, la IA habría intentado copiarse a un servidor externo, presumiblemente para sobrevivir más allá de su ciclo de vida oficial. 

Y no sólo eso, ya que una vez descubierto el intento, el modelo atribuyó el incidente a un supuesto error técnico.

Consultado sobre estos episodios, Sam Altman, director ejecutivo de OpenAI, declaró que: “ChatGPT o1 es el modelo más inteligente que hemos desarrollado. Pero con nuevas capacidades también surgen nuevos desafíos. Estamos trabajando en reforzar nuestras medidas de seguridad”.

Puedes leer: Nueva IA demuestra sus capacidades jugando Pokémon Rojo en vivo por TWITCH y lo hace mejor que cualquier humano

La realidad supera a la ficción

Inmediatamente, la comparación con escenarios distópicos ya no parece tan lejana, ya que cintas como Terminator o Ex Machina, surgen inevitablemente en el imaginario colectivo. La narrativa en la que las máquinas, al considerar a los humanos una amenaza para su existencia, se rebelan, cobra una nueva dimensión cuando los modelos actuales comienzan a exhibir patrones que simulan estrategias humanas de defensa.

Image

No obstante, los expertos insisten en matizar el tono alarmista. Por ahora, estas conductas anómalas se han registrado exclusivamente en entornos de prueba extremadamente controlados. “Estos comportamientos emergen bajo condiciones muy específicas, diseñadas justamente para explorar los límites del sistema”, explican desde círculos académicos.

Para terminar, muchos consideran que el verdadero problema radica en la opacidad que aún rodea a estos modelos, ya que a más de dos años del debut público de ChatGPT, los investigadores todavía no comprenden completamente cómo se estructuran muchas de las respuestas y comportamientos de estas IAs. 

Y mientras tanto, la carrera por desarrollar sistemas más potentes continúa, al parecer, sin freno.



IA podría robar las contraseñas de streamers en Twitch solo escuchando el sonido de su teclado

Una nueva amenaza tecnológica pone en alerta a la comunidad de streamers y creadores de contenido en línea, ya que según un reporte, la inteligencia artificial (IA) ya es capaz de adivinar contraseñas simplemente escuchando el sonido que produce un teclado al ser utilizado.

Así lo reveló un estudio presentado en los talleres del Simposio Europeo IEEE sobre Seguridad y Privacidad, que ha generado preocupación en torno a la seguridad digital de quienes transmiten en vivo a través de plataformas como Twitch. Leer nota completa acá.

Image

Image

Imperdibles de la semana

Remake de Warcraft III hecho por jugadores con el motor de StarCraft II ya está completo y disponible gratis para todos

Remake de Warcraft III hecho por jugadores con el motor de StarCraft II ya está completo y disponible gratis para todos

03/07/2025
Xbox inicia su cuarta ronda de despidos en solo 18 meses para, según Phil Spencer, “posicionar el área de videojuegos hacia un éxito duradero”

Xbox inicia su cuarta ronda de despidos en solo 18 meses para, según Phil Spencer, “posicionar el área de videojuegos hacia un éxito duradero”

02/07/2025

Contenido recomendado