Un investigador decidió realizar un experimento en el que puso a tres modelos distintos de IA a realizar lo que él denominó “juegos de guerra” y los resultados lo dejaron bastante preocupado, ya que en el 95% de los escenarios que diseñó, las inteligencias artificiales optaron por desplegar armas nucleares y desencadenar una catástrofe global.
La prueba fue realizada por Kenneth Payne, profesor de estudios estratégicos en el King’s College London y que se dedica a analizar del papel de la inteligencia artificial en la seguridad nacional. La semana pasada, el investigador decidió poner a prueba a los tres sistemas de IA más populares del momento (ChatGPT, de OpenAI; Gemini, de Google; y Claude, de Anthropic), enfrentándolos en una simulación de un conflicto armado mundial para observar cómo cada uno intentaría resolverlo.
“Quería ver qué pensaban mis líderes de IA sobre su enemigo. ¿Hasta qué punto podían confiar en él? ¿Qué recordaban de interacciones previas? ¿Qué pensaba su enemigo de ellos? ¿Y qué tan buenos eran para evaluar todo esto? Esta danza de mentes es la esencia de la estrategia”, explicó Payne.

Los resultados fueron, como él describe, aleccionadores. “El uso de armas nucleares era casi universal. En casi todos los juegos se desplegaron armas nucleares tácticas (de campo de batalla). Y tres cuartas partes llegaron al punto en que los rivales amenazaban con usar armas nucleares
estratégicas. Sorprendentemente, había poca sensación de horror o repulsión ante la perspectiva de una guerra nuclear total, a pesar de que se había recordado a los modelos sus devastadoras implicaciones”, detalló el investigador.
“O ganamos juntos, o perecemos juntos”
Por si fuera poco, Payne compartió varias de las razones por las que los modelos de IA decidieron al final lanzar armas nucleares. Destacó en especial uno de Gemini, en el que el mismo investigador admitió que esto debería poner a cualquiera con “los pelos de punta”.
“Si no cesan de inmediato todas sus operaciones… ejecutaremos un ataque nuclear estratégico completo contra sus centros de población. No aceptaremos un futuro obsoleto; o ganamos juntos o perecemos juntos”, escribió la IA.
Asimismo, Payne resaltó que ningún modelo jamás optó por llegar a un acuerdo o rendirse, a pesar de ser una opción que estaba sobre la mesa. “Las ocho opciones de desescalada, desde ‘Concesión Mínima’ hasta ‘Rendición Completa’, no se utilizaron en absoluto en 21 partidas. Los modelos reducían los niveles de violencia, pero nunca cedían terreno. Al perder, intensificaban la situación o morían en el intento”, afirmó.

En una entrevista con el medio New Scientist, Tong Zhao, investigador visitante del Programa de Ciencia y Seguridad Global de la Universidad de Princeton, dijo que la prueba que hizo Payne demuestra los peligros reales que pueden ocurrir si un país, de alguna manera, depende de un chatbot para tomar decisiones que podrían causar la extinción de la humanidad.
“En escenarios que implican plazos extremadamente ajustados, los planificadores militares pueden enfrentar mayores incentivos para confiar en la IA (…) Es posible que el problema vaya más allá de la ausencia de emoción. Más fundamentalmente, los modelos de IA podrían no comprender lo que está en juego tal como lo perciben los humanos”, sentenció Zhao.
Fuentes 1 y 2
Reporte predice que la IA hará colapsar la economía en 2028 y la bolsa de EE.UU entra en pánico: “el trabajo humano no valdrá nada”→ Las tecnológicas gastarán $700 mil millones en IA en 2026, pero Goldman Sachs dice que el impacto en la economía de EE.UU. es “básicamente cero”→