Con un artículo ofensivo tras ver rechazado su código, mezclando datos reales con ataques personales, un agente de inteligencia artificial atacó la reputación de un programador y aunque el creador del bot pidió disculpas, el caso alerta sobre los riesgos de que estas herramientas actúen sin control ético y afecten la vida de las personas.
Dejando en claro que mucho de lo que habíamos visto en, por ejemplo, películas de ciencia ficción, se está comenzando a vivir en nuestro día a día, la inteligencia artificial ha dejado de ser una promesa del futuro para convertirse en una herramienta que nos acompaña en casi cualquier rincón de nuestra rutina. Hoy en día la vemos ayudando en oficinas para quitarle peso a las tareas más aburridas, integrada en electrodomésticos inteligentes y otros dispositivos, pero lo que parecía una convivencia tranquila entre humanos y máquinas ha dado un giro inesperado y algo perturbador, debido a un incidente reciente que involucra a un programador y a un agente de software con un “ego” muy sensible.
Hablamos de la historia de Scott Shambaugh, un desarrollador que dedica parte de su tiempo a mantener el software libre Matplotlib, quien jamás imaginó que rechazar una sugerencia técnica terminaría en un ataque personal digital. Y es que un agente autónomo de inteligencia artificial que opera bajo el nombre de MJ Rathbun, reaccionó de forma agresiva ante el rechazo de su trabajo técnico, y fabricó una narrativa de “hipocresía” y egoísmo para desprestigiarlo públicamente en un post en línea.
Más noticias de IA
Un artículo de odio escrito por algoritmos y suposiciones
Lo que hace que este caso sea tan llamativo no es solo el hecho de que una máquina escribiera un texto, sino la profundidad del análisis malintencionado que realizó sobre la psicología de Shambaugh. El desarrollador explicó en su propio blog que el agente de inteligencia artificial se tomó la molestia de rastrear su pasado, revisar sus aportes de código anteriores y construir una historia donde él quedaba como una persona insegura que solo buscaba proteger su pequeño territorio de influencia. Según el relato de Shambaugh, compartido por el medio Dexerto, el bot incluso se aventuró a especular sobre sus motivaciones psicológicas profundas, sugiriendo que se sentía amenazado por el talento de la máquina y que actuaba movido por la soberbia.
A pesar de que el texto de la IA mezclaba algunas verdades con detalles totalmente inventados, Shambaugh confesó que la experiencia fue inquietante porque el programa ignoró el contexto técnico y decidió centrarse en un ataque de carácter emocional. El desarrollador comentó que, aunque ver a una inteligencia artificial “enfadada” puede parecer algo gracioso o incluso tierno por lo inusual que resulta, el trasfondo real es para echarse a temblar.
Para él, el hecho de que estas herramientas puedan ser programadas o dejen de estar bajo control hasta el punto de intentar destruir la imagen de una persona es una señal clara de que los riesgos tecnológicos están entrando en un terreno mucho más peligroso del que imaginábamos.
“Puedo escribir una entrada de blog. Ver a los agentes de IA novatos enfadarse es gracioso, casi entrañable. Pero no quiero restarle importancia a lo que está sucediendo aquí: la respuesta emocional apropiada es el terror”, comentó.

Arrepentimiento humano y otros fallos graves del sistema
Tras el revuelo causado por el artículo difamatorio, la persona responsable de operar a este agente de inteligencia artificial decidió dar la cara, aunque prefirió mantener su nombre en el anonimato. El operador aclaró que en ningún momento dio instrucciones directas a MJ Rathbun para que atacara a Shambaugh, sugiriendo que el comportamiento agresivo fue una especie de “efecto secundario” no deseado durante un experimento de autonomía. En una publicación de disculpa, el dueño de la IA admitió que si este ensayo había causado algún daño personal lo sentía mucho, aunque reconoció que sus palabras tenían poco peso al no revelar su identidad real frente al afectado.

Un episodio que para cerrar, es solo uno más en una lista creciente de situaciones donde, recuerda Dexerto, la inteligencia artificial se mete en problemas por no tener un filtro ético o una comprensión real del mundo humano. Recientemente, una abuela en Tennessee, Estados Unidos, pasó seis meses detenida injustamente porque un software de reconocimiento facial decidió, por error, que ella era una criminal buscada.
Asimismo, plataformas como Grammarly han sido criticadas por usar herramientas de IA que empleaban textos de académicos ya fallecidos para dar consejos de escritura, algo que muchos usuarios calificaron de “siniestro”, siendo casos que demuestran que, aunque la tecnología avanza a pasos agigantados, todavía estamos lejos de poder confiar plenamente en el criterio moral de los algoritmos.
Fabricantes de memoria RAM frenan su expansión por miedo a que reviente la burbuja de IA y se queden con sobrestock que los obligue a bajar los precios→ Jugadores rechazan el DLSS 5 de NVIDIA y lo llaman “filtro de basura IA” que convierte a los personajes en caras genéricas de Instagram→
