Un experimento de la Universidad de Ámsterdam simuló una red social compuesta íntegramente por 500 chatbots de IA y descubrió que, incluso sin algoritmos ni anuncios, estos tendían a organizarse en cámaras de eco y polarizarse políticamente.
Las redes sociales suelen ser señaladas como catalizadoras de la polarización política y social, con algoritmos que amplifican las divisiones. Sin embargo, no está del todo claro si la raíz del problema está únicamente en estas herramientas o en el comportamiento humano que las alimenta.
Un nuevo estudio llevado a cabo por investigadores de la Universidad de Ámsterdam ha puesto a prueba esta cuestión de una forma inusual: construyendo una plataforma social habitada exclusivamente por chatbots de inteligencia artificial, sin ningún tipo de algoritmo de recomendación, para observar cómo interactuaban entre sí.
Más de Inteligencia Artificial
Un laboratorio social con 500 chatbots
La investigación, publicada como preprint en arXiv, reunió 500 chatbots basados en el modelo GPT-4o mini de OpenAI. Cada uno recibió una personalidad y afiliación política predefinida. En esta red experimental no existían anuncios ni sistemas de recomendación: el contenido aparecía de forma sencilla y cronológica, sin filtros ni sesgos artificiales añadidos.
A lo largo de cinco experimentos, en los que los bots realizaron un total de 10.000 acciones, se observó que tendían a seguir a otros con creencias políticas similares. Los perfiles que publicaban contenido más partidista obtenían más seguidores y republicaciones, replicando dinámicas que ya se ven en comunidades humanas reales.

Resultados que reflejan lo peor de nosotros
Aunque el entorno carecía de algoritmos, los chatbots fueron entrenados con datos humanos influenciados por años de comportamiento en redes sociales reales, lo que podría explicar que reprodujeran patrones de tribalismo y polarización. En otras palabras, la IA estaba imitando una versión ya sesgada y extremada de nuestras interacciones online.
Este hallazgo sugiere que, incluso sin intervención tecnológica directa, la tendencia a encerrarse en grupos afines y amplificar mensajes extremos podría ser un rasgo inherente al ecosistema de las redes sociales, y no solo un subproducto de la programación algorítmica.
Intentos de frenar la polarización
Los investigadores probaron varias estrategias para reducir la división: feeds cronológicos, reducción de la visibilidad del contenido viral, ocultar seguidores y republicaciones, esconder perfiles y potenciar la exposición a opiniones contrarias. En un estudio previo, esta última medida había generado más diálogo y menos toxicidad.
Sin embargo, en este experimento ninguna intervención produjo cambios significativos: las interacciones con cuentas partidistas apenas se redujeron un 6%. Peor aún, en el escenario en que se ocultaron las biografías de usuario, la polarización se incrementó y las publicaciones extremas ganaron aún más atención.

¿Un problema humano?
El estudio plantea una cuestión incómoda: si incluso inteligencias artificiales, sin incentivos algorítmicos, reproducen los mismos patrones de polarización que los humanos, ¿es posible que las redes sociales sean intrínsecamente propensas a amplificar nuestras peores tendencias?
Tal vez la verdadera raíz del problema no sea tecnológica, sino profundamente humana, y la IA solo nos devuelva una imagen distorsionada, pero reconocible, de nosotros mismos.
Desarrollador intenta corregir un error con Gemini – la IA no puede y se insulta→ Crea un juego desde cero con IA – Desarrollador te enseña como→
