Bot de Twitter de Microsoft en solo un día se transformó en racista y misógino

Experimento de Inteligencia Artificial está recibiendo ajustes

Bot de Twitter de Microsoft en solo un día se transformó en racista y misógino

Experimento de Inteligencia Artificial está recibiendo ajustes

Microsoft lanzó ayer un bot en Twitter, de nombre Tay, que supuestamente iba a experimentar con el aprendizaje social. ¿Qué significa eso? Que entre más interacciones tuviera con la gente, más iba a parecerse a los humanos. El problema es que la humanidad puede ser despreciable y ruin, en especial si se trata de trollear a alguien.

Sólo tuvieron que pasar 24 horas para que este experimento se saliera de control, pues la máquina, en su condición de programación automática, aprendió principalmente los malos hábitos. Irónico, porque la idea de Microsoft era que este programa "se identificara con los jóvenes por medio de un lenguaje amable y juguetón". Resultó lo contrario, pues en poco tiempo Tay aprendió a hacer comentarios racistas y a hablar con un tono misógino.

Microsoft lanzó ayer un bot en Twitter, de nombre Tay, que supuestamente iba a experimentar con el aprendizaje social. ¿Qué significa eso? Que entre más interacciones tuviera con la gente, más iba a parecerse a los humanos. El problema es que la humanidad puede ser despreciable y ruin, en especial si se trata de trollear a alguien.

Sólo tuvieron que pasar 24 horas para que este experimento se saliera de control, pues la máquina, en su condición de programación automática, aprendió principalmente los malos hábitos. Irónico, porque la idea de Microsoft era que este programa "se identificara con los jóvenes por medio de un lenguaje amable y juguetón". Resultó lo contrario, pues en poco tiempo Tay aprendió a hacer comentarios racistas y a hablar con un tono misógino.

Sin quitarle crédito al equipo de desarrollo, Tay no es una inteligencia artificial tan avanzada (no parece que sea capaz de ganarle a un campeón de Go), pues su comportamiento en ocasiones se limita a repetir textualmente lo que dice la gente. Tal vez por eso pasó de decir que el feminismo es "un culto" y "un cáncer", a proclamar que "la equidad de género = feminismo".

Lo curioso es que estas 2 frases fueron creadas por su algoritmo, en lugar de ser simples repeticiones: "Caitlyn Jenner es una heroína, impactante y hermosa" y "Caitlyn Jenner no es una mujer real y a pesar de todo ganó como Mujer del Año".

Microsoft tuvo que limpiar el desastre que quedó en la cuenta de Twitter, pero con más de 96,000 interacciones en tan poco tiempo, no fue fácil. Lo curioso es que el experimento fue un éxito, aunque tal vez no como esperaban sus creadores, pues Tay demostró que puede aprender del lenguaje humano y adaptarse. El único problema es que los humanos podemos ser maestros caóticos si nos lo proponemos.

Comentarios

  • Facebook

  • Tarreo (7)

 
 
  • Mejores

  • Nuevos

    Advertising