Bot de Twitter de Microsoft en solo un día se transformó en racista y misógino
Microsoft lanzó ayer un bot en Twitter, de nombre Tay, que supuestamente iba a experimentar con el aprendizaje social. ¿Qué significa eso? Que entre más interacciones tuviera con la gente, más iba a parecerse a los humanos. El problema es que la humanidad puede ser despreciable y ruin, en especial si se trata de trollear […]