League of Legends y los desafíos de la toxicidad en línea

League of Legends y los desafíos de la toxicidad en línea

Es un tema sumamente conocido y en boca de miles, la toxicidad en League of Legends. Si bien ocurre en la mayoría de juegos en línea, Riot Games ha dado cátedra respecto al tema, todo gracias al trabajo de Jeffrey Lin, encargado de crear sistemas sociales dentro de la compañía y que de paso es […]

Por Staff Tarreo el 15/09/2015

Es un tema sumamente conocido y en boca de miles, la toxicidad en League of Legends. Si bien ocurre en la mayoría de juegos en línea, Riot Games ha dado cátedra respecto al tema, todo gracias al trabajo de Jeffrey Lin, encargado de crear sistemas sociales dentro de la compañía y que de paso es un neurocientífico cognitivo, cuya principal labor dentro del juego es analizar y buscar soluciones al problema prominente del MOBA: El mal comportamiento dentro de esto y como aleja a jugadores del software en si.

Gracias a Lyn, Riot Games hoy en día a producido un programa capaz de identificar a trolls y jugadores con mal comportamiento dentro del juego gracias a un sistema automizado con un 92% de eficiencia. Todo comenzó con el reconocido “Tribunal”, donde los mismos jugadores del juego podían “juzgar” a personas problamáticas. Un 98% de las preferencias de la comunidad concordaban con los que pensaba Riot, por lo cual fue un gran comienzo.

Actualmente El Tribunal ya no existe, pero ante esto Riot, con la ayuda de Lyn, programaron un sistema que permite automáticamente detectar comportamientos ofensivos, el cual se encuentra actualmente en el cliente de pruebas del popular MOBA y que ya en cierto modo cumple con sus expectativas, emitiendo reportes a jugadores. El sistema hasta ahora es considerado un éxito, sobre todo por Lyn, quien asegura que funciona de acuerdo a lo esperado en los 15 lenguajes en los cuales está disponible League of Legends actualmente.

Image


Este nuevo sistema de “reforma” ha dado frutos, antiguamente de manera manual otorgaba un 62% de efectividad en jugadores. Ahora con el sistema automatizado dicha cifra aumenta al 92%. Pero Chris Dyer, profesor de la Universidad de Carnegie Mellon en Estados Unidos ha estado estudiando de cerca estos avances, asegura que aún hay un problema con todo esto: El sarcasmo y contexto de este, "Los problemas que requieran la integración de muchas informaciones del contexto en el que se realiza un comentario son mucho más difíciles de resolver, y el sarcasmo tiene una dependencia extrema del contexto".

De momento se trata de resolver dicho inconveniente con "controles y equilibrios" adicionales ¿Que quiere decir esto? Que además de identificar el comportamiento tóxico, el sistema de Riot también utiliza otras variantes para identificar la situación correspondiente, "Puesto que trabajan múltiples sistemas en conjunto para proporcionar consecuencias para los jugadores, actualmente estamos observando una tasa aceptable de falsos positivos de uno entre 5.000."

Justin Reich, investigador científico del Centro Berkman de la Universidad de Harvard afirma además que este comportamiento tóxico no proviene necesariamente de personas terribles, sino de aquellas que simplemente “tuvieron un mal día,” asegura. “Esto significa que nuestras estrategias para atajar los comportamientos tóxicos online no pueden dirigirse sólo a los troles experimentados; deben dar cuenta de nuestra tendencia humana y colectiva de permitir que lo peor de nosotros mismos surja bajo el anonimato de internet".

Si bien el actual sistema de League of Legends es un gran avance, aún necesita algo de trabajo, ya que si bien es muy bueno en identificar comportamientos mediante palabras en línea, aún falta que este pueda interpretar el factor humano tras todos estos comportamientos. Queda ver como evoluciona el automatizado sistema de LoL, pero Lyn asegura que es un buen paso y están contentos de poder mostrar todo esto públicamente a otros desarrolladores.

Image


[Fuente]

Imperdibles de la semana

Creador de OpenClaw predice que el 80% de las aplicaciones actuales desaparecerán en el futuro: “Solo sobrevivirán las aplicaciones con sensores únicos o conexiones especiales a hardware

Creador de OpenClaw predice que el 80% de las aplicaciones actuales desaparecerán en el futuro: “Solo sobrevivirán las aplicaciones con sensores únicos o conexiones especiales a hardware

22/02/2026
Estudio de Microsoft revela que los chatbots de IA se vuelven menos confiables mientras más tiempo hablas con ellos: la falta de confiabilidad sube un 112%

Estudio de Microsoft revela que los chatbots de IA se vuelven menos confiables mientras más tiempo hablas con ellos: la falta de confiabilidad sube un 112%

22/02/2026

Contenido recomendado