Desarrolladoras de videojuegos ahora buscarán acabar con la toxicidad con Inteligencia Artificial

Riot y Ubisoft unirán sus fuerzas para acabar con los trolls

Desarrolladoras de videojuegos ahora buscarán acabar con la toxicidad con Inteligencia Artificial

Riot y Ubisoft unirán sus fuerzas para acabar con los trolls

La toxicidad se ha intentado combatir de distintas maneras dentro de la industria gamer, siendo un mal que se ha introducido de forma tan profunda dentro de las comunidades gamers, que incluso ya se ha normalizado y es algo aceptado por los jugadores.

Puedes leer: Cambian su voz masculina a una femenina para jugar VALORANT y por ello reciben oleadas de insultos, todo esto como parte de campaña contra la violencia

Y en una nueva forma de evitar estos comportamientos nocivos, hace unas semanas Riot Games y Ubisoft La Forge, la cual es la unidad experimental de aquella empresa de videojuegos, anunciaron el desarrollo conjunto de una Inteligencia Artificial para combatir la toxicidad entre jugadores. Se trata del proyecto “Zero Harm in Comms” (Cero daño en comunicaciones), el cual funcionará con esta IA que unirá las bases de datos de ambos gigantes de la industria.


Es así como luego de decenas de años intentando acabar con las discusiones subidas de tono, la violencia verbal y el acoso que se vive en los chat de texto y voz, se está buscando una mejor herramienta automatizada que se aleje de las tradicionales que hasta ahora han resultado poco exitosas.

Como ejemplo de esto, están los formularios de reportes en contra de actitudes tóxicas, las cuales según explicó Yves Jacquier, director ejecutivo de Ubisoft La Forge, dos partes de los jugadores que son testigos de actitudes tóxicas no las usan, incluso cuando más del 50% de ellos han sido víctimas de acoso.

Por otro lado se encuentra Riot Games, quienes desde hace seis años han intentado encontrar el origen del comportamiento tóxico, tratando en este lapso de tiempo además “desalentar” la toxicidad. Pero lamentablemente, esta especie de ingeniería social solo llevó a que la reducción del lenguaje ofensivo llegara a un 6,2%.


Han sido muchos otros los ejemplos de lucha contra la toxicidad, como WoW, Call of Duty, Overwatch y en general cualquier juego con modos multijugador online. Comportamiento que muchos esperamos esta nueva Inteligencia Artificial encuentre la forma de terminar, logrando vigilar de mejor manera a todos los jugadores para así mantener una comunidad libre de los llamados los trolls violentos.



Editorial: Gaming / Facebook / Twitter / Cobertura / Instagram / Discord

(FUENTE)

Comentarios

  • Facebook

  • Tarreo

 
 
  • Mejores

  • Nuevos

    Advertising