Puede que en marzo veamos una migración masiva de usuarios de Discord hacia otros servicios de mensajería. Esto luego de que la compañía anunciara la semana pasada que comenzaría a implementar una serie de restricciones de edad que, según explican, buscan reforzar la protección de los menores de edad.
Entre las principales medidas se encuentra la limitación de acceso a servidores, canales y comandos de aplicaciones dirigidos exclusivamente a mayores de edad. Además, las solicitudes de mensajes provenientes de usuarios desconocidos serán enviadas a una bandeja de entrada aparte, la cual solo estará disponible para quienes demuestren ser adultos mediante un sistema de verificación que incluye escaneo facial o la presentación de un documento oficial, lo cual desató la ira de su comunidad.
Sin embargo, a pesar de las miles de críticas que se están extendiendo alrededor de las redes sociales, parece que Discord se mantendrá firme y continuará con esta iniciativa. En una entrevista con el sitio GamesMarket, un representante y portavoz de la compañía explicó más a fondo los cambios que vendrán a partir del mes que viene.

Para empezar, aclaró que la plataforma “no aplicará restricciones automáticas por edad a servidores o contenidos relacionados con un juego específico basándonos únicamente en su clasificación”. Esto es algo que generaba mucha preocupación a varios estudios de videojuegos, los cuales utilizan Discord como una plataforma para poder construir y fortalecer sus comunidades, además de ser otra plataforma claves para la promoción de sus próximos proyectos.
Sin embargo, para determinar qué servidores serán los que sufran restricciones de edad, el representante de Discord reveló que los filtros de seguridad se aplicarán mediante una combinación de “detección automatizada con validación por inteligencia artificial y revisión humana, con el fin de identificar de forma proactiva y aplicar restricciones por edad a los servidores”.
Muchos se preocupan de que haya “falsas alertas”
De acuerdo con el portavoz, esto ayudará a reducir la exposición de ciertas categorías de contenido multimedia que tengan imagenes potencialmente sensibles para los adolescentes. “Nuestra Política de Violencia y Contenido Gráfico no permite subir ni compartir ningún contenido que muestre violencia real, sangre o crueldad animal”.
Naturalmente, esto es algo que preocupa a muchos usuarios de Discord, debido a que se han visto incontables ejemplos en los que la IA ha demostrado cometer fallos, por lo cual lo más probable es que pronto veamos cientos de quejas en redes sociales por parte de usuarios que denuncien “falsas alertas”.

Por supuesto, se supone que para eso estarán las personas que supuestamente se encargarán de que esto no suceda. No obstante, Discord no ha aclarado específicamente cómo funcionará este sistema. Aparte, de acuerdo con los datos de la firma de análisis DemandSage, actualmente existen 32,6 millones de servidores privados, lo que sugiere que, en la mayoría de los casos, estas decisiones quedarán en manos de la IA.
Actualmente, cualquier creador o administrador en Discord puede clasificar su servidor como una comunidad con restricción de edad para mayores de 18 años si así lo considera necesario. Sin embargo, a partir de marzo, estas medidas de seguridad se aplicarán de forma obligatoria y sin posibilidad de apelación.
Cabe señalar, además, que el sistema de verificación que implementará la plataforma pertenece a Persona, un proveedor que reconoce recopilar datos de los usuarios a través de distintas fuentes y utilizarlos con fines comerciales, incluyendo su venta a empresas externas. Ya veremos cómo reaccionarán los usuarios cuando lleguen estos cambios, pero no parece que será algo bueno a largo plazo.
Fuentes 1 y 2
Discord guardará tu foto de verificación por 7 días usando empresa del fundador de Palantir, principal proveedor de vigilancia de ICE→ “¿Atrapado mintiendo otra vez?”: revelan que Discord usa una empresa externa para la verificación de edad que almacena datos y los comercializa con terceros→