- Un informe revela 35 casos de adultos procesados por delitos graves, como secuestro y agresión sexual, relacionados con el uso de Discord en los últimos seis años.
- Se descubrieron 165 casos más, incluyendo sextorsión y el intercambio de material de explotación sexual infantil (CSAM), lo que pone de manifiesto la presencia de bandas criminales y comunidades ocultas en Discord.
- Tanto los desarrolladores de Discord como los padres de los niños deben tomar medidas urgentes para mejorar la seguridad infantil en la plataforma, incluyendo la implementación de sistemas de detección más efectivos y la educación sobre los riesgos en línea.
Un nuevo informe ha revelado preocupantes estadísticas sobre los problemas de Discord en cuanto a la seguridad de los niños. Durante los últimos seis años, se identificaron 35 casos en los que adultos fueron procesados por delitos como «secuestro, acicalamiento o agresión sexual», los cuales presuntamente involucraban la comunicación a través de Discord. De esos casos, al menos 15 resultaron en declaraciones de culpabilidad o veredictos, mientras que muchos otros aún están pendientes de resolución.
Además, los reporteros descubrieron otros 165 casos en los que adultos fueron procesados por compartir material de explotación sexual infantil (CSAM, por sus siglas en inglés) a través de Discord o por utilizar la plataforma para extorsionar a los niños y obtener imágenes sexualmente explícitas de ellos mismos, conocida como sextorsión. Estas actividades ilegales suelen ocurrir en comunidades ocultas y salas de chat dentro de Discord, según el informe.
Preocupante número de casos y actos ilegales en Discord
Una simple búsqueda en Google con el término «site:justice.gov Discord» arroja numerosos resultados, muchos de ellos de naturaleza perturbadora. Por ejemplo, en uno de los casos identificados por NBC News, una adolescente fue llevada a través de las fronteras estatales, violada y encontrada encerrada en un cobertizo del patio trasero después de haber sido preparada durante meses a través de Discord, según la policía.
«Lo que vemos es solo la punta del iceberg», afirma Stephen Sauer, del Centro Canadiense para la Protección de los Niños, en declaraciones a NBC News. Esta no es la primera vez que Discord ha sido criticado por su manejo de las denuncias de abuso infantil. El año pasado, CNN también identificó numerosos incidentes relacionados con CSAM, y algunos padres afirmaron que Discord ofreció poca ayuda.
El Centro Nacional sobre Explotación Sexual (NCOSE) emitió una declaración acusando a Discord de responder de manera deshonesta en el manejo del material de abuso sexual infantil. El NCOSE consideró que las acciones de Discord fueron pasivas y no suficientemente proactivas en la eliminación de la explotación. Recomendaron que Discord prohíba a los menores hasta que haya una transformación radical.
En un informe de transparencia reciente, Discord afirmó haber invertido y priorizado la seguridad infantil. Desactivaron 37102 cuentas y eliminaron 17425 servidores por violaciones a la seguridad infantil. Además, que utilizan diversos sistemas para detectar proactivamente el abuso sexual infantil y el comportamiento de los usuarios.
Sin embargo, los sistemas actuales no pueden detectar materiales o mensajes de abuso sexual infantil que aún no han sido indexados. Una revisión de los servidores de Discord realizada por NBC News encontró 242 servidores que utilizan términos apenas disimulados para promover el CSAM.
Recomendaciones para mejorar la seguridad infantil en Discord
Teniendo en cuenta la información del informe y las críticas previas, tanto los desarrolladores de Discord como los padres de los niños pueden tomar medidas para mejorar la seguridad infantil en la plataforma. A continuación, se presentan algunas recomendaciones:
- Discord debe mejorar sus sistemas de detección para identificar y eliminar de manera más efectiva el material de explotación sexual infantil y otros contenidos inapropiados. Esto implica tanto invertir en tecnologías avanzadas de inteligencia artificial como en equipos humanos de moderación.
- También, Discord debe establecer una colaboración más estrecha con las autoridades encargadas de hacer cumplir la ley para facilitar la investigación y persecución de delitos relacionados con la seguridad infantil en su plataforma. Esto implica proporcionar registros y datos relevantes de manera oportuna y sin obstáculos.
- Los padres deben informarse sobre los riesgos que conlleva el uso de Discord y sobre las medidas que pueden tomar para proteger a sus hijos. Es fundamental que los padres estén al tanto de las características de Discord, incluyendo las salas de chat y comunidades ocultas, así como de los posibles peligros asociados. Deben mantener una comunicación abierta con sus hijos, hablar sobre los riesgos en línea y establecer pautas claras de seguridad.
- Al mismo tiempo, los padres podrían hacer uso de software de control parental para poder tener un poco más vigilados a sus hijos con la intención de protegerles ante este tipo de problemas.
- Discord debe mejorar las opciones de privacidad y seguridad en su plataforma, permitiendo a los usuarios configurar ajustes más restrictivos para proteger a los niños. Además, es recomendable que Discord implemente medidas para verificar la edad de los usuarios y prohíba el acceso a menores de cierta edad, o al menos limite su acceso a áreas de la plataforma más seguras y supervisadas.
- La compañía debe ser más transparente en su manejo de las denuncias de abuso infantil y mejorar la comunicación con los usuarios y las autoridades pertinentes. Debe establecer procedimientos claros y eficientes para la presentación y seguimiento de denuncias, así como para la eliminación rápida y efectiva de contenido inapropiado.