- Discord prohíbe el contenido generado por IA que representa abuso sexual infantil y adopta medidas contra la sexualización de niños y adolescentes.
- La plataforma prohíbe los servidores de citas para adolescentes y toma acciones enérgicas contra usuarios inapropiados.
- Discord lanza Family Center y trabaja en estrecha colaboración con expertos para mejorar la seguridad de los usuarios jóvenes.
Tendencia preocupante: Aumento del contenido sexualizado de menores generado por IA. Discord, una plataforma popular de comunicación, ha implementado recientemente una serie de actualizaciones de sus políticas para mejorar la seguridad de los niños y adolescentes en su plataforma. Estos cambios se han realizado en respuesta a los informes de depredadores que explotan la aplicación para crear y distribuir materiales de abuso sexual infantil (CSAM), así como para engañar a jóvenes adolescentes.
Prohibición del CSAM generado por IA. Una de las actualizaciones más significativas es la prohibición explícita del CSAM fotorrealista generado por IA. Esta medida sigue una tendencia preocupante destacada por TWP, donde el aumento de la IA generativa ha dado lugar a una proliferación de imágenes realistas que representan a niños sexualizados. De hecho, se han descubierto discusiones en Discord sobre el uso de una IA generativa de texto a imagen llamada Midjourney para crear imágenes inapropiadas de menores.
Prohibición de contenido sexual de niños y servidores de citas para adolescentes
Además de prohibir el CSAM generado por IA, Discord ha introducido una prohibición explícita de cualquier forma de texto o contenido multimedia que sexualice a los niños.
La plataforma también ha prohibido los servidores de citas para adolescentes y se ha comprometido a tomar medidas contra los usuarios que se comporten de manera inapropiada.
Investigaciones previas han identificado servidores de Discord anunciados como plataformas de citas para adolescentes, con participantes que solicitan imágenes de desnudos de menores.
Enfrentando el acoso y las redes criminales. Discord ha sido testigo de casos en los que usuarios adultos manipulan a niños, e incluso existen redes criminales que extorsionan a usuarios menores de edad para que envíen imágenes explícitas de ellos mismos. La prohibición total de los servidores de citas para adolescentes podría ayudar a mitigar este problema. Además, Discord ha incluido una disposición en su política que establece que los adolescentes mayores que acosen a adolescentes más jóvenes serán investigados y procesados de acuerdo con su política sobre comportamiento sexual inapropiado con menores y preparación.
Family Center: Herramienta para la supervisión de padres. Además de actualizar sus reglas, Discord ha lanzado una herramienta llamada Family Center, que permite a los padres monitorear la actividad de sus hijos en el servicio de chat. Aunque los padres no pueden acceder al contenido real de los mensajes de sus hijos, esta herramienta basada en suscripción les permite ver a los amigos de sus hijos y las personas con las que interactúan en la plataforma. Discord espera que estas nuevas medidas y herramientas, combinadas con sus esfuerzos existentes, como el escaneo proactivo de imágenes cargadas utilizando PhotoDNA, protejan de manera efectiva a sus usuarios menores de edad, tal como hace Facebook.
El compromiso de Discord con la seguridad infantil
El compromiso de Discord con la seguridad infantil es encomiable, ya que trabajan activamente para abordar los peligros que representan los depredadores y el contenido inapropiado.
Al implementar políticas más estrictas y proporcionar herramientas para la supervisión de los padres, Discord tiene como objetivo crear un entorno más seguro para los usuarios jóvenes. Sin embargo, es crucial que tanto los padres como la comunidad se mantengan alerta, educándose a sí mismos y a sus hijos sobre la seguridad en línea para evitar cualquier daño potencial.
Colaboración y tecnología avanzada para combatir la explotación sexual infantil. Discord se esfuerza continuamente por mejorar la seguridad de sus usuarios adolescentes y ha invertido en talento y recursos para garantizarlo. La plataforma utiliza tecnología avanzada, como modelos de aprendizaje automático y la comparación de imágenes por PhotoDNA, para identificar y eliminar contenido perjudicial. También colabora estrechamente con expertos y organizaciones del sector para combatir la explotación sexual infantil y fortalecer las prácticas de moderación y las iniciativas de seguridad.