Telegram y Snapchat demandadas por contenido ilegal: El dilema de la moderación en plataformas digitales

En los últimos meses, varias plataformas digitales han estado bajo una intensa investigación por su manejo del contenido ilegal que circula a través de sus redes sociales. Dos casos recientes son la presión sobre estas empresas para supervisar de una manera más optima las actividades dentro de sus plataformas: el arresto del fundador de Telegram, Pavel Durov, y las demandas contra Snapchat por su papel en la proliferación de imágenes de abuso sexual infantil.

Telegram: Un giro hacia la moderación

Durante años, Telegram era conocido por ofrecer un espacio donde los chats privados estaban prácticamente fuera del alcance de la supervisión, afirmando en su página de preguntas frecuentes que no procesaban solicitudes relacionadas con chats privados o grupales. Esto permitió que los usuarios se pudieran comunicar de manera privada sin la preocupación de que las conversaciones fueran monitoreadas o reguladas.

Sin embargo, el arresto de su fundador, Pavel Durov, en Francia, inició un cambio en la política de la compañía. Durov fue arrestado en relación con una investigación sobre delitos graves, como tráfico de drogas, transacciones fraudulentas y distribución de imágenes de abuso sexual infantil a través de Telegram. Como respuesta a esas preocupaciones, Telegram actualizó silenciosamente sus políticas para permitir que los usuarios denuncien chats privados a sus moderadores. Las diferencias las puedes ver con la copia de Archive.org.

A pesar de los cambios en la política de Telegram, sigue siendo incierto cómo afectará esto su capacidad para cooperar con las autoridades en futuras investigaciones, sobre todo en temas tan delicados como el abuso infantil.

En su momento, Pavel Durov argumentó en su canal de Telegram que no era apropiado utilizar leyes obsoletas para acusar a los fundadores de las plataformas por las actividades ilícitas que ocurren en ellas por los usuarios. Según su postura, los gobiernos deberían centrarse en las personas que cometen los delitos y no en las plataformas o en sus fundadores. Esto plantea un dilema sobre la responsabilidad que deben tener los directivos de estas empresas ante los abusos que puedan cometer sus usuarios.

Snapchat: otra plataforma bajo investigación

Un caso similar es el de la popular plataforma de mensajería Snapchat, que tiene una demanda presentada por el fiscal general del estado de Nuevo México. La acusación sostiene que Snapchat no ha hecho lo suficiente para proteger a los niños del abuso sexual y la sextorsión dentro de su plataforma.

Según la investigación llevada a cabo por las autoridades, se descubrió que Snapchat ha sido utilizada para compartir imágenes sexuales robadas y no consensuadas, y que los algoritmos de la plataforma facilitan la interconexión entre cuentas que se dedican a estas actividades ilegales.

El fiscal general, Raúl Torrez, denunció que Snapchat había engañado a sus usuarios haciéndoles creer que el contenido que compartían desaparecería de manera definitiva. En cambio, los depredadores han encontrado formas de capturar y almacenar estas imágenes de manera indefinida, creando un mercado clandestino de material sexual de menores.

En la denuncia también se señala que Snapchat ha sido diseñada de manera que crea una adicción en los jóvenes, contribuyendo a problemas de salud mental como la ansiedad, la depresión y la dismorfia corporal.

La respuesta de Snap, la empresa matriz de Snapchat, no tardó en llegar. En un comunicado a Engadget, la compañía expresó su compromiso con la seguridad en línea, asegurando que invierten millones de dólares en mejorar sus equipos de moderación y seguridad. Además, Snap ha recalcado sus esfuerzos por colaborar con las fuerzas del orden y con expertos en seguridad en línea para abordar estos problemas. Pero esto aún está por verse, ya que las demandas en curso indican que los problemas de seguridad en la plataforma están lejos de ser resueltos.

Microsoft y el combate a la pornografía vengativa

En un intento de lucha contra la explotación sexual en línea, Microsoft acaba de anunciar una colaboración con la organización StopNCII para evitar la propagación de la pornografía vengativa en su motor de búsqueda Bing. Esta asociación permite a las víctimas de este tipo de explotación crear una «huella digital» de las imágenes que desean bloquear, lo que impide que sean mostradas en las búsquedas.

Microsoft se une a otras plataformas como Google o Meta, que también han adoptado medidas similares. Aunque los problemas se agravan con la pornografía creada mediante inteligencia artificial por falta de regulación. En Estados Unidos, la falta de una legislación específica sobre pornografía deepfake ha dejado un vacío legal, lo que obliga a depender de leyes estatales y locales para abordar el problema.

¿Quién es responsable?

Ante estos hechos, la pregunta es: ¿Dónde recae la responsabilidad cuando se trata de actividades ilícitas en las plataformas / redes sociales? ¿En los fundadores, en las mismas plataformas, en las regulaciones, o en las autoridades que parecen dirigir sus esfuerzos hacia los responsables de las empresas en lugar de hacia los criminales que cometen estos actos?

Las autoridades deben equilibrar la protección de los usuarios y la privacidad de las comunicaciones con la necesidad de combatir el crimen. Al mismo tiempo, las plataformas tienen la responsabilidad de implementar sistemas de moderación y cooperación con las fuerzas del orden, pero sin comprometer los derechos de sus usuarios.

¿Para ti, quiénes son los responsable? Nos gustaría saber tu opinión en los comentarios.


Deja un comentario