Discord, l’application de communication populaire lancée en 2015, est devenue une plaque tournante pour les joueurs en ligne et diverses communautés dans le monde entier. Cependant, un côté plus sombre est apparu, avec des adultes qui exploitent la plateforme pour préparer des enfants, échanger du matériel d’exploitation sexuelle d’enfants (CSAM) et extorquer des mineurs.
Selon NBC News, au moins 35 cas d’enlèvement, de manipulation et d’agression sexuelle impliquant des communications Discord ont été recensés au cours des six dernières années, dont 22 pendant ou après la pandémie de COVID-19. Des enquêtes supplémentaires ont permis de découvrir 165 cas de transmission ou de réception de CSAM, dont quatre réseaux criminels.
Bien que ces chiffres représentent les cas signalés et poursuivis, les experts estiment qu’ils ne font qu’effleurer la surface du problème. La jeune base d’utilisateurs de Discord, sa structure décentralisée, ses outils de communication multimédia et son récent regain de popularité en font une plateforme attrayante pour les individus cherchant à exploiter les enfants.
Les signalements de CSAM sur Discord ont augmenté de 474 % entre 2021 et 2022, selon le National Center for Missing & Exploited Children (NCMEC).
La réactivité de Discord face aux plaintes a été un sujet de préoccupation. Le délai moyen de réponse de la plateforme aux plaintes est passé de trois jours en 2021 à près de cinq jours en 2022, selon le NCMEC.
À lire également : “ChatGPT Security Breach : Plus de 101 000 comptes d’utilisateurs compromis par un logiciel malveillant”.
Les organisations de surveillance ont souligné la nécessité de renforcer la modération et la détection proactive des contenus à caractère pédopornographique, soulignant ainsi l’urgence de s’attaquer à ce problème.
Discord a pris des mesures pour lutter contre la maltraitance des enfants et les MSTC, en désactivant plus de 37 000 comptes pour violation de la sécurité des enfants au cours du dernier trimestre 2022.
L’entreprise a également collaboré avec Thorn, qui développe une technologie de lutte contre l’exploitation des enfants, afin de détecter les comportements de manipulation et les contenus préjudiciables. Toutefois, il faut faire davantage pour s’attaquer à ce problème persistant.
Malgré les efforts de Discord, le manque de surveillance et la facilité avec laquelle les enfants de moins de 13 ans peuvent créer des comptes suscitent encore des inquiétudes. Les mesures de sécurité de la plateforme reposent en grande partie sur les membres de la communauté qui signalent les problèmes et ne surveillent pas chaque serveur ou conversation.
Alors que Discord prévoit de mettre en œuvre de nouveaux modèles pour détecter les menaces à la sécurité des enfants et les tendances non découvertes en matière de contenu d’exploitation des enfants, les observateurs et les responsables affirment que des mesures de sécurité auraient dû être incorporées dès la création de la plateforme.
Discord a été critiqué pour la lenteur de ses temps de réponse, ses problèmes de communication et l’hébergement de communautés engagées dans le CSAM. Des organisations comme Inhope ont refusé de s’associer à Discord en raison de ces préoccupations.
Discord reconnaît les domaines à améliorer et travaille à la mise à jour de ses politiques de sécurité pour les enfants et à la mise en œuvre de la classification de Thorn en matière de toilettage. La question de l’exploitation des enfants sur Discord souligne la nécessité d’une plus grande vigilance et de mesures plus strictes pour protéger les utilisateurs vulnérables.
Les experts soulignent l’importance d’une détection proactive, d’une réponse rapide aux signalements et d’une collaboration avec les services répressifs et les lignes téléphoniques d’urgence pour lutter contre ce problème omniprésent.
0 Comments