Discord, die beliebte Kommunikations-App, die 2015 ins Leben gerufen wurde, hat sich zu einem Dreh- und Angelpunkt für Online-Gamer und diverse Communities weltweit entwickelt. Es gibt jedoch auch eine Schattenseite: Erwachsene nutzen die Plattform, um Kinder zu manipulieren, mit Material zur sexuellen Ausbeutung von Kindern (CSAM) zu handeln und Minderjährige zu erpressen.
Laut NBC News wurden in den letzten sechs Jahren mindestens 35 Fälle von Entführung, Grooming und sexuellen Übergriffen in Verbindung mit Discord-Kommunikation festgestellt, von denen 22 während oder nach der COVID-19-Pandemie stattfanden. Weitere Ermittlungen haben 165 Fälle aufgedeckt, in denen CSAM übertragen oder empfangen wurden, darunter vier Verbrecherringe.
Diese Zahlen geben zwar die gemeldeten und verfolgten Fälle wieder, doch nach Ansicht von Experten kratzen sie nur an der Oberfläche des Problems. Die junge Nutzerbasis, die dezentrale Struktur, die multimedialen Kommunikationstools und die wachsende Popularität machen Discord zu einer attraktiven Plattform für Personen, die Kinder ausbeuten wollen.
Laut dem National Center for Missing & Exploited Children (NCMEC) stiegen die Meldungen von CSAM auf Discord von 2021 bis 2022 um 474 %.
Die Reaktionsfähigkeit von Discord auf Beschwerden ist ein Problem. Die durchschnittliche Reaktionszeit der Plattform auf Beschwerden stieg laut NCMEC von drei Tagen im Jahr 2021 auf fast fünf Tage im Jahr 2022.
Lesen Sie auch: „ChatGPT Sicherheitslücke: Mehr als 101.000 Benutzerkonten durch Malware kompromittiert“
Überwachungsorganisationen haben auf die Notwendigkeit einer stärkeren Moderation und einer proaktiven Erkennung von Inhalten zur Ausbeutung von Kindern hingewiesen und damit die Dringlichkeit unterstrichen, dieses Problem anzugehen.
Discord hat Maßnahmen gegen Kindesmissbrauch und CSAM ergriffen und im letzten Quartal 2022 über 37.000 Accounts wegen Verstößen gegen die Kindersicherheit gesperrt.
Das Unternehmen hat auch mit Thorn zusammengearbeitet, einem Entwickler von Technologien gegen die Ausbeutung von Kindern, um Grooming-Verhalten und schädliche Inhalte zu erkennen. Es muss jedoch mehr getan werden, um das hartnäckige Problem zu lösen.
Trotz der Bemühungen von Discord gibt es nach wie vor Bedenken wegen der mangelnden Aufsicht und der Leichtigkeit, mit der Kinder unter 13 Jahren Konten erstellen können. Die Sicherheitsmaßnahmen der Plattform beruhen größtenteils auf Hinweisen von Community-Mitgliedern und überwachen nicht jeden Server oder jede Unterhaltung.
Discord plant zwar die Einführung neuer Modelle zur Erkennung von Bedrohungen für die Sicherheit von Kindern und unentdeckten Trends bei der Ausbeutung von Kindern, doch Beobachter und Beamte sind der Meinung, dass Sicherheitsmaßnahmen von Anfang an in die Plattform hätten integriert werden sollen.
Discord wurde für seine langsamen Reaktionszeiten, Kommunikationsprobleme und das Hosting von CSAM-Communities kritisiert. Organisationen wie Inhope haben aufgrund dieser Bedenken eine Partnerschaft mit Discord abgelehnt.
Discord erkennt die verbesserungsbedürftigen Bereiche an und arbeitet an der Aktualisierung seiner Kindersicherheitsrichtlinien und an der Umsetzung des Thorn-Klassifizierungssystems für die Pflege. Das Problem der Ausbeutung von Kindern auf Discord macht deutlich, dass größere Wachsamkeit und strengere Maßnahmen zum Schutz gefährdeter Nutzer erforderlich sind.
Experten betonen die Bedeutung einer proaktiven Aufdeckung, einer raschen Reaktion auf Meldungen und einer Zusammenarbeit mit den Strafverfolgungsbehörden und Meldestellen, um dieses weit verbreitete Problem zu bekämpfen.
0 Kommentare