Opfer kämpfen, da Google nicht schnell genug reagiert

Berichte über intime Bilder und Videos, die ohne Zustimmung online gestellt werden, nehmen zu, und Deepfakes verleihen dem Problem eine neue Dimension. Anfang 2022 trafen sich zwei Mitarbeiter der Google-Richtlinien mit Frauen, die Opfer des GirlsDoPorn-Betrugs geworden waren, bei dem explizite Videos von ihnen online im Umlauf waren, unter anderem über die Google-Suchergebnisse.

Die Frauen schlugen Google vor, eine 25 Terabyte große Festplatte mit allen GirlsDoPorn-Episoden zu verwenden, um einen „Hash“ jedes Clips zu erstellen und diese aus den Suchergebnissen zu sperren. Zwei Jahre später wurde jedoch keine dieser Ideen umgesetzt und die Videos erscheinen weiterhin in den Suchergebnissen.

Googles unzureichende Reaktion

Trotz jüngster Änderungen, die es Opfern sexuellen Missbrauchs mit Bildern ermöglichen, unerwünschte Suchergebnisse leichter zu entfernen, sind Opfer und Fürsprecher frustriert über Googles mangelndes Engagement. Google hat sich geweigert, das Branchentool StopNCII zu übernehmen, das Informationen über nicht einvernehmliche intime Bilder (NCII) weitergibt, da es Bedenken hinsichtlich des Inhalts der Datenbank gibt.

Intern haben Google-Mitarbeiter strengere Maßnahmen vorgeschlagen, etwa die Verpflichtung von Websites für Erwachsene, die Zustimmung zu überprüfen. Diese Vorschläge wurden jedoch nicht umgesetzt. Ein Google-Sprecher erklärte, dass der Kampf gegen nicht einvernehmliche explizite Bilder (NCEI) weiterhin Priorität habe und dass die Maßnahmen des Unternehmens über das gesetzlich Erforderliche hinausgehen.

Quellen innerhalb von Google argumentieren jedoch, dass mehr getan werden könnte. Sie verweisen auf Googles strengere Beschränkungen für Material über sexuellen Kindesmissbrauch (CSAM) als Beweis dafür, dass das Unternehmen strengere Maßnahmen gegen NCII ergreifen kann.

Forderungen nach proaktiven Maßnahmen

Befürworter sind der Meinung, dass Google proaktivere Schritte zum Schutz der Opfer unternehmen sollte. Das National Center on Sexual Exploitation argumentiert, dass Google automatisch allen Löschaufforderungen nachkommen und von Websites den Nachweis verlangen sollte, dass eine Einwilligung zur Aufzeichnung und Veröffentlichung der umstrittenen Inhalte vorliegt.

Googles aktuelle Systeme, die Suchlinks automatisch entfernen, wenn zuvor gemeldete Inhalte wieder auftauchen, haben Einschränkungen. Das bekannte Opferschutzsystem, das Ergebnisse mit expliziten Bildern aus ähnlichen Suchanfragen herausfiltert, ist nicht narrensicher.

Opfer wie die des GirlsDoPorn-Betrugs müssen wachsam bleiben und ständig nach neuen Uploads ihrer NCII suchen und diese melden. Diese Last sollte nicht auf den Opfern lasten, sagt Adam Dodge, Gründer der Interessengruppe Ending Tech-Enabled Abuse. Er fordert, dass Google mehr Verantwortung übernimmt und proaktiv nicht einvernehmliche Medien identifiziert und entfernt.

Ein Aufruf zum Handeln

Opfer und Befürworter drängen darauf, dass Google strengere Maßnahmen ergreift, um das wachsende Problem der nicht einvernehmlichen, expliziten Bilder zu bekämpfen. Zwar hat Google einige Verbesserungen vorgenommen, wie etwa die Aktualisierung seiner Formulare und Richtlinien zur Entfernung von Bildern, doch diese Bemühungen werden als unzureichend angesehen.

Angesichts der Zunahme von KI-generierten Deepfakes und der zunehmenden Meldungen über NCII ist der Bedarf an robusteren und proaktiveren Maßnahmen dringender denn je. Die Opfer verlassen sich darauf, dass Google die notwendigen Schritte unternimmt, um ihre Privatsphäre und Sicherheit zu gewährleisten und der erneuten Viktimisierung durch das ständige Auftauchen ihrer expliziten Bilder im Internet ein Ende zu setzen.