Ofiary walczą, ponieważ Google nie reaguje szybko

Coraz częściej pojawiają się doniesienia o intymnych zdjęciach i filmach publikowanych online bez zgody, a deepfake’i dodają problemowi nowego wymiaru. Na początku 2022 r. dwóch pracowników Google Policy spotkało się z kobietami, które padły ofiarą oszustwa GirlsDoPorn, gdzie w Internecie krążyły ich pikantne filmy, w tym w wynikach wyszukiwania Google.

Kobiety zasugerowały, aby Google użyło 25-terabajtowego dysku twardego zawierającego wszystkie odcinki GirlsDoPorn, aby utworzyć „hash” każdego klipu i zablokować je w wynikach wyszukiwania. Jednak dwa lata później żaden z tych pomysłów nie został wdrożony, a filmy nadal pojawiają się w wynikach wyszukiwania.

Niewystarczająca odpowiedź Google’a

Pomimo ostatnich zmian, które umożliwiły ofiarom przemocy seksualnej opartej na obrazach łatwiejsze usuwanie niechcianych wyników wyszukiwania, ofiary i obrońcy są sfrustrowani brakiem odważniejszych działań Google. Google odmówiło przyjęcia branżowego narzędzia StopNCII, które udostępnia informacje o niechcianych intymnych obrazach (NCII) z powodu obaw dotyczących zawartości bazy danych.

Wewnętrznie pracownicy Google zasugerowali bardziej rygorystyczne środki, takie jak wymaganie od witryn dla dorosłych weryfikacji zgody, ale te pomysły nie zostały przyjęte. Rzecznik Google oświadczył, że zwalczanie niechcianych, wyraźnych obrazów (NCEI) pozostaje priorytetem i że działania firmy wykraczają poza to, co jest wymagane prawnie.

Jednak źródła w Google twierdzą, że można zrobić więcej. Wskazują na surowsze ograniczenia Google dotyczące materiałów przedstawiających wykorzystywanie seksualne dzieci (CSAM) jako dowód na to, że firma może wdrożyć surowsze środki dla NCII.

Apel o podjęcie proaktywnych działań

Rzecznicy uważają, że Google powinno podejmować bardziej proaktywne kroki w celu ochrony ofiar. National Center on Sexual Exploitation twierdzi, że Google powinno automatycznie honorować wszystkie żądania usunięcia i wymagać od stron internetowych udowodnienia, że ​​istniała zgoda na rejestrowanie i publikowanie kwestionowanych treści.

Obecne systemy Google, które próbują automatycznie usuwać linki wyszukiwania, gdy wcześniej zgłoszone treści pojawiają się ponownie, mają ograniczenia. Znany system ochrony ofiar, zaprojektowany w celu filtrowania wyników z wyraźnymi obrazami z podobnych zapytań wyszukiwania, nie jest niezawodny.

Ofiary, takie jak te oszustwa GirlsDoPorn, są zmuszone do zachowania czujności, ciągłego wyszukiwania i zgłaszania nowych przesłań ich NCII. Ten ciężar nie powinien spoczywać na ofiarach, mówi Adam Dodge, założyciel grupy adwokackiej Ending Tech-Enabled Abuse. Wzywa Google do wzięcia większej odpowiedzialności za proaktywne identyfikowanie i usuwanie mediów bez zgody.

Wezwanie do działania

Ofiary i obrońcy wzywają Google do przyjęcia silniejszych środków w celu zwalczania rosnącego problemu niechcianych, wyraźnych obrazów. Chociaż Google wprowadziło pewne ulepszenia, takie jak aktualizacja formularzy i zasad usuwania, wysiłki te są postrzegane jako niewystarczające.

Wraz ze wzrostem liczby deepfake’ów generowanych przez AI i coraz większą liczbą doniesień o NCII, potrzeba bardziej solidnych i proaktywnych środków jest ważniejsza niż kiedykolwiek. Ofiary liczą na to, że Google podejmie niezbędne kroki, aby zapewnić im prywatność i bezpieczeństwo oraz położyć kres ponownej wiktymizacji spowodowanej ciągłym pojawianiem się ich wyraźnych obrazów w Internecie.