Po tym, jak poprzednie narzędzia zawiodły, OpenAI uruchomiło kolejny detektor sztucznej inteligencji skupiający się na obrazach i rosnącym ryzyku deepfakes.

OpenAI, pionier w dziedzinie generatywnej sztucznej inteligencji, podejmuje wyzwanie wykrywania obrazów typu deepfake w czasach, gdy w mediach społecznościowych coraz częściej pojawiają się wprowadzające w błąd treści. Mira Murati, dyrektor ds. technologii firmy, zaprezentowała nowy wykrywacz deepfake’ów podczas ostatniej konferencji WSJ Technology Live w Laguna Beach w Kalifornii.

Murati powiedział, że nowe narzędzie OpenAI charakteryzuje się „99-procentową niezawodnością” w ustalaniu, czy obraz został wygenerowany przy użyciu sztucznej inteligencji.

Obrazy generowane przez sztuczną inteligencję mogą obejmować wszystko, od beztroskich kreacji, takich jak papież Franciszek w puszystym płaszczu Balenciagi, po zwodnicze obrazy, które mogą siać spustoszenie finansowe. Potencjał i pułapki sztucznej inteligencji są jasne. W miarę jak narzędzia te stają się coraz bardziej wyrafinowane, odróżnienie treści rzeczywistych od treści generowanych przez sztuczną inteligencję staje się wyzwaniem.

Chociaż data premiery narzędzia pozostaje tajemnicą, jego wydanie wzbudziło duże zainteresowanie, zwłaszcza biorąc pod uwagę wcześniejsze wysiłki OpenAI.

W styczniu 2022 r. firma uruchomiła klasyfikator tekstu, który według niego może odróżnić pismo ludzkie od tekstu wygenerowanego maszynowo na podstawie modeli takich jak ChatGPT. Jednak w lipcu OpenAI po cichu zamknęło narzędzie i wydało aktualizację stwierdzającą, że poziom błędów jest niedopuszczalnie wysoki. Ich klasyfikator błędnie oznaczył pismo prawdziwego człowieka jako wygenerowane przez sztuczną inteligencję w 9% przypadków.

Jeśli twierdzenia Muratiego okażą się prawdziwe, będzie to ważny moment dla branży, ponieważ obecne metody wykrywania obrazów generowanych przez sztuczną inteligencję często nie są zautomatyzowane. Zazwyczaj hobbyści polegają na intuicji i skupiają się na dobrze znanych wyzwaniach utrudniających generatywną sztuczną inteligencję, takich jak śledzenie dłoni, zębów i wzorów. Rozróżnienie między obrazami wygenerowanymi przez sztuczną inteligencję a obrazami edytowanymi przez sztuczną inteligencję pozostaje niewyraźne, zwłaszcza gdy próbuje się użyć sztucznej inteligencji do wykrycia sztucznej inteligencji.

OpenAI nie tylko wykrywa szkodliwe obrazy sztucznej inteligencji, ale także ustanawia bariery uniemożliwiające cenzurowanie własnych modeli, nawet poza tym, co publicznie stwierdza w swoich wytycznych dotyczących treści.

Jak odkrył Decrypt, narzędzie Dall-E OpenAI wydaje się być skonfigurowane tak, aby modyfikować podpowiedzi bez powiadomienia i po cichu zgłaszać błędy, gdy zostanie poproszony o wygenerowanie określonych wyników, nawet jeśli są one zgodne z opublikowanymi wytycznymi i uniknąć tworzenia Odnośnie do konkretnych nazwisk, stylów artystów i ras .

Część zachęty Dall-E 3 w ChatGPT. źródło: Decryp

Wykrywanie deepfakes to nie tylko przedsięwzięcie OpenAI. DeepMedia to firma rozwijająca tę możliwość, współpracująca wyłącznie z klientami rządowymi.

Duże firmy, takie jak Microsoft i Adobe, również zakasują rękawy. Uruchomili tak zwany system „znakowania wodnego AI”. Mechanizm, napędzany przez Content Provenance and Authenticity Alliance (C2PA), zawiera unikalny symbol „cr” wewnątrz dymka, który wskazuje treści generowane przez sztuczną inteligencję. Symbol ma służyć jako latarnia przejrzystości, umożliwiająca użytkownikom rozpoznanie pochodzenia treści.

Jednak, jak każda technologia, nie jest ona niezawodna. Istnieje luka, która może usunąć metadane zawierające ten symbol. Jednak jako rozwiązanie Adobe uruchomiło również usługę w chmurze, która może odzyskać utracone metadane, zapewniając w ten sposób istnienie symboli. To też nie jest trudne do obejścia.

Ponieważ organy regulacyjne w coraz większym stopniu kryminalizują deepfake, innowacje te są nie tylko osiągnięciem technologicznym, ale także koniecznością społeczną. Niedawne inicjatywy OpenAI oraz firm takich jak Microsoft i Adobe podkreślają wspólne wysiłki na rzecz zapewnienia autentyczności w epoce cyfrowej. Chociaż narzędzia te są unowocześniane w celu zapewnienia wyższego stopnia autentyczności, ich skuteczne wdrożenie zależy od ich powszechnego przyjęcia. Dotyczy to nie tylko gigantów technologicznych, ale także twórców treści, platform mediów społecznościowych i użytkowników końcowych.

Wraz z szybkim rozwojem sztucznej inteligencji generatywnej detektory w dalszym ciągu mają trudności z rozróżnieniem autentyczności tekstu, obrazów i dźwięku. Obecnie nasza najlepsza linia obrony przed niewłaściwym wykorzystaniem sztucznej inteligencji to ludzki osąd i czujność. Jednakże ludzie nie są nieomylni. Trwałe rozwiązania będą wymagały współpracy liderów technologii, ustawodawców i społeczeństwa, aby poruszać się po tym nowym, złożonym terytorium. #OpenAI #AI检测