Poté, co předchozí nástroje selhaly, OpenAI spustilo další detektor AI zaměřený na obrázky a rostoucí riziko deepfake.

OpenAI, průkopník v oblasti generativní umělé inteligence, se ujímá výzvy odhalování deepfake obrázků v době, kdy je na sociálních sítích stále častější zavádějící obsah. Mira Murati, hlavní technologická ředitelka společnosti, odhalila na nedávné konferenci WSJ Technology Live v Laguna Beach v Kalifornii nový detektor hlubokého falšování.

Murati řekl, že nový nástroj OpenAI má „99procentní spolehlivost“ při určování, zda byl obrázek generován pomocí AI.

Obrázky generované umělou inteligencí mohou zahrnovat vše od lehkomyslných výtvorů, jako je papež František v nadýchaném kabátě Balenciaga, až po klamavé obrázky, které mohou způsobit finanční katastrofu. Potenciál a úskalí AI jsou jasné. Vzhledem k tomu, že tyto nástroje jsou stále sofistikovanější, rozlišení skutečného obsahu od obsahu generovaného umělou inteligencí se ukazuje jako výzva.

Zatímco datum vydání nástroje zůstává utajeno, jeho vydání vyvolalo značný zájem, zejména s ohledem na minulé úsilí OpenAI.

V lednu 2022 společnost uvedla na trh textový klasifikátor, o kterém uvedla, že dokáže rozlišit lidské psaní od strojově generovaného textu z modelů jako ChatGPT. Do července však OpenAI v tichosti nástroj vypnula a vydala aktualizaci, že jeho chybovost je nepřijatelně vysoká. Jejich klasifikátor nesprávně označil skutečné lidské psaní jako AI generované v 9 % případů.

Pokud jsou Muratiho tvrzení pravdivá, byl by to pro průmysl důležitý okamžik, protože současné metody detekce obrázků generovaných umělou inteligencí často nejsou automatizované. Fanoušci se obvykle spoléhají na intuici a zaměřují se na dobře známé výzvy, které brání generativní umělé inteligenci, jako je sledování rukou, zubů a vzorů. Rozdíl mezi obrázky vytvořenými umělou inteligencí a obrázky upravenými umělou inteligencí zůstává nejasný, zvláště když se pokusíte použít umělou inteligenci k detekci umělé inteligence.

OpenAI nejenže odhaluje škodlivé obrázky umělé inteligence, ale také nastavuje mantinely cenzurování vlastních modelů, a to i nad rámec toho, co veřejně uvádí ve svých pokynech k obsahu.

Jak bylo zjištěno Decrypt, nástroj Dall-E od OpenAI se zdá být nakonfigurován tak, aby bez upozornění upravoval výzvy a tiše házel chyby, když jsou požádány o vytvoření konkrétního výstupu, i když jsou v souladu s publikovanými pokyny, a vyhýbá se vytváření Související s konkrétními jmény, styly umělců a rasami. .

Část výzvy Dall-E 3 v ChatGPT. Zdroj: Dekryp

Detekce deepfakes není jen záležitostí OpenAI. DeepMedia je společnost rozvíjející tuto schopnost a pracuje výhradně s vládními klienty.

Velké společnosti jako Microsoft a Adobe také vyhrnují rukávy. Spustili to, čemu říkají „AI watermarking“ systém. Mechanismus řízený aliancí Content Provenance and Authenticity Alliance (C2PA) obsahuje uvnitř bubliny jedinečný symbol „cr“, který označuje obsah generovaný umělou inteligencí. Symbol má sloužit jako maják transparentnosti, který uživatelům umožňuje rozpoznat původ obsahu.

Jako každá technologie však není spolehlivá. Existuje chyba zabezpečení, která může odstranit metadata nesoucí tento symbol. Adobe však jako řešení spustilo i cloudovou službu, která dokáže obnovit ztracená metadata, a zajistit tak existenci symbolů. Také to není těžké obejít.

Vzhledem k tomu, že regulační orgány stále více kriminalizují deepfakes, tyto inovace nejsou jen technologickými výdobytky, ale také společenskými potřebami. Nedávné iniciativy OpenAI a společností jako Microsoft a Adobe podtrhují společné úsilí o zajištění autenticity v digitálním věku. Ačkoli jsou tyto nástroje upgradovány, aby poskytovaly vyšší stupeň autenticity, jejich efektivní implementace závisí na širokém přijetí. To se týká nejen technologických gigantů, ale také tvůrců obsahu, platforem sociálních médií a koncových uživatelů.

S rychlým rozvojem generativní umělé inteligence mají detektory stále potíže s rozlišením pravosti textu, obrázků a zvuku. V současné době je lidský úsudek a bdělost naše nejlepší obrana proti zneužití AI. Lidé však nejsou neomylní. Trvalá řešení budou vyžadovat, aby technologickí lídři, zákonodárci a veřejnost spolupracovali na navigaci v tomto složitém novém území. #OpenAI #AI检测