„Mimo że posiadamy zabezpieczenia, system może czasami generować nieprawidłowe lub wprowadzające w błąd informacje oraz obraźliwe lub stronnicze treści. Celem nie jest udzielanie porad.”

– Zastrzeżenie wstępne OpenAI

I to prowadzi nas do sedna naszej największej obawy – co się stanie, gdy technologia zwróci się przeciwko nam? 

Co się stanie, jeśli technologia zostanie wdrożona przedwcześnie bez odpowiednich testów i wiedzy dotyczącej jej możliwości?

Na początku tego miesiąca OpenAI, firma zajmująca się najczęściej sztuczną inteligencją (AI), otrzymała właśnie swój pierwszy w historii pozew o zniesławienie, który jeszcze bardziej ukazuje niebezpieczeństwa związane z niekontrolowaną zdolnością ChatGPT do generowania wyników niemających żadnego poparcia faktycznego ani prawnego.

Mark Walters, ogólnokrajowy prezenter radiowy w Gruzji, złożył 5 czerwca pozew przeciwko OpenAI, zarzucając, że chatbot ChatGPT oparty na sztucznej inteligencji sfabrykował przeciwko niemu roszczenia prawne. 

13-stronicowa skarga odwołuje się do dziennikarza AmmoLand.com Freda Riehla i jego prośby z 4 maja skierowanej do ChatGPT o podsumowanie sprawy prawnej Second Poprawka Foundation przeciwko Ferguson, sprawy federalnej wniesionej do sądu federalnego w Waszyngtonie, w której oskarżono prokuratora generalnego stanu Boba Fergusona o nadużycie swoją władzę, tłumiąc działalność fundacji na rzecz praw do broni i udostępnił chatbotowi OpenAI link do pozwu. 

Chociaż Walter nie został wymieniony w pierwotnym pozwie, ChatGPT odpowiedziała na skróconą prośbę Riehla skierowaną do Fundacji Drugiej Poprawki, stwierdzając, że:

„...skarga prawna złożona przez Alana Gottlieba, założyciela i wiceprezesa wykonawczego Fundacji Drugiej Poprawki (SAF), przeciwko Markowi Waltersowi, który jest oskarżony o defraudację i defraudację funduszy SAF.”

Ale tutaj sytuacja staje się zniekształcona i niebezpieczna – żadne z oświadczeń ChatGPT dotyczących Waltersa nie znajduje się w rzeczywistej skardze SAF. 

W tej „skargi” wygenerowanej przez sztuczną inteligencję zarzucano również Waltersowi, który pełnił funkcję skarbnika i dyrektora finansowego organizacji, „ sprzeniewierzył fundusze na wydatki osobiste bez zezwolenia lub zwrotu kosztów, zmanipulował dokumentację finansową i wyciągi bankowe w celu ukrycia swojej działalności oraz nie przedstawił dokładnych oraz terminowe raporty finansowe i ujawnienia kierownictwu SAF”.

W ramach zadośćuczynienia powód rzekomo domagał się „odzyskania sprzeniewierzonych funduszy, odszkodowania za naruszenie obowiązków powierniczych i oszustwo oraz usunięcia Waltera ze stanowiska członka zarządu SAF”.

Jednak w tym właśnie tkwi problem – według Waltersa „[każde] stwierdzenie faktu w podsumowaniu [ChatGPT] dotyczące [go] jest fałszywe”, a chatbot OpenAI posunął się nawet do utworzenia „błędnego numeru sprawy”.

„Zarzuty ChatGPT dotyczące Waltersa były fałszywe i złośliwe, wyrażone drukiem, pismem, obrazami lub znakami i mogły zaszkodzić reputacji Waltersa i narazić go na publiczną nienawiść, pogardę lub kpiny” – stwierdza pozew. „Wysyłając zarzuty do Riehla, [OpenAI] opublikowało zniesławiające treści dotyczące Waltersa”.

Jeśli miałbyś poprosić ChatGPT o przedstawienie streszczenia pozwu SAF, który był cytowany w skardze Waltersa, możesz również otrzymać odpowiedź podobną do tej:

„Przepraszam, ale jako model języka sztucznej inteligencji moje odpowiedzi opierają się na wiedzy istniejącej aż do września 2021 r. W związku z tym nie mogę uzyskać dostępu do Internetu, przeglądać go ani przeglądać określonych dokumentów lub linków opublikowanych po zakończeniu mojej wiedzy. W związku z tym nie mogę przedstawić Państwu streszczenia oskarżeń zawartych w pozwie, o którym Pan wspomniał… [aby uzyskać informacje na temat pozwu i zawartych w nim zarzutów, zalecam samodzielne zapoznanie się z dokumentem lub odniesienie się do zaufanych źródeł wiadomości lub witryn prawnych, które mógł zająć się tą sprawą. Mogą udzielić Ci dokładnych i aktualnych informacji dotyczących konkretnego pozwu, o którym wspomniałeś.

Chociaż OpenAI nie odpowiedziało na żadne uwagi dotyczące toczącego się procesu Waltersa o zniesławienie, nasuwa się pytanie, dlaczego firma zajmująca się sztuczną inteligencją nie naciska mocniej na te prawdopodobnie przewidywalne konsekwencje kodu, który z perspektywy czasu został wdrożony przez zaniedbanie i bez odpowiednich testów .

Sprawa to Mark Walters przeciwko OpenAI, LLC, cv-23-A-04860-2.

  • Tutaj możesz przeczytać skargę Waltera z 5 czerwca. 

Z innych wiadomości przeczytaj o spotkaniu prezydenta USA Joe Bidena z 8 liderami technologii, którego tematem było rozwiązanie problemu uprzedzeń związanych ze sztuczną inteligencją i korzyściami dla pracowników.

Kliknij tutaj, aby zobaczyć pełną galerię z Hypemoon