Źródło obrazu: wygenerowane przez narzędzie Unbounded AI

Dwa tygodnie po premierze GPT-4 w Internecie ukazał się list otwarty podpisany przez Elona Muska i tysiące ludzi z branży technologicznej. W liście otwartym wzywa się wszystkie laboratoria sztucznej inteligencji do natychmiastowego zawieszenia szkolenia systemów sztucznej inteligencji potężniejszych niż GPT-4 na co najmniej 6 miesięcy.

Współzałożyciel Apple Steve Wozniak, zdobywca nagrody Turinga Yoshua Bengio i współautor podręcznika AI „Artificial Intelligence: A Modern Approach” Stuart Russell Stuart Russell i inne znane osobistości z branży technologicznej podpisali ten list otwarty.

W liście otwartym stwierdza się, że „zaawansowana sztuczna inteligencja może oznaczać głębokie zmiany w historii życia na Ziemi i powinniśmy poświęcić odpowiednią uwagę i zasoby w planowanie tego zjawiska i zarządzanie nim”. i programiści nie mogą tego zrozumieć. Przewiduj i kontroluj niezawodnie.

W liście otwartym wspomniano również, że współczesne systemy sztucznej inteligencji stają się obecnie konkurencyjne w stosunku do ludzi w zakresie ogólnych zadań. „Potężne systemy sztucznej inteligencji należy opracowywać tylko wtedy, gdy mamy pewność, że ich skutki są pozytywne, a związane z nimi ryzyko można kontrolować”.

Zgodnie z ideą listu otwartego szkolenie systemów AI potężniejszych od GPT-4 powinno zostać zawieszone na 6 miesięcy. Podczas tej przerwy laboratoria sztucznej inteligencji i niezależni eksperci powinni współpracować w celu opracowania i wdrożenia wspólnego zestawu protokołów bezpieczeństwa na potrzeby projektowania i rozwoju zaawansowanej sztucznej inteligencji, pod warunkiem rygorystycznego audytu i nadzoru ze strony niezależnych ekspertów zewnętrznych.

Protokoły te powinny zapewniać, że ich systemy są bezpieczne i ponad wszelką wątpliwość. Nie oznacza to ogólnego moratorium na rozwój sztucznej inteligencji, a jedynie krok wstecz od niebezpiecznego wyścigu w kierunku większych, nieprzewidywalnych modeli czarnej skrzynki.

List został opublikowany na stronie internetowej Instytutu Future of Life, który jest finansowany głównie przez Fundację Musk, Founders Pledge i Fundację Społeczności Doliny Krzemowej, a jego misją jest kierowanie technologiami transformacyjnymi Odejście od ekstremalnych technologii na dużą skalę zagrożeń i ku błogosławionemu życiu.

Już w 2017 roku Instytut Future of Life zgromadził w Kalifornii ponad 100 czołowych myślicieli i badaczy z dziedzin ekonomii, prawa, etyki i filozofii, aby omówić i sformułować zasady korzystnej sztucznej inteligencji. Ostatecznie sformułowali 23 zasady Asilomar dotyczące sztucznej inteligencji, które są uważane za ważne zasady zarządzania sztuczną inteligencją. Pierwsza z nich brzmi: „Celem badań nad sztuczną inteligencją powinno być ustalenie inteligencji korzystnej, a nie inteligencji zakłócającej porządek”.

W przypadku pracowników technologicznych, którzy podpisali ten list otwarty, większość ludzi martwi się, że sztuczna inteligencja rozwija się zbyt szybko, odpowiedni nadzór i przepisy nie nadążają, a nawet wynalazcom brakuje skutecznych metod kontroli. W takich warunkach nieograniczone wykorzystanie sztucznej inteligencji może w przypadku pojawienia się problemów spowodować ryzyko systemowe.

Według magazynu Time Simon Campos, sygnatariusz listu otwartego i dyrektor generalny startupu SaferAI zajmującego się bezpieczeństwem sztucznej inteligencji, stwierdził, że twórcy systemów AI nie wiedzą dokładnie, jak działają i czym są, dlatego nie zarządzają ryzykami systemowymi. Wynalazca ma taką możliwość, ale nie wie, jak ograniczyć zachowanie sztucznej inteligencji.

„Co teraz robimy?” zapytał Campos. „Pracujemy pełną parą, aby rozwinąć te systemy do niespotykanego wcześniej poziomu możliwości i wywrzeć transformacyjny wpływ na społeczeństwo. Musimy spowolnić rozwój tych systemów i pozwolić społeczeństwu się przystosować”.

Zmartwienie Muska: sztuczna inteligencja, której nie można wyłączyć

Musk od dawna obawiał się sztucznej inteligencji Już w 2014 roku Musk publicznie stwierdził w wywiadzie, że powinniśmy bardzo uważać na sztuczną inteligencję. Jeśli mielibyśmy zgadywać, jakie jest największe zagrożenie dla ludzkiej egzystencji, mogłoby to być sztuczne inteligencja. . „Dzięki sztucznej inteligencji ludzie wzywają diabła” – powiedział Musk.

Powiedział również: „Coraz bardziej jestem skłonny sądzić, że powinien istnieć pewien nadzór regulacyjny, być może na poziomie krajowym i międzynarodowym, aby mieć pewność, że nie zrobimy czegoś naprawdę głupiego”.

Musk nie mówi tylko o kwestiach bezpieczeństwa sztucznej inteligencji. Na początku 2015 roku Musk przekazał 7 milionów dolarów instytutowi Future of Life Institute na przeprowadzenie badań mających na celu zapewnienie ludzkości korzyści ze sztucznej inteligencji. Większość stypendystów zajmuje się badaniami nad etyką, zarządzaniem i bezpieczeństwem sztucznej inteligencji. Wielu stypendystów, takich jak Stuart Russell, wzięło udział w podpisywaniu tego listu otwartego.

Jako pierwszy inwestor DeepMind Musk wydaje się mieć nieco ambiwalentne podejście do sztucznej inteligencji. Twierdził jednak, że jego inwestycja nie była podyktowana perspektywą zwrotu z inwestycji, a po prostu chciała zwrócić uwagę na rozwój sztucznej inteligencji, bo może to prowadzić do niebezpiecznych skutków. „Są pewne tragiczne konsekwencje” – powiedział i powinniśmy pracować nad tym, aby mieć pewność, że konsekwencje będą dobre, a nie złe. "

Zły wynik nie polega na tym, że roboty buntują się i unicestwiają ludzi, jak pokazano w filmie. Zamiast tego eksperci martwią się nie świadomością robotów, ale ich możliwościami. Sztuczna inteligencja ma potężną zdolność do osiągania swoich celów, jednak jeśli wymknie się spod kontroli lub odejdzie od zaplanowanego scenariusza użycia, może spowodować nieodwracalne szkody.

Ważna osoba, która podpisała się pod listem otwartym, zdobywca nagrody Turinga Joshua Bengio, nazywany „ojcem chrzestnym sztucznej inteligencji”, od zawsze był zaniepokojony nadużywaniem sztucznej inteligencji. W 2018 r. Bengio był jednym z tysięcy badaczy sztucznej inteligencji, którzy podpisali zobowiązanie przeciwstawienia się rozwojowi broni opartej na sztucznej inteligencji. Wezwał rządy do uregulowania badań nad sztuczną inteligencją i zaprzestania rozwoju śmiercionośnych robotów.

Broń AI jest skrajnym przykładem nadużywania robotów. Broń AI jest skuteczniejsza niż tradycyjna broń, gdy jest używana na polu bitwy. Kiedy jednak wymkną się one spod kontroli, problemy spowodowane bronią sztucznej inteligencji staną się poważniejsze. Aby na polu bitwy nie działać nieprawidłowo w wyniku prostych zakłóceń, obecna broń AI jest często projektowana tak, aby trudno było ją bezpośrednio wyłączyć. Wyobraźcie sobie tragiczne konsekwencje, jeśli wysoce skuteczna broń AI zaprogramowana do atakowania ludzi przypadkowo wpadnie na obszary cywilne.

Tak naprawdę wyłączenie sztucznej inteligencji to problem, którym martwi się wielu ekspertów od podpisów.

Jeśli jednak zastosowanie sztucznej inteligencji będzie rozwijać się zbyt szybko, jej wyłączenie może wiązać się z ogromnymi kosztami i stać się trudne. Musk wyobraził sobie, że jeśli algorytm w systemie wymknie się spod kontroli, menedżerowie będą w stanie go znaleźć. Jeśli jednak systemem tym zarządza duża sztuczna inteligencja, możemy nie być w stanie znaleźć punktu, w którym wymyka się on spod kontroli, lub możemy nie mieć uprawnień, aby zatrzymać działanie całej dużej sztucznej inteligencji. Prosta konserwacja może stać się problemem.

Dlatego sztuczna inteligencja potrzebuje więcej regulacji, a technologia powinna być bardziej demokratyczna, a nie skupiana w rękach dużych firm.

Aby zapobiec koncentracji mocy sztucznej inteligencji w rękach dużych firm, zwłaszcza Google DeepMind, Musk i Sam Altman byli współzałożycielami OpenAI w celu demokratyzacji mocy sztucznej inteligencji i ograniczenia jej możliwości będąc zmonopolizowanym.

To nieco ironiczne, że GPT-4, stworzony przez OpenAI, jest dokładnie tym, czemu obecnie sprzeciwia się Musk. Zaledwie kilka dni temu Musk wdał się w słowną sprzeczkę z dyrektorem generalnym OpenAI Samem Altmanem.

Zatrzymajmy się, „Dopasujmy się”.

Oprócz obaw tych wielkich osobistości, wśród szerszej opinii publicznej od dawna panuje strach przed sztuczną inteligencją.

Wśród nich jest strach przed superinteligentnym komputerem HAL 9000, który zyskał świadomość w filmie science fiction „2001: Odyseja kosmiczna”, ale jest też bardziej praktyczny strach przed chaosem i złymi sytuacjami, które mogą być spowodowane przez AI kontrolująca świat.

W tym liście otwartym jednym z wielokrotnie cytowanych materiałów była bestsellerowa książka „Alignment Problem”, którą chwaliło wiele znanych osobistości w dziedzinie sztucznej inteligencji, w tym kadra kierownicza Microsoftu. Współzałożyciel Instytutu Przyszłości Życia (FLI), który opublikował list otwarty, publicznie pochwalił książkę: „Jest pełna niesamowitych odkryć, nieoczekiwanych przeszkód, genialnych rozwiązań i coraz więcej trudnych pytań o naturę naszego gatunku.” A największym problemem omawianym w tej książce jest: etyka sztucznej inteligencji.

Jednym z najprostszych zagadnień etycznych związanych ze sztuczną inteligencją jest problem spinaczy, jeśli robotowi polecono zrobić jak najwięcej spinaczy, to wyczerpie wszystkie zasoby ziemi i niestrudzenie będzie robił spinacze tak długo, jak to możliwe, ponieważ wykonanie tego zadania jest z tym związane. do swego Nie ma sprzeczności z kodeksem moralnym, wówczas jedyne, co może zrobić, to wykonywać zadania. W długiej historii ludzkości duża liczba norm moralnych, nasz podziw i strach utrwaliły się w naszej kulturze i głęboko zakorzeniły się w umyśle każdego człowieka. Czasami sami nie jesteśmy tego świadomi, a maszyna nie doświadczyła tak długiej historii Ewolucja dzieci, podobnie jak dzieci urodzonych z supermocami, sama w sobie staje się ryzykiem.

Dlatego Brian Christian, autor książki „The Alignment Problem” i autor bestsellerów, który obecnie jest gościnnym pracownikiem naukowym na Uniwersytecie Kalifornijskim w Berkeley, uważa, że ​​konieczne jest staranne, kompleksowe i w czasie rzeczywistym tworzenie sztucznej inteligencji spójność etyki i etyki ludzkiej. W tym sensie ten list otwarty przypomina dział w dużej fabryce, prosząc pracowników, aby przestali robić to, co robią i udali się do sali konferencyjnej: „Dostosujmy się”.

Oczywiście, oprócz omówienia tych pozornie odległych zagadnień, w „Alignment Issues” poruszane są także kwestie, które dzieją się aktualnie.

Stan w Stanach Zjednoczonych używa programu komputerowego do oceny prawdopodobieństwa ponownego popełnienia przestępstwa przez przestępcę, a następnie podejmuje decyzję o zwolnieniu za kaucją i warunkowym zwolnieniu oraz przyznaje kwotę kaucji. Jednak w systemie wydarzyło się coś dziwnego. Borden, który był czarny, został sklasyfikowany jako osoba wysokiego ryzyka, a Platt, który był biały, jako osoba o niskim ryzyku. Dwuletnie śledztwo wykazało, że Borden nigdy tego nie doświadczył jakiekolwiek przestępstwo w ciągu dwóch lat zarzutów, podczas gdy Platt został skazany na osiem lat więzienia za rozbój i kradzież. Oczywiście w ramach dużych zbiorów danych dyskryminacja rasowa ludzi również została przeszczepiona do sztucznej inteligencji – ale kluczowym problemem jest to, że wszyscy myślą, że są noworodkami i jest to sprawiedliwe. W „Kwestiach dotyczących dostosowania” autor wspomniał także o dyskryminacji ze względu na płeć w rekrutacji. Nikt nie ma żadnych ustawień dla sztucznej inteligencji. Jednak w przypadku dużych zbiorów danych dyskryminacja występuje naturalnie.

Sztuczna inteligencja oparta na dużych zbiorach danych może wzmocnić powszechnie ignorowane problemy dyskryminacji i nierówności w naszej grupie etnicznej. Gdy problemy te dostaną się do systemu niezauważone lub uznane za trywialne, utrwalą się. Byłoby to bardzo nieszczęśliwe zakończenie.

Dlatego w komentarzach czytelników do książki „Problemy wyrównania” wiele osób wspomniało o ludziach – sztuczna inteligencja wzmacnia istniejące problemy ludzkości i, co najważniejsze, jakich ludzi sztuczna inteligencja trafi w ręce?

Nie ma prawie żadnych wątpliwości, że sztuczna inteligencja spowoduje ogromny wzrost produktywności, ale podobnie jak w przypadku poprzedniej rewolucji informacyjnej, to potężne narzędzie pracy będzie w dalszym ciągu prowadzić do koncentracji bogactwa – od 1980 r. do dziś 1% najlepiej zarabiających. Udział w dochodach populacji wzrosła z 10% do prawie 20%, podczas gdy udział w dochodach najniższej 50% spadł z 20% w 1980 r. do 12%. Nikt nie jest w stanie sobie wyobrazić, jak te dane będą wyglądać 40 lat po uruchomieniu GPT? Co więcej, jest to narzędzie bardziej prokapitałowe zwiększające produktywność.

Już w lutym tego roku profesor MIT Daron Acemoglu, od dawna zaniepokojony kwestiami sztucznej inteligencji, opublikował artykuł, w którym wspomniał o następującym scenariuszu: firmy zwolnią ludzi z obsługi klienta, duża liczba osób straciła pracę, a konsumenci mogą jedynie zaakceptować elokwentny pracownik, ale obsługa klienta robota nie jest w stanie rozwiązać żadnych problemów. Takie podejście „pozbawi siły pracowników i pogorszy doświadczenia konsumentów, ostatecznie rozczarowując większość inwestorów”.

Ten list otwarty nie jest pierwszym, kiedy ludzie wyrażają obawy dotyczące przyszłości sztucznej inteligencji. W swoim liście otwartym Gates wspomniał także o konieczności zwrócenia uwagi na kwestię równości w epoce sztucznej inteligencji: siły rynkowe nie będą w sposób naturalny. produkować produkty, które pomogą najbiedniejszym ludziom. Dzięki produktom i usługom opartym na sztucznej inteligencji odwrotna możliwość będzie większa.

Już 16 marca Altman wspomniał również z zaniepokojeniem, że „oprogramowanie, które potrafi myśleć i uczyć się, będzie wykonywać coraz więcej pracy, którą wykonują obecnie ludzie. Większa władza zostanie przeniesiona z pracy do kapitału. Jeśli społeczeństwo Bez odpowiednich dostosowań politycznych nie większość ludzi będzie w gorszej sytuacji niż obecnie.”

Dlatego Altman wspomniał, że należy wprowadzić nowy system opodatkowania kapitału, a nie pracy, aby więcej osób mogło dzielić się owocami tej rewolucji sztucznej inteligencji.

Obecnie minie trochę czasu, zanim sztuczna inteligencja stanie się infrastrukturą ludzkiego życia, ale ten czas może się kończyć. Po pojawieniu się GPT-4 możliwości sztucznej inteligencji na dużą skalę poszybowały w górę w „wyścigu zbrojeń”. Zastosowania sztucznej inteligencji mogą wkrótce zostać spopularyzowane we wszystkich aspektach życia, ale nie ma czasu, aby pomagać sztucznej inteligencji w testowaniu bezpieczeństwa i zrozumieniu potrzeb człowieka i ustalić plan regulacyjny. Dlatego też eksperci stojący za tym listem otwartym wzywają do wprowadzenia moratorium na badania nad sztuczną inteligencją na dużą skalę.

Być może, jak powiedział główny naukowiec Microsoftu, Eric Horvitz: Dziś w sztucznej inteligencji na horyzoncie pewne rzeczy są znane, inne nieznane, a środek to drzwi, którymi możemy obserwować świat.