Gubernator Kalifornii Gavin Newsom zawetował gorąco dyskutowany projekt ustawy o sztucznej inteligencji (AI), argumentując, że utrudni on innowacyjność i nie ochroni społeczeństwa przed „rzeczywistymi” zagrożeniami, jakie niesie ze sobą ta technologia.
30 września Newsom zawetował ustawę SB 1047 — znaną jako ustawa o bezpiecznej innowacji dla pionierskich modeli sztucznej inteligencji — która spotkała się ze znacznym sprzeciwem Doliny Krzemowej.
Zaproponowano obowiązkowe testy bezpieczeństwa modeli sztucznej inteligencji i innych zabezpieczeń, ponieważ firmy technologiczne obawiały się, że ograniczy to innowacyjność.
W oświadczeniu z 29 września Newsom stwierdził, że projekt ustawy skupia się zbyt mocno na regulowaniu działalności wiodących firm zajmujących się sztuczną inteligencją, nie chroniąc społeczeństwa przed „rzeczywistymi” zagrożeniami, jakie niesie ze sobą nowa technologia.
„Zamiast tego ustawa stosuje rygorystyczne standardy nawet do najbardziej podstawowych funkcji — o ile duży system je wdraża. Nie sądzę, aby było to najlepsze podejście do ochrony społeczeństwa przed prawdziwymi zagrożeniami, jakie niesie ze sobą ta technologia”.
Projekt ustawy SB 1047, opracowany przez senatora Partii Demokratycznej z San Francisco, Scotta Wienera, wymagałby również od deweloperów w Kalifornii — w tym takich dużych firm jak twórca ChatGPT, OpenAI, Meta i Google — wdrożenia „wyłącznika awaryjnego” dla ich modeli AI i opublikowania planów łagodzenia ekstremalnych ryzyk.
Gdyby projekt ustawy wszedł w życie, twórcy sztucznej inteligencji podlegaliby również pozwom wytoczonym przez prokuratora generalnego stanu w przypadku trwałego zagrożenia ze strony takich modeli, jak przejęcie sieci AI.
Newsom powiedział, że poprosił wiodących na świecie ekspertów ds. bezpieczeństwa AI o pomoc Kalifornii w „opracowaniu praktycznych zabezpieczeń”, które skupiają się na tworzeniu „analizy trajektorii opartej na nauce”. Dodał, że nakazał agencjom stanowym rozszerzenie oceny ryzyka związanego z potencjalnymi katastrofalnymi zdarzeniami wynikającymi z rozwoju AI.
Mimo że Newsom zawetował ustawę SB 1047, stwierdził, że należy przyjąć odpowiednie protokoły bezpieczeństwa dla sztucznej inteligencji, dodając, że organy regulacyjne nie mogą sobie pozwolić na „czekanie na wystąpienie poważnej katastrofy przed podjęciem działań w celu ochrony społeczeństwa”.
Newsom dodał, że w ciągu ostatnich 30 dni jego administracja podpisała ponad 18 projektów ustaw dotyczących regulacji sztucznej inteligencji.
Politycy i wielkie firmy technologiczne sprzeciwiają się ustawie o bezpieczeństwie sztucznej inteligencji
Projekt ustawy nie cieszył się popularnością wśród prawodawców, doradców i dużych firm technologicznych w okresie poprzedzającym decyzję Newsome'a.
Przewodnicząca Izby Reprezentantów Nancy Pelosi i firmy takie jak OpenAI stwierdziły, że znacznie utrudni to rozwój sztucznej inteligencji.
Szef polityki AI w Abundance Institute, Neil Chilson, ostrzegł, że chociaż ustawa dotyczy głównie modeli o określonym koszcie i rozmiarze — modeli kosztujących ponad 100 milionów dolarów — jej zakres można łatwo rozszerzyć, aby objąć nim również mniejszych deweloperów.
Ale niektórzy są otwarci na projekt ustawy. Miliarder Elon Musk — który rozwija swój własny model AI nazwany „Grok” jest jednym z niewielu liderów technologicznych opowiadających się za projektem ustawy i szerszym wprowadzeniem regulacji AI.
W poście z 26 sierpnia na portalu X Musk stwierdził, że „Kalifornia prawdopodobnie powinna uchwalić ustawę SB 1047 dotyczącą bezpieczeństwa sztucznej inteligencji”, ale przyznał, że poparcie ustawy było „trudną decyzją”.
Magazyn: Zaawansowany system AI jest już „samoświadomy” — założyciel ASI Alliance