Vairāk nekā 2600 tehnoloģiju vadītāju un pētnieku ir parakstījuši atklātu vēstuli, aicinot uz laiku apturēt mākslīgā intelekta (AI) turpmāko attīstību, baidoties no "dziļajiem riskiem sabiedrībai un cilvēcei".

Tesla izpilddirektors Elons Masks, Apple līdzdibinātājs Stīvs Vozņaks un virkne mākslīgā intelekta vadītāju, CTO un pētnieku bija starp parakstītājiem vēstulei, kuras autors bija Amerikas Savienoto Valstu domnīca Future of Life Institute (FOLI) 22. martā.

Institūts aicināja visus AI uzņēmumus "nekavējoties pārtraukt" apmācību AI sistēmām, kas ir jaudīgākas par GPT-4, vismaz uz sešiem mēnešiem, daloties bažās par to, ka "cilvēku konkurētspējīgā inteliģence var radīt nopietnus riskus sabiedrībai un cilvēcei". :

“Uzlabota mākslīgā inteliģence varētu būt dziļa pārmaiņa dzīves vēsturē uz Zemes, un tai vajadzētu tikt plānotai un pārvaldītai ar attiecīgu rūpību un resursiem. Diemžēl šāda plānošana un pārvaldība nenotiek,” institūts rakstīja savā vēstulē.

GPT-4 ir jaunākā OpenAI mākslīgās inteliģences čatbota versija, kas tika laista klajā 14. martā. Līdz šim tā ir izgājusi dažus no vissarežģītākajiem ASV vidusskolas un likuma eksāmeniem 90. procentilā. Tiek uzskatīts, ka tā ir 10 reizes attīstītāka nekā oriģinālā ChatGPT versija.

Pastāv “kontroles zaudēšanas sacensība” starp mākslīgās inteliģences uzņēmumiem, lai izstrādātu jaudīgāku AI, ko “neviens – pat viņu radītāji – nevar saprast, prognozēt vai uzticami kontrolēt,” apgalvoja FOLI.

Starp galvenajām bažām bija jautājums, vai mašīnas varētu pārpludināt informācijas kanālus, iespējams, ar “propagandu un nepatiesībām”, un vai mašīnas “automātiski novērsīs” visas nodarbinātības iespējas.

FOLI ņēma šīs bažas soli tālāk, ierosinot, ka šo AI uzņēmumu uzņēmējdarbības centieni var novest pie eksistenciāla drauda:

“Vai mums vajadzētu attīstīt necilvēku prātus, kas beigu beigās varētu pārspēt, apsteigt, novecot un aizstāt mūs? Vai mums vajadzētu riskēt ar civilizācijas kontroles zaudēšanu?”

“Tādas lēmumu pieņemšanas nevajadzētu deleģēt neievēlētiem tehnoloģiju līderiem,” piebilda vēstule.

Institūts arī piekrita nesenai paziņojumam no OpenAI dibinātāja Sama Altmana, ka pirms nākotnes AI sistēmu apmācības var būt nepieciešama neatkarīga pārbaude.

Altmans savā 24. februāra emuāra ierakstā izcēla nepieciešamību sagatavoties mākslīgajai vispārējai inteliģencei (AGI) un mākslīgajai superinteliģencei (ASI) robotiem.

Ne visi AI eksperti ir steigušies parakstīt petīciju. Bens Gērtsels, uzņēmuma SingularityNET izpilddirektors, paskaidroja 29. martā Twitter atbildē Gariem Markusam, Rebooting.AI autoram, ka valodas mācīšanās modeļi (LLM) nekļūs par AGI, kas, līdz šim, ir bijusi tikai nedaudz attīstība.

Tā vietā viņš sacīja, ka pētījumiem un attīstībai vajadzētu palēnināties attiecībā uz tādām lietām kā bioloģiskie ieroči un kodolieroči:

Papildus valodas mācīšanās modeļiem, piemēram, ChatGPT, AI vadītā dziļās viltošanas tehnoloģija ir izmantota, lai radītu pārliecinošus attēlus, audio un video mānijas. Tehnoloģija ir izmantota arī, lai radītu AI ģenerētus mākslas darbus, un ir izteiktas bažas par to, vai tā varētu pārkāpt autortiesību likumus noteiktos gadījumos.

Galaxy Digital izpilddirektors Maiks Novograts nesen teica investoriem, ka viņš bija pārsteigts par to, cik daudz regulatīvās uzmanības ir pievērsts kriptovalūtām, kamēr maz ir pievērsts mākslīgajai inteliģencei.

“Kad es domāju par AI, mani pārsteidz, ka mēs tik daudz runājam par kriptovalūtu regulēšanu un nekas par AI regulēšanu. Es domāju, ka valdība to ir pilnīgi apgriezusi kājām gaisā,” viņš izteicās akcionāru sapulcē 28. martā.

FOLI ir apgalvojusi, ka, ja AI attīstības pauze netiks ātri ieviesta, valdībām vajadzētu iesaistīties ar moratoriju.

“Šai pauzei jābūt publiskai un pārbaudāmai, un tajā jāiekļauj visi galvenie dalībnieki. Ja šādu pauzi nevar ātri ieviest, valdībām vajadzētu iejaukties un ieviest moratoriju,” tā rakstīja.