
Divas nedēļas pēc GPT-4 izlaišanas tiešsaistē tika publicēta atklāta vēstule, kuru parakstīja Elons Masks un tūkstošiem cilvēku tehnoloģiju nozarē. Atklātajā vēstulē visas mākslīgā intelekta laboratorijas tiek aicinātas nekavējoties vismaz uz 6 mēnešiem apturēt par GPT-4 jaudīgāku mākslīgā intelekta sistēmu apmācību.
Apple līdzdibinātājs Stīvs Vozņaks, Tjūringa balvas ieguvējs Jošua Bengio un AI mācību grāmatas "Mākslīgais intelekts: mūsdienīga pieeja" līdzautors Stjuarts Rasels Stjuarts Rasels un citi pazīstami tehnoloģiju pārstāvji ir parakstījuši šo atklāto vēstuli.
Atklātajā vēstulē tiek apgalvots, ka "progresīvs mākslīgais intelekts var nozīmēt pamatīgas izmaiņas Zemes dzīves vēsturē, un mums būtu jāiegulda proporcionāla uzmanība un resursi tās plānošanā un pārvaldībā, taču tagad mākslīgais intelekts ir iekritis ārpus kontroles." un izstrādātāji to nevar droši paredzēt un kontrolēt.
Atklātajā vēstulē arī minēts, ka mūsdienu mākslīgā intelekta sistēmas kļūst konkurētspējīgas ar cilvēkiem, veicot vispārīgus uzdevumus: "Jaudīgas mākslīgā intelekta sistēmas ir jāattīsta tikai tad, ja esam pārliecināti, ka to ietekme ir pozitīva un to riski ir kontrolējami."
Saskaņā ar atklātās vēstules ideju par GPT-4 jaudīgāku AI sistēmu apmācība būtu jāpārtrauc uz 6 mēnešiem. Šīs pauzes laikā mākslīgā intelekta laboratorijām un neatkarīgiem ekspertiem ir jāsadarbojas, lai izstrādātu un ieviestu kopīgu drošības protokolu kopumu progresīvai mākslīgā intelekta izstrādei un izstrādei, ko rūpīgi pārbauda un uzrauga neatkarīgi ārējie eksperti.
Šiem protokoliem jānodrošina, ka to sistēmas ir drošas un nerada pamatotas šaubas. Tas nenozīmē moratoriju AI attīstībai kopumā, tikai soli atpakaļ no bīstamās sacīkstes uz lielākiem, neparedzamiem melnās kastes modeļiem.
Vēstule tika ievietota Future of Life institūta tīmekļa vietnē, ko galvenokārt finansē Musk Foundation, Founders Pledge un Silicon Valley Community Foundation, un tās misija ir virzīt pārveidojošās tehnoloģijas risku un ceļā uz svētīgu dzīvi.
Jau 2017. gadā Future of Life institūts sasauca vairāk nekā 100 domu līderus un pētniekus ekonomikas, tiesību, ētikas un filozofijas jomās, lai pulcētos Kalifornijā, lai apspriestu un formulētu izdevīga mākslīgā intelekta principus. Galu galā viņi formulēja 23 Asilomar mākslīgā intelekta principus, kas tiek uzskatīti par svarīgiem mākslīgā intelekta pārvaldības principiem. Pirmais no tiem ir "Mākslīgā intelekta izpētes mērķim jābūt labvēlīga intelekta, nevis nesakārtota intelekta izveidei."
Tehnoloģiju darbiniekiem, kuri parakstīja šo atklāto vēstuli, lielākā daļa cilvēku ir noraizējušies par to, ka mākslīgais intelekts attīstās pārāk ātri, attiecīgā uzraudzība un likumi nav ievēroti, un pat izgudrotājiem trūkst efektīvu kontroles metožu. Šādos apstākļos neierobežota AI izmantošana var radīt sistēmiskus riskus, ja rodas problēmas.
Saskaņā ar Time Magazine, atklātās vēstules parakstītājs un mākslīgā intelekta drošības starta uzņēmuma SaferAI izpilddirektors Saimons Kamposs sacīja, ka AI sistēmu izgudrotāji nezina, kā tieši tās darbojas un kas tās ir, tāpēc sistēmas risku nespēja pārvaldīt. Izgudrotājam ir iespēja to izdarīt, bet viņš nezina, kā ierobežot AI uzvedību.
"Ko mēs tagad darām?" Campos teica. "Mēs strādājam pilnā ātrumā, lai paplašinātu šīs sistēmas līdz nepieredzētam spēju līmenim un tām būtu pārveidojoša ietekme uz sabiedrību. Mums ir jāpalēnina šo sistēmu attīstība un jāļauj sabiedrībai pielāgoties."
Muskuss uztraucas: AI, ko nevar izslēgt
Musks ir bijis piesardzīgs pret mākslīgo intelektu jau 2014. gadā intervijā, ka mums vajadzētu būt ļoti uzmanīgiem attiecībā uz mākslīgo intelektu, ja mums vajadzētu uzminēt, kas ir lielākais drauds cilvēka eksistencei inteliģence. "Ar mākslīgo intelektu cilvēki izsauc velnu," sacīja Musks.
Viņš arī sacīja: "Es arvien vairāk sliecos domāt, ka vajadzētu būt noteiktai regulatīvās uzraudzībā, iespējams, valsts un starptautiskā līmenī, lai tikai pārliecinātos, ka mēs nedarām kaut ko patiešām stulbu."
Musks nerunā tikai par AI drošības jautājumiem. 2015. gada sākumā Musks ziedoja 7 miljonus ASV dolāru Dzīvības nākotnes institūtam, lai veiktu pētījumus, kuru mērķis ir radīt AI labumu cilvēcei. Lielākā daļa grantu saņēmēju ir iesaistīti MI ētikas, pārvaldības un drošības izpētē. Daudzi grantu saņēmēji, piemēram, Stjuarts Rasels, piedalījās šīs atklātās vēstules parakstīšanā.
Būdams agrīns DeepMind investors, Musks šķiet neviennozīmīgs attiecībā uz AI. Bet viņš apgalvoja, ka viņa ieguldījums nebija no ieguldījumu atdeves viedokļa, bet tikai gribēja pievērst uzmanību mākslīgā intelekta attīstībai, jo tas var novest pie bīstamiem rezultātiem. Viņš teica, ka ir dažas briesmīgas sekas, un mums jāstrādā, lai pārliecinātos, ka sekas ir labas, nevis sliktas. "
Sliktais iznākums nav tas, ka roboti saceļas un iznīcina cilvēkus, kā tas attēlots filmā. Tā vietā eksperti uztraucas nevis par robotu apziņu, bet gan par viņu iespējām. AI ir spēcīga spēja sasniegt savus mērķus, taču, ja tas kļūst nekontrolējams vai novirzās no plānotā lietošanas scenārija, tas var radīt neatgriezeniskus bojājumus.
Svarīga persona, kas parakstīja atklāto vēstuli, Tjūringa balvas ieguvējs Džošua Bengio, kas pazīstams kā "AI krusttēvs", vienmēr ir bijis noraizējies par mākslīgā intelekta ļaunprātīgu izmantošanu. 2018. gadā Bengio bija viens no tūkstošiem mākslīgā intelekta pētnieku, kas parakstīja solījumu iebilst pret mākslīgā intelekta ieroču izstrādi. Viņš aicināja valdības regulēt mākslīgā intelekta izpēti un apturēt nāvējošu robotu attīstību.
AI ieroči ir ārkārtējs robotu ļaunprātīgas izmantošanas piemērs. AI ieroči ir efektīvāki par tradicionālajiem ieročiem, ja tos izmanto kaujas laukā. Taču, tiklīdz vairs nebūs kontroles, mākslīgā intelekta ieroču radītās problēmas būs nopietnākas. Lai kaujas laukā vienkārši traucējumi nedarbotos nepareizi, pašreizējie mākslīgā intelekta ieroči bieži ir izstrādāti tā, lai tos būtu grūti tieši izslēgt. Iedomājieties traģiskās sekas, ja ļoti efektīvi AI ieroči, kas ieprogrammēti uzbrukumam cilvēkiem, nejauši iekrīt civilajās teritorijās.
Faktiski AI atslēgšana ir problēma, par kuru uztraucas daudzi parakstu eksperti.
Bet, ja AI lietojumprogramma attīstās pārāk ātri, tās izslēgšana var prasīt milzīgas izmaksas un kļūt sarežģīta. Musks ir iedomājies, ka, ja algoritms sistēmā kļūst nekontrolējams, vadītāji var to atrast. Bet, ja šo sistēmu pārvalda liela mēroga AI, mēs, iespējams, nevarēsim atrast vietu, kur tā ir ārpus kontroles, vai arī mums var nebūt pilnvaru apturēt visa liela mēroga AI darbību. Vienkārša apkope var kļūt par problēmu.
Tāpēc mākslīgajam intelektam ir vajadzīgs lielāks regulējums, un tehnoloģijai ir jābūt demokrātiskākai, nevis koncentrētai lielo uzņēmumu rokās.
Lai nepieļautu mākslīgā intelekta spēka koncentrēšanos lielo uzņēmumu rokās, īpaši Google DeepMind, Musks un Sems Altmans līdzdibināja OpenAI, lai demokratizētu mākslīgā intelekta spēku un samazinātu AI iespējas tiek monopolizēts.
Tas ir nedaudz ironiski, un tas ir tieši tas, ko Musk pašlaik iebilst. Tikai pirms dažām dienām Musks mutiski sarunājās ar OpenAI izpilddirektoru Semu Altmanu.
Pietura, "Līdzināsim".
Papildus šo lielo puišu bažām plašākā sabiedrībā ir bijušas ilgstošas bailes no AI.
Tostarp bailes no superinteliģentā datora HAL 9000, kas guvis apziņu zinātniskās fantastikas filmā "2001: Kosmosa odiseja", kā arī praktiskākas bailes no haosa un sliktajām situācijām, ko var izraisīt AI kontrolē pasauli.
Šajā atklātajā vēstulē viens no daudzkārt citētajiem materiāliem bija visvairāk pārdotā grāmata "Izlīdzināšanas problēma", ko slavēja daudzi lieli vārdi mākslīgā intelekta jomā, tostarp Microsoft vadītāji. Dzīves nākotnes institūta (FLI) līdzdibinātājs, kurš publicēja atklāto vēstuli, publiski atzinīgi novērtēja grāmatu: "Tā ir pilna ar pārsteidzošiem atklājumiem, negaidītiem šķēršļiem, ģeniāliem risinājumiem un arvien vairāk un citu sarežģītu jautājumu par tās būtību mūsu suga." Un lielākā problēma, kas apspriesta šajā grāmatā, ir: mākslīgā intelekta ētika.
Viens no vienkāršākajiem mākslīgā intelekta ētikas jautājumiem ir saspraudes problēma Ja robotam tiek uzdots izgatavot pēc iespējas vairāk saspraužu, tas izsmēs visus zemes resursus un nenogurstoši padarīs saspraudes pēc iespējas ilgāk, jo šī uzdevuma izpilde ir saistīta. uz savu Nav pretrunu ar morāles kodeksu, tad viss, ko tā var darīt, ir veikt uzdevumus. Cilvēces garajā vēsturē daudzas morāles normas, mūsu bijība un bailes ir nostiprinājušās mūsu kultūrā un dziļi iesakņojušās ikviena prātā. Dažreiz mēs paši to neapzināmies, un mašīna nav piedzīvojusi tik ilgu vēsturi Bērnu evolūcija, tāpat kā bērni, kas dzimuši ar lielvarām, paši par sevi kļūst par risku.
Tāpēc Braiens Kristians, grāmatas "The Alignment Problem" autors un bestselleru autors, kurš tagad ir vieszinātnieks Kalifornijas Universitātē Bērklijā, uzskata, ka ir nepieciešams rūpīgi, vispusīgi un reāllaikā izveidot AI. ētika un cilvēka ētika ir saskaņota. Šajā ziņā šī atklātā vēstule ir kā nodaļa lielajā rūpnīcā, kas aicina darbiniekus pārtraukt to, ko viņi dara, un doties uz konferenču zāli: "Izlīdzināsimies."
Protams, bez šo šķietami attālo jautājumu apspriešanas "Saskaņošanas jautājumos" tiek apspriesti arī jautājumi, kas šobrīd notiek.
Kāds ASV štats izmanto datorprogrammu, lai novērtētu noziedznieku atkārtotas likumpārkāpuma iespējamību, pēc tam lemj par drošības naudu un nosacītu pirmstermiņa atbrīvošanu un piešķir obligāciju summas. Tomēr sistēmā notika kaut kas dīvains, ka Bordens, kurš bija melnādains, tika novērtēts kā augsta riska pakāpe, un Platts, kurš bija balts, tika novērtēts kā zems risks jebkuru noziegumu divu gadu laikā, savukārt Platam tika piespriests astoņu gadu cietumsods par laupīšanu un zādzību. Acīmredzot, izmantojot lielos datus, AI ir pārstādīta arī cilvēku rasu diskriminācija, taču galvenā problēma ir tā, ka visi domā, ka viņi ir jaundzimuši bērni, un tas ir godīgi. Sadaļā "Saskaņošanas jautājumi" autors pieminēja arī dzimumu diskrimināciju darbā ar mākslīgo intelektu. Tomēr lielo datu gadījumā diskriminācija notiek.
Mākslīgais intelekts, kas balstīts uz lielajiem datiem, var pastiprināt mūsu etniskās grupas diskriminācijas un nevienlīdzības jautājumus, kas tiek plaši ignorēti.
Tāpēc lasītāju komentāros par grāmatu “Izlīdzināšanas problēmas” daudzi pieminēja cilvēkus – AI pastiprina esošās cilvēces problēmas, un, galvenais, kādu cilvēku rokās AI tiks nodots?
Nav gandrīz nekādu šaubu, ka mākslīgais intelekts radīs milzīgu produktivitātes pieaugumu, taču, tāpat kā iepriekšējā informācijas revolūcijā, šis spēcīgais darba instruments vēl vairāk novedīs pie bagātības koncentrēšanās — no 1980. gada līdz mūsdienām, 1% lielākais pelnītāju ienākumu daļa. iedzīvotāju ir pieaudzis no 10 % līdz gandrīz 20 %, savukārt zemāko 50 % ienākumu daļa ir samazinājusies no 20 % 1980. gadā līdz 12 %. Neviens nevar iedomāties, kā šie dati izskatīsies 40 gadus pēc GPT ieviešanas? Turklāt šis ir vairāk kapitāla produktivitātes rīks.
Jau šī gada februārī MIT profesors Darons Acemoglu, kurš jau sen ir noraizējies par mākslīgā intelekta problēmām, publicēja rakstu, kurā minēts šāds scenārijs: uzņēmumi atlaida klientu apkalpošanu, liels skaits cilvēku zaudēja darbu, un patērētāji var tikai samierināties. daiļrunīgs darbinieks, bet robots klientu apkalpošanas dienests nevar atrisināt nekādas problēmas. Šāda pieeja "atņems darbiniekus un pasliktinās patērētāju pieredzi, galu galā sagādājot vilšanos lielākajai daļai investoru".
Šī atklātā vēstule nav pirmā reize, kad cilvēki pauž bažas par mākslīgā intelekta nākotni. Geitss savā atklātajā vēstulē pieminēja arī nepieciešamību pievērst uzmanību vienlīdzības jautājumam mākslīgā intelekta laikmetā: tirgus spēki dabiski nenotiks. ražot produktus, kas palīdz nabadzīgākajiem cilvēkiem, izmantojot mākslīgā intelekta produktus un pakalpojumus, pretējā iespēja būs lielāka.
Jau 16. martā Altmans arī ar bažām minēja, ka "programmatūra, kas spēj domāt un mācīties, paveiks arvien vairāk tā darba, ko cilvēki dara tagad. Vairāk varas tiks pārnestas no darbaspēka uz kapitālu. Ja sabiedrība Bez attiecīgiem politikas pielāgojumiem lielākā daļa cilvēku nonāks sliktāk nekā tagad."
Tāpēc Altmans minēja, ka ir jāievieš jauna sistēma, lai apliktu ar nodokli kapitālu, nevis darbaspēku, lai vairāk cilvēku varētu dalīties ar šīs mākslīgā intelekta revolūcijas augļiem.
Pašlaik paies zināms laiks, lai mākslīgais intelekts kļūtu par cilvēka dzīves infrastruktūru, taču šis laiks var izsīkt. Pēc GPT-4 parādīšanās liela mēroga mākslīgā intelekta iespējas ir strauji pieaugušas "bruņošanās sacīkstēs", iespējams, drīzumā tiks popularizētas visos dzīves aspektos, taču nav laika palīdzēt AI pārbaudīt drošību, izprast cilvēku vajadzības. , un noteikt regulējošos plānus. Tāpēc šīs atklātās vēstules eksperti aicina noteikt moratoriju liela mēroga AI pētījumiem.
Iespējams, kā teica Microsoft galvenais zinātnieks Ēriks Horvics: šodien mākslīgajā intelektā pie apvāršņa dažas lietas ir zināmas, dažas lietas nav zināmas, un vidus ir durvis, kas mums ir atstātas, lai mēs varētu novērot pasauli.