AI līderi atklātā vēstulē izsaka brīdinājumu par “izmiršanas risku”.
AI drošības centrs (CAIS) nesen nācis klajā ar paziņojumu, ko parakstījušas ievērojamas personas mākslīgā intelekta jomā, uzsverot iespējamās briesmas, ko šī tehnoloģija rada cilvēcei.
Paziņojumā apgalvots, ka "MI izzušanas riska mazināšanai ir jābūt globālai prioritātei līdzās citiem sabiedriska mēroga riskiem, piemēram, pandēmijām un kodolkaram."
Paziņojumu ir parakstījuši slaveni pētnieki un Tjūringa balvas ieguvēji, tostarp Džoferijs Hintons un Jošua Bengio, kā arī OpenAI un DeepMind vadītāji, piemēram, Sems Altmens, Iļja Sutskevers un Demiss Hassabis.
CAIS vēstules mērķis ir uzsākt diskusijas par steidzamiem riskiem, kas saistīti ar AI. Vēstule ir guvusi gan atbalstu, gan kritiku plašākā nozarē. Tas seko iepriekšējai atklātajai vēstulei, kuru parakstīja Elons Masks, Stīvs Vozņaks un vairāk nekā 1000 citu ekspertu, kuri aicināja apturēt mākslīgā intelekta "ārpus kontroles" attīstību.
Neskatoties uz tā īsumu, nesenajā paziņojumā nav sniegta konkrēta informācija par mākslīgā intelekta definīciju vai piedāvātas konkrētas stratēģijas risku mazināšanai. Tomēr CAIS paziņojumā presei paskaidroja, ka tās mērķis ir izveidot drošības pasākumus un institūcijas, kas efektīvi pārvalda AI riskus.
OpenAI izpilddirektors Sems Altmans ir aktīvi sadarbojies ar pasaules līderiem, iestājoties par AI noteikumiem. Nesen uzstājoties Senātā, Altmans vairākkārt mudināja likumdevējus stingri regulēt nozari. CAIS paziņojums atbilst viņa centieniem palielināt izpratni par AI briesmām.
Lai gan atklātā vēstule ir piesaistījusi uzmanību, daži AI ētikas eksperti ir kritizējuši šādu paziņojumu izplatīšanas tendenci.
Dr. Sasha Luccioni, mašīnmācības pētniece, norāda, ka hipotētisku mākslīgā intelekta risku pieminēšana līdzās tādiem taustāmiem riskiem kā pandēmijas un klimata pārmaiņas palielina pirmo uzticamību, vienlaikus novēršot uzmanību no tādiem tūlītējiem jautājumiem kā aizspriedumi, juridiski izaicinājumi un piekrišana.
Daniels Džefrijs, rakstnieks un futūrists, apgalvo, ka AI risku apspriešana ir kļuvusi par statusa spēli, kurā indivīdi dodas uz bandwagon, neradot nekādas reālas izmaksas.
Kritiķi apgalvo, ka atklātu vēstuļu parakstīšana par nākotnes draudiem ļauj tiem, kas ir atbildīgi par pašreizējo AI kaitējumu, mazināt savu vainu, vienlaikus ignorējot ētiskās problēmas, kas saistītas ar jau izmantotajām AI tehnoloģijām.
Tomēr CAIS, Sanfrancisko bāzēta bezpeļņas organizācija, joprojām koncentrējas uz AI radīto sabiedrības mēroga risku samazināšanu, veicot tehnisko izpēti un aizstāvību. Organizāciju līdzdibināja eksperti ar datorzinātņu pieredzi un lielu interesi par AI drošību.
Lai gan daži pētnieki baidās no superinteliģenta AI parādīšanās, kas pārspēj cilvēka spējas un rada eksistenciālus draudus, citi apgalvo, ka atklātu vēstuļu parakstīšana par hipotētiskiem pastardienas scenārijiem novērš uzmanību no esošajām ētiskajām dilemmām, kas saistītas ar AI. Viņi uzsver nepieciešamību risināt reālās problēmas, ko AI rada mūsdienās, piemēram, novērošana, neobjektīvi algoritmi un cilvēktiesību pārkāpumi.
Mākslīgā intelekta attīstības līdzsvarošana ar atbildīgu ieviešanu un regulēšanu joprojām ir būtisks pētnieku, politikas veidotāju un nozares vadītāju uzdevums.