Para Pemimpin AI Mengeluarkan Peringatan 'Risiko Kepunahan' dalam Surat Terbuka

Center for AI Safety (CAIS) baru-baru ini merilis pernyataan yang ditandatangani oleh tokoh-tokoh terkemuka di bidang kecerdasan buatan, menyoroti potensi bahaya yang ditimbulkan oleh teknologi terhadap umat manusia.

Pernyataan tersebut menegaskan bahwa “mitigasi risiko kepunahan akibat AI harus menjadi prioritas global, di samping risiko-risiko skala sosial lainnya seperti pandemi dan perang nuklir.”

Peneliti terkenal dan pemenang Turing Award, termasuk Geoffery Hinton dan Yoshua Bengio, serta eksekutif dari OpenAI dan DeepMind, seperti Sam Altman, Ilya Sutskever, dan Demis Hassabis, semuanya telah menandatangani pernyataan tersebut.

Tujuan dari surat CAIS adalah untuk memulai diskusi seputar risiko mendesak yang terkait dengan AI. Surat tersebut mendapat dukungan dan kritik dari industri yang lebih luas. Hal ini menyusul surat terbuka sebelumnya yang ditandatangani oleh Elon Musk, Steve Wozniak, dan lebih dari 1.000 pakar lainnya, yang menyerukan penghentian pengembangan AI yang “tidak terkendali”.

Meskipun singkat, pernyataan terbaru ini tidak memberikan rincian spesifik mengenai definisi AI atau menawarkan strategi konkrit untuk memitigasi risiko. Namun, CAIS mengklarifikasi dalam siaran persnya bahwa tujuannya adalah untuk membentuk perlindungan dan institusi yang secara efektif mengelola risiko AI.

CEO OpenAI Sam Altman telah aktif terlibat dengan para pemimpin global, mengadvokasi peraturan AI. Saat tampil di hadapan Senat baru-baru ini, Altman berulang kali mendesak anggota parlemen untuk mengatur industri ini secara ketat. Pernyataan CAIS tersebut sejalan dengan upayanya untuk meningkatkan kesadaran tentang bahaya AI.

Meskipun surat terbuka tersebut telah menarik perhatian, beberapa pakar etika AI mengkritik tren mengeluarkan pernyataan semacam itu.

Sasha Luccioni, seorang ilmuwan penelitian pembelajaran mesin, berpendapat bahwa menyebutkan risiko hipotetis AI bersama dengan risiko nyata seperti pandemi dan perubahan iklim akan meningkatkan kredibilitas risiko tersebut sekaligus mengalihkan perhatian dari isu-isu mendesak seperti bias, tantangan hukum, dan persetujuan.

Daniel Jeffries, seorang penulis dan futuris, berpendapat bahwa membahas risiko AI telah menjadi permainan status, di mana individu ikut-ikutan tanpa menimbulkan kerugian nyata.

Kritikus berpendapat bahwa menandatangani surat terbuka tentang ancaman di masa depan memungkinkan mereka yang bertanggung jawab atas kerugian AI saat ini untuk meringankan rasa bersalah mereka sambil mengabaikan masalah etika yang terkait dengan teknologi AI yang sudah digunakan.

Namun, CAIS, sebuah organisasi nirlaba yang berbasis di San Francisco, tetap fokus pada pengurangan risiko AI dalam skala sosial melalui penelitian teknis dan advokasi. Organisasi ini didirikan bersama oleh para ahli dengan latar belakang ilmu komputer dan sangat tertarik pada keamanan AI.

Meskipun beberapa peneliti khawatir akan munculnya AI supercerdas yang melampaui kemampuan manusia dan menimbulkan ancaman nyata, peneliti lain berpendapat bahwa menandatangani surat terbuka tentang skenario hari kiamat yang hipotetis mengalihkan perhatian dari dilema etika yang ada seputar AI. Mereka menekankan perlunya mengatasi permasalahan nyata yang ditimbulkan oleh AI saat ini, seperti pengawasan, algoritma yang bias, dan pelanggaran hak asasi manusia.

Menyeimbangkan kemajuan AI dengan penerapan dan regulasi yang bertanggung jawab tetap menjadi tugas penting bagi para peneliti, pembuat kebijakan, dan pemimpin industri.