Sumber gambar: Dihasilkan oleh alat AI Tanpa Batas

Dua minggu setelah peluncuran GPT-4, sebuah surat terbuka yang ditandatangani oleh Elon Musk dan ribuan orang di industri teknologi dirilis secara online. Surat terbuka tersebut menyerukan kepada semua laboratorium kecerdasan buatan untuk segera menangguhkan pelatihan sistem kecerdasan buatan yang lebih kuat dari GPT-4 setidaknya selama 6 bulan.

Salah satu pendiri Apple Steve Wozniak, pemenang Turing Award Yoshua Bengio, dan salah satu penulis buku teks AI "Artificial Intelligence: A Modern Approach" Stuart Russell Stuart Russell dan tokoh teknologi terkenal lainnya telah menandatangani surat terbuka ini.

Surat terbuka tersebut menyatakan bahwa "AI yang canggih mungkin berarti perubahan besar dalam sejarah kehidupan di bumi, dan kita harus menginvestasikan perhatian dan sumber daya yang sepadan dalam perencanaan dan pengelolaannya." Namun kini kecerdasan buatan sudah tidak terkendali lagi. dan pengembang tidak dapat memprediksi dan mengontrolnya dengan andal.

Surat terbuka tersebut juga menyebutkan bahwa sistem kecerdasan buatan kontemporer kini menjadi kompetitif dengan manusia dalam tugas-tugas umum. “Sistem kecerdasan buatan yang kuat hanya boleh dikembangkan jika kita yakin bahwa dampaknya positif dan risikonya dapat dikendalikan.”

Menurut gagasan surat terbuka tersebut, pelatihan sistem AI yang lebih kuat dari GPT-4 harus ditangguhkan selama 6 bulan. Selama jeda ini, laboratorium AI dan pakar independen harus bekerja sama untuk mengembangkan dan menerapkan serangkaian protokol keamanan bersama untuk desain dan pengembangan AI tingkat lanjut, yang harus melalui audit ketat dan pengawasan oleh pakar eksternal independen.

Protokol-protokol ini harus memastikan bahwa sistem mereka aman dan tidak diragukan lagi. Hal ini tidak berarti moratorium pengembangan AI secara umum, hanya sebuah langkah mundur dari perlombaan berbahaya menuju model kotak hitam yang lebih besar dan tidak dapat diprediksi.

Surat tersebut diposting di situs Future of Life Institute, yang sebagian besar didanai oleh Musk Foundation, Founders Pledge, dan Silicon Valley Community Foundation, dan misinya adalah untuk memandu teknologi transformatif risiko dan menuju kehidupan yang penuh berkah.

Pada awal tahun 2017, Future of Life Institute mengumpulkan lebih dari 100 pemimpin pemikiran dan peneliti di bidang ekonomi, hukum, etika, dan filsafat untuk berkumpul di California guna mendiskusikan dan merumuskan prinsip-prinsip kecerdasan buatan yang bermanfaat. Pada akhirnya mereka merumuskan 23 Prinsip Kecerdasan Buatan Asilomar yang dianggap sebagai prinsip penting dalam tata kelola kecerdasan buatan. Yang pertama adalah "Tujuan penelitian kecerdasan buatan haruslah menghasilkan kecerdasan yang bermanfaat, bukan kecerdasan yang tidak teratur."

Bagi para pekerja teknologi yang menandatangani surat terbuka ini, sebagian besar orang khawatir bahwa AI berkembang terlalu cepat, pengawasan dan undang-undang yang relevan tidak sejalan, dan bahkan para penemunya tidak memiliki metode pengendalian yang efektif. Dalam kondisi seperti ini, penggunaan AI yang tidak dibatasi kemungkinan besar akan menimbulkan risiko sistemik jika timbul masalah.

Menurut Majalah Time, Simon Campos, salah satu penandatangan surat terbuka dan CEO startup keamanan kecerdasan buatan SaferAI, mengatakan bahwa penemu sistem AI tidak tahu persis cara kerjanya atau apa itu, sehingga kegagalan dalam mengelola risiko sistem. Penemunya mempunyai kemampuan untuk melakukannya, namun tidak tahu bagaimana membatasi perilaku AI.

"Apa yang kita lakukan sekarang?" kata Campos. “Kami bekerja dengan kecepatan penuh untuk memperluas sistem ini ke tingkat kemampuan yang belum pernah terjadi sebelumnya dan memberikan dampak transformatif pada masyarakat. Kita harus memperlambat pengembangan sistem ini dan memungkinkan masyarakat untuk beradaptasi.”

Kekhawatiran Musk: AI yang tidak bisa dimatikan

Musk telah lama mewaspadai AI. Sejak tahun 2014, Musk secara terbuka menyatakan dalam sebuah wawancara bahwa kita harus sangat berhati-hati terhadap kecerdasan buatan. Jika kita harus menebak apa ancaman terbesar terhadap keberadaan manusia, hal itu mungkin adalah buatan intelijen. “Dengan kecerdasan buatan, manusia memanggil iblis,” kata Musk.

Dia juga berkata, "Saya semakin cenderung berpikir harus ada pengawasan peraturan, mungkin di tingkat nasional dan internasional, hanya untuk memastikan kita tidak melakukan sesuatu yang sangat bodoh."

Musk tidak hanya berbicara tentang masalah keamanan AI. Pada awal tahun 2015, Musk mendonasikan US$7 juta kepada Future of Life Institute untuk melakukan penelitian yang bertujuan membuat AI bermanfaat bagi umat manusia. Sebagian besar penerima hibah terlibat dalam penelitian mengenai etika, tata kelola, dan keamanan AI. Banyak penerima hibah, seperti Stuart Russell, berpartisipasi dalam penandatanganan surat terbuka ini.

Sebagai investor awal di DeepMind, Musk tampaknya agak ambivalen terhadap AI. Namun ia mengaku investasinya bukan dari segi return on investment, melainkan hanya ingin memperhatikan perkembangan kecerdasan buatan, karena dapat menimbulkan akibat yang berbahaya. Ada beberapa konsekuensi yang mengerikan, katanya, dan kita harus berupaya memastikan konsekuensinya baik, bukan buruk. "

Akibat buruknya bukanlah robot memberontak dan memusnahkan manusia, seperti yang digambarkan dalam film. Sebaliknya, para ahli tidak khawatir tentang kesadaran robot, tapi tentang kemampuan mereka. AI memiliki kemampuan yang kuat untuk mencapai tujuannya, namun jika AI lepas kendali atau menyimpang dari skenario penggunaan yang direncanakan, AI dapat menyebabkan kerusakan permanen.

Orang penting yang menandatangani surat terbuka tersebut, pemenang Turing Award Joshua Bengio, yang dikenal sebagai "Godfather of AI", selalu prihatin dengan penyalahgunaan kecerdasan buatan. Pada tahun 2018, Bengio adalah salah satu dari ribuan peneliti kecerdasan buatan yang menandatangani janji untuk menentang pengembangan senjata AI. Dia meminta pemerintah untuk mengatur penelitian kecerdasan buatan dan menghentikan pengembangan robot mematikan.

Senjata AI adalah contoh ekstrim penyalahgunaan robot. Senjata AI lebih efisien dibandingkan senjata tradisional saat digunakan di medan perang. Namun, begitu lepas kendali, masalah yang ditimbulkan oleh senjata kecerdasan buatan akan menjadi lebih serius. Di medan perang, agar tidak mengalami kegagalan fungsi jika terjadi gangguan sederhana, senjata AI saat ini seringkali dirancang agar sulit untuk dimatikan secara langsung. Bayangkan konsekuensi tragis jika senjata AI yang sangat efektif yang diprogram untuk menyerang manusia secara tidak sengaja jatuh ke wilayah sipil.

Faktanya, cara mematikan AI adalah masalah yang dikhawatirkan oleh banyak pakar tanda tangan.

Namun jika penerapan AI berkembang terlalu cepat, mematikannya mungkin memerlukan biaya besar dan menjadi sulit. Musk membayangkan bahwa jika suatu algoritma menjadi tidak terkendali dalam suatu sistem, para manajer dapat menemukannya. Namun jika sistem ini dikelola oleh AI besar, kita mungkin tidak dapat menemukan titik di mana sistem tersebut berada di luar kendali, atau kita mungkin tidak memiliki wewenang untuk menghentikan pengoperasian seluruh AI besar. Perawatan sederhana bisa menjadi masalah.

Inilah sebabnya mengapa AI memerlukan lebih banyak regulasi dan teknologi harus lebih demokratis daripada terkonsentrasi di tangan perusahaan-perusahaan besar.

Untuk mencegah kekuatan AI terkonsentrasi di tangan perusahaan besar, terutama Google DeepMind, Musk dan Sam Altman mendirikan OpenAI dengan tujuan mendemokratisasi kekuatan kecerdasan buatan dan mengurangi kemungkinan terjadinya AI dimonopoli.

Ini agak ironis. GPT-4, yang dibuat oleh OpenAI, justru ditentang oleh Musk. Beberapa hari yang lalu, Musk bertengkar verbal dengan CEO OpenAI Sam Altman.

Berhenti, "Mari kita selaras."

Selain kekhawatiran dari perusahaan-perusahaan besar ini, di kalangan masyarakat luas, terdapat ketakutan yang sudah lama ada terhadap AI.

Diantaranya, ada ketakutan terhadap komputer super cerdas HAL 9000 yang muncul dalam film fiksi ilmiah "2001: A Space Odyssey", dan ada juga ketakutan yang lebih praktis terhadap kekacauan dan situasi buruk yang mungkin ditimbulkan olehnya. AI mengendalikan dunia.

Dalam surat terbuka tersebut, salah satu materi yang berkali-kali dikutip adalah buku terlaris "Alignment Problem" yang dipuji oleh banyak nama besar di bidang kecerdasan buatan, termasuk para eksekutif Microsoft. Salah satu pendiri Future of Life Institute (FLI), yang menerbitkan surat terbuka tersebut, secara terbuka memuji buku tersebut: "Ini penuh dengan penemuan menakjubkan, hambatan tak terduga, solusi cerdik, dan banyak lagi pertanyaan sulit tentang sifat spesies kita.” Dan permasalahan terbesar yang dibahas dalam buku itu adalah: etika kecerdasan buatan.

Salah satu masalah etika kecerdasan buatan yang paling sederhana adalah masalah penjepit kertas. Jika sebuah robot diperintahkan untuk membuat penjepit kertas sebanyak-banyaknya, maka ia akan menghabiskan seluruh sumber daya yang ada di muka bumi dan tanpa kenal lelah membuat penjepit kertas selama mungkin, karena menyelesaikan tugas ini berkaitan dengan hal tersebut. Karena tidak ada konflik dengan kode moral, maka yang bisa dilakukan hanyalah menjalankan tugas. Dalam sejarah panjang umat manusia, sejumlah besar norma moral, kekaguman dan ketakutan kita telah tertanam dalam budaya kita dan mengakar kuat di benak setiap orang. Terkadang kita sendiri tidak menyadarinya, dan sebuah mesin belum mengalami sejarah yang begitu panjang Evolusi anak, seperti anak yang lahir dengan kekuatan super, menjadi resiko tersendiri.

Oleh karena itu, Brian Christian, penulis buku "The Alignment Problem" dan penulis buku terlaris yang kini menjadi peneliti tamu di University of California, Berkeley, percaya bahwa pembuatan AI perlu dilakukan secara hati-hati, komprehensif, dan real-time. keselarasan etika dan etika manusia. Dalam pengertian ini, surat terbuka ini seperti sebuah departemen di sebuah pabrik besar yang meminta karyawannya untuk menghentikan apa yang mereka lakukan dan pergi ke ruang konferensi, "Mari kita menyelaraskan diri."

Tentu saja, selain membahas isu-isu yang terkesan jauh tersebut, “Alignment Issues” juga membahas isu-isu yang sedang terjadi saat ini.

Sebuah negara bagian di Amerika Serikat menggunakan program komputer untuk menilai kemungkinan penjahat melakukan pelanggaran kembali, kemudian memutuskan jaminan dan pembebasan bersyarat, dan mengalokasikan jumlah obligasi. Namun, sesuatu yang aneh terjadi dalam sistem. Borden, yang berkulit hitam, dinilai berisiko tinggi, dan Platt, yang berkulit putih, dinilai berisiko rendah. Investigasi lanjutan selama dua tahun terhadap keduanya menemukan bahwa Borden tidak pernah mengalaminya kejahatan apa pun dalam dua tahun tersebut, sementara Platt dijatuhi hukuman delapan tahun penjara karena perampokan dan pencurian. Tentu saja, dalam big data, diskriminasi rasial pada manusia juga telah diterapkan pada AI - namun masalah utamanya adalah semua orang menganggap mereka adalah bayi yang baru lahir dan hal ini wajar. Dalam "Alignment Issues", penulis juga menyebutkan diskriminasi gender dalam perekrutan. Tidak ada yang memiliki pengaturan untuk AI, namun dalam big data, diskriminasi secara alami terjadi.

Kecerdasan buatan berdasarkan data besar dapat memperkuat isu-isu diskriminasi dan ketidaksetaraan yang banyak diabaikan dalam kelompok etnis kita. Ketika isu-isu ini masuk ke dalam sistem tanpa diperhatikan atau dianggap sepele, maka hal ini akan menjadi semakin parah.

Oleh karena itu, dalam komentar pembaca buku "Alignment Problems", banyak orang menyebut manusia - AI memperburuk masalah umat manusia yang ada, dan yang terpenting, orang seperti apa yang akan ditangani AI?

Hampir tidak ada keraguan bahwa AI akan menghasilkan peningkatan produktivitas yang besar, namun seperti revolusi informasi sebelumnya, alat tenaga kerja yang kuat ini akan semakin mengarah pada konsentrasi kekayaan – dari tahun 1980 hingga saat ini, 1% orang yang berpenghasilan teratas Bagi hasil jumlah penduduk telah meningkat dari 10% menjadi hampir 20%, sementara pangsa pendapatan kelompok 50% terbawah telah turun dari 20% pada tahun 1980 menjadi 12%. Tidak ada yang bisa membayangkan seperti apa data ini 40 tahun setelah GPT diluncurkan? Terlebih lagi, ini adalah alat produktivitas yang lebih pro-modal.

Pada awal Februari tahun ini, profesor MIT Daron Acemoglu, yang telah lama prihatin dengan masalah kecerdasan buatan, menerbitkan sebuah artikel yang menyebutkan skenario berikut: perusahaan memecat layanan pelanggan manusia, banyak orang kehilangan pekerjaan, dan konsumen hanya dapat menerima seorang karyawan yang fasih. Tetapi layanan layanan pelanggan robot tidak dapat menyelesaikan masalah apa pun. Pendekatan seperti itu "akan melemahkan dan melemahkan karyawan serta menurunkan pengalaman konsumen, yang pada akhirnya mengecewakan sebagian besar investor".

Surat terbuka ini bukan pertama kalinya masyarakat menyatakan keprihatinannya terhadap masa depan kecerdasan buatan. Dalam surat terbukanya, Gates juga menyebutkan perlunya memperhatikan isu kesetaraan di era kecerdasan buatan: kekuatan pasar tidak akan terjadi secara alami. menghasilkan produk yang membantu masyarakat termiskin. Dengan produk dan layanan kecerdasan buatan, kemungkinan sebaliknya akan lebih besar.

Pada awal 16 Maret, Altman juga menyebutkan dengan prihatin bahwa "perangkat lunak yang dapat berpikir dan belajar akan melakukan lebih banyak pekerjaan yang dilakukan orang sekarang. Lebih banyak kekuasaan akan ditransfer dari tenaga kerja ke modal. Jika masyarakat Tanpa penyesuaian kebijakan yang sesuai, kebanyakan orang akan mengalami keadaan yang lebih buruk daripada sekarang."

Oleh karena itu, Altman menyebutkan bahwa sistem baru perlu diperkenalkan pada pajak modal, bukan pajak tenaga kerja, sehingga lebih banyak orang dapat menikmati hasil dari revolusi kecerdasan buatan ini.

Saat ini, AI memerlukan waktu untuk menjadi infrastruktur kehidupan manusia, namun hal ini mungkin akan segera berakhir. Setelah kemunculan GPT-4, kemampuan AI skala besar telah melonjak dalam "perlombaan senjata". Penerapan AI mungkin akan segera dipopulerkan di semua aspek kehidupan, namun tidak ada waktu untuk membantu AI menguji keamanan dan memahami kebutuhan manusia , dan menetapkan rencana peraturan. Inilah sebabnya para ahli di balik surat terbuka ini menyerukan moratorium penelitian AI skala besar.

Mungkin, seperti yang dikatakan kepala ilmuwan Microsoft Eric Horvitz: Saat ini, dalam kecerdasan buatan di cakrawala, ada beberapa hal yang diketahui, beberapa hal tidak diketahui, dan bagian tengahnya adalah pintu yang tersisa bagi kita untuk mengamati dunia.