Kecerdasan buatan (AI) baru-baru ini menimbulkan kehebohan karena kemungkinannya merevolusi cara manusia mendekati dan menyelesaikan berbagai tugas dan masalah kompleks. Dari layanan kesehatan hingga keuangan, AI dan model pembelajaran mesin terkait telah menunjukkan potensinya untuk menyederhanakan proses yang rumit, meningkatkan pola pengambilan keputusan, dan mengungkap wawasan berharga.
Namun, terlepas dari potensi teknologi yang sangat besar, masalah “kotak hitam” yang masih ada terus menghadirkan tantangan yang signifikan dalam penerapan teknologi ini, sehingga menimbulkan pertanyaan mengenai transparansi dan interpretasi sistem canggih ini.
Singkatnya, masalah kotak hitam berasal dari kesulitan memahami bagaimana sistem AI dan model pembelajaran mesin memproses data dan menghasilkan prediksi atau keputusan. Model-model ini sering kali mengandalkan algoritme rumit yang tidak mudah dipahami manusia, sehingga menyebabkan kurangnya akuntabilitas dan kepercayaan.
Oleh karena itu, seiring dengan semakin terintegrasinya AI ke dalam berbagai aspek kehidupan kita, mengatasi masalah ini sangatlah penting untuk memastikan penggunaan teknologi canggih ini secara bertanggung jawab dan etis.
Kotak hitam: Gambaran umum
Metafora “kotak hitam” berasal dari gagasan bahwa sistem AI dan model pembelajaran mesin beroperasi dengan cara yang tersembunyi dari pemahaman manusia, seperti isi kotak yang tertutup dan buram. Sistem ini dibangun berdasarkan model matematika yang kompleks dan kumpulan data berdimensi tinggi, yang menciptakan hubungan dan pola rumit yang memandu proses pengambilan keputusan. Namun, cara kerja bagian dalam ini tidak mudah diakses atau dipahami oleh manusia.
Secara praktis, masalah kotak hitam AI adalah kesulitan dalam menguraikan alasan di balik prediksi atau keputusan sistem AI. Masalah ini sangat umum terjadi pada model pembelajaran mendalam seperti jaringan saraf, di mana beberapa lapisan node yang saling berhubungan memproses dan mengubah data secara hierarkis. Rumitnya model-model ini dan transformasi non-linier yang dilakukannya membuat penelusuran alasan di balik keluarannya menjadi sangat sulit.
Nikita Brudnov, CEO BR Group – dasbor analisis pemasaran berbasis AI – mengatakan kepada Cointelegraph bahwa kurangnya transparansi dalam cara model AI mengambil keputusan dan prediksi tertentu dapat menjadi masalah dalam banyak konteks, seperti diagnosis medis, pengambilan keputusan keuangan, dan proses hukum, yang secara signifikan berdampak pada kelanjutan adopsi AI.
Majalah: Joe Lubin: Kebenaran tentang perpecahan pendiri ETH dan 'Google Kripto'
“Dalam beberapa tahun terakhir, banyak perhatian telah diberikan pada pengembangan teknik untuk menafsirkan dan menjelaskan keputusan yang dibuat oleh model AI, seperti menghasilkan skor kepentingan fitur, memvisualisasikan batasan keputusan, dan mengidentifikasi penjelasan hipotetis yang kontrafaktual,” katanya, sambil menambahkan:
“Namun, teknik ini masih dalam tahap awal, dan tidak ada jaminan bahwa teknik ini akan efektif dalam semua kasus.”
Brudnov lebih lanjut percaya bahwa dengan desentralisasi lebih lanjut, regulator mungkin memerlukan keputusan yang dibuat oleh sistem AI agar lebih transparan dan akuntabel guna memastikan validitas etika dan keadilan secara keseluruhan. Ia juga menyatakan bahwa konsumen mungkin ragu untuk menggunakan produk dan layanan yang didukung AI jika mereka tidak memahami cara kerja dan proses pengambilan keputusan.
Kotak hitam. Sumber: Investopedia
James Wo, pendiri DFG – sebuah perusahaan investasi yang secara aktif berinvestasi dalam teknologi terkait AI – percaya bahwa masalah kotak hitam tidak akan memengaruhi adopsi teknologi di masa mendatang. Namun, sebagian besar pengguna tidak terlalu peduli dengan cara kerja model AI yang ada dan dengan senang hati memanfaatkannya, setidaknya untuk saat ini.
“Dalam jangka menengah, setelah kebaruan platform ini memudar, pasti akan ada lebih banyak skeptisisme terhadap metodologi kotak hitam. Pertanyaan juga akan meningkat ketika penggunaan AI memasuki kripto dan Web3, di mana ada risiko finansial dan konsekuensi yang perlu dipertimbangkan,” akunya.
Dampaknya terhadap kepercayaan dan transparansi
Salah satu bidang yang tidak adanya transparansi dapat berdampak besar pada kepercayaan adalah diagnostik medis berbasis AI. Misalnya, model AI dapat menganalisis data medis yang kompleks dalam layanan kesehatan untuk menghasilkan diagnosis atau rekomendasi pengobatan. Namun, ketika dokter dan pasien tidak dapat memahami alasan di balik saran-saran ini, mereka mungkin mempertanyakan keandalan dan validitas wawasan ini. Skeptisisme ini selanjutnya dapat menyebabkan keragu-raguan dalam mengadopsi solusi AI, yang berpotensi menghambat kemajuan dalam perawatan pasien dan pengobatan yang dipersonalisasi.
Di bidang keuangan, sistem AI dapat digunakan untuk penilaian kredit, deteksi penipuan, dan penilaian risiko. Namun, masalah kotak hitam dapat menimbulkan ketidakpastian mengenai keadilan dan keakuratan nilai kredit atau alasan di balik peringatan penipuan, sehingga membatasi kemampuan teknologi untuk mendigitalkan industri.
Industri kripto juga menghadapi dampak dari masalah kotak hitam. Misalnya, aset digital dan teknologi blockchain berakar pada desentralisasi, keterbukaan, dan kemampuan verifikasi. Sistem AI yang kurang transparan dan dapat ditafsirkan akan membentuk keterputusan antara ekspektasi pengguna dan realitas solusi berbasis AI di bidang ini.
Masalah peraturan
Dari sudut pandang regulasi, masalah kotak hitam AI menghadirkan tantangan yang unik. Sebagai permulaan, ketidakjelasan proses AI dapat mempersulit regulator untuk menilai kepatuhan sistem ini terhadap peraturan dan pedoman yang ada. Selain itu, kurangnya transparansi dapat mempersulit kemampuan regulator untuk mengembangkan kerangka kerja baru yang dapat mengatasi risiko dan tantangan yang ditimbulkan oleh penerapan AI.
Para pembuat undang-undang mungkin kesulitan untuk mengevaluasi keadilan, bias, dan praktik privasi data sistem AI, serta potensi dampaknya terhadap hak-hak konsumen dan stabilitas pasar. Selain itu, tanpa pemahaman yang jelas tentang proses pengambilan keputusan dalam sistem berbasis AI, regulator mungkin menghadapi kesulitan dalam mengidentifikasi potensi kerentanan dan memastikan adanya perlindungan yang tepat untuk memitigasi risiko.
Salah satu perkembangan peraturan penting mengenai teknologi ini adalah Undang-Undang Kecerdasan Buatan Uni Eropa, yang semakin dekat untuk menjadi bagian dari undang-undang blok tersebut setelah mencapai kesepakatan politik sementara pada tanggal 27 April.
Pada intinya, UU AI bertujuan untuk menciptakan lingkungan yang dapat dipercaya dan bertanggung jawab bagi pengembangan AI di UE. Anggota parlemen telah mengadopsi sistem klasifikasi yang mengkategorikan berbagai jenis AI berdasarkan risiko: tidak dapat diterima, tinggi, terbatas, dan minimal. Kerangka kerja ini dirancang untuk mengatasi berbagai permasalahan terkait masalah kotak hitam AI, termasuk permasalahan seputar transparansi dan akuntabilitas.
Ketidakmampuan untuk memantau dan mengatur sistem AI secara efektif telah menimbulkan ketegangan dalam hubungan antara berbagai industri dan badan pengawas.
Awal bulan lalu, chatbot AI yang populer, ChatGPT, dilarang di Italia selama 29 hari, terutama karena masalah privasi yang diajukan oleh badan perlindungan data negara tersebut atas dugaan pelanggaran terhadap Peraturan Perlindungan Data Umum (GDPR) UE. Namun, platform tersebut diizinkan untuk melanjutkan layanannya pada tanggal 29 April setelah CEO Sam Altman mengumumkan bahwa dia dan timnya telah mengambil langkah-langkah spesifik untuk memenuhi tuntutan regulator, termasuk pengungkapan praktik pemrosesan data dan implementasi penerapan usia- tindakan gerbang.
Regulasi sistem AI yang tidak memadai dapat mengikis kepercayaan masyarakat terhadap penerapan AI karena pengguna semakin khawatir akan bias, ketidakakuratan, dan implikasi etika yang melekat.
Mengatasi masalah kotak hitam
Untuk mengatasi masalah kotak hitam AI secara efektif, penerapan kombinasi pendekatan yang mendorong transparansi, interpretasi, dan akuntabilitas sangatlah penting. Dua strategi yang saling melengkapi adalah AI yang dapat dijelaskan (XAI) dan model sumber terbuka.
XAI adalah bidang penelitian yang didedikasikan untuk menjembatani kesenjangan antara kompleksitas sistem AI dan kebutuhan akan kemampuan interpretasi manusia. XAI berfokus pada pengembangan teknik dan algoritme yang dapat memberikan penjelasan yang dapat dipahami manusia atas keputusan yang didorong oleh AI, dan menawarkan wawasan tentang alasan di balik pilihan tersebut.
Metode yang sering digunakan di XAI mencakup model pengganti, analisis kepentingan fitur, analisis sensitivitas, dan penjelasan agnostik model lokal yang dapat ditafsirkan. Penerapan XAI di seluruh industri dapat membantu pemangku kepentingan lebih memahami proses berbasis AI, meningkatkan kepercayaan terhadap teknologi, dan memfasilitasi kepatuhan terhadap persyaratan peraturan.
Bersamaan dengan XAI, mendorong penerapan model AI sumber terbuka dapat menjadi strategi yang efektif untuk mengatasi masalah kotak hitam. Model sumber terbuka memberikan akses penuh ke algoritma dan data yang menggerakkan sistem AI, memungkinkan pengguna dan pengembang untuk meneliti dan memahami proses yang mendasarinya.
Peningkatan transparansi ini dapat membantu membangun kepercayaan dan mendorong kolaborasi antara pengembang, peneliti, dan pengguna. Selain itu, pendekatan sumber terbuka dapat menciptakan sistem AI yang lebih kuat, akuntabel, dan efektif.
Masalah kotak hitam di ruang kripto
Masalah kotak hitam memiliki konsekuensi yang signifikan terhadap berbagai aspek ruang kripto, termasuk strategi perdagangan, prediksi pasar, langkah-langkah keamanan, tokenisasi, dan kontrak pintar.
Dalam bidang strategi perdagangan dan prediksi pasar, model berbasis AI semakin populer seiring investor berupaya memanfaatkan perdagangan algoritmik. Namun, masalah kotak hitam menghalangi pemahaman pengguna tentang cara kerja model ini, sehingga sulit untuk menilai efektivitas dan potensi risikonya. Akibatnya, ketidakjelasan ini juga dapat mengakibatkan kepercayaan yang tidak beralasan terhadap keputusan investasi berbasis AI atau membuat investor terlalu bergantung pada sistem otomatis.
AI memainkan peran penting dalam meningkatkan langkah-langkah keamanan dalam ekosistem blockchain dengan mendeteksi transaksi penipuan dan aktivitas mencurigakan. Namun demikian, masalah kotak hitam mempersulit proses verifikasi untuk solusi keamanan berbasis AI ini. Kurangnya transparansi dalam pengambilan keputusan dapat mengikis kepercayaan terhadap sistem keamanan, sehingga meningkatkan kekhawatiran mengenai kemampuan sistem dalam melindungi aset dan informasi pengguna.
Terbaru: Konsensus 2023: Dunia usaha menunjukkan minat terhadap Web3, meskipun ada tantangan peraturan di AS
Tokenisasi dan kontrak pintar – dua komponen penting dari ekosistem blockchain – juga menyaksikan peningkatan integrasi AI. Namun, masalah kotak hitam dapat mengaburkan logika di balik token yang dihasilkan AI atau eksekusi kontrak pintar.
Ketika AI merevolusi berbagai industri, mengatasi masalah kotak hitam menjadi semakin mendesak. Dengan membina kolaborasi antara peneliti, pengembang, pembuat kebijakan, dan pemangku kepentingan industri, solusi dapat dikembangkan untuk mendorong transparansi, akuntabilitas, dan kepercayaan pada sistem AI. Oleh karena itu, menarik untuk melihat bagaimana paradigma teknologi baru ini terus berkembang.
