Sains & Teknologi

Ilmuwan AI Terkemuka Memperingatkan akan Melepaskan Risiko di Luar Kendali Manusia

Ilmuwan AI terkemuka telah mengeluarkan seruan agar para pemimpin international mengambil tindakan segera, dan mengkritik kurangnya kemajuan sejak AI Security Summit yang lalu. Mereka mengusulkan kebijakan yang ketat untuk mengatur pengembangan AI dan mencegah penyalahgunaannya, dengan menekankan potensi AI melebihi kemampuan manusia dan menimbulkan risiko besar. Kredit: SciTechDaily.com

Pakar AI memperingatkan kurangnya tindakan international terhadap risiko AI, dan menganjurkan tata kelola yang ketat untuk mencegah potensi bencana.

Para ilmuwan AI terkemuka mendesak para pemimpin dunia untuk mengambil tindakan yang lebih tegas terhadap risiko AI, dengan menekankan bahwa kemajuan yang dicapai sejak AI Security Summit pertama di Bletchley Park enam bulan lalu masih belum memadai.

Pada pertemuan puncak awal tersebut, para pemimpin international berkomitmen untuk mengelola AI secara bertanggung jawab. Namun, dengan semakin dekatnya KTT Keamanan AI kedua di Seoul (21-22 Mei), dua puluh lima peneliti AI terkemuka menegaskan bahwa upaya yang dilakukan saat ini tidak cukup untuk melindungi dari bahaya yang ditimbulkan oleh teknologi tersebut. Dalam makalah konsensus yang diterbitkan hari ini (20 Mei) di jurnal Sainsmereka mengusulkan langkah-langkah kebijakan mendesak yang perlu diterapkan untuk melawan ancaman dari teknologi AI.

Profesor Philip Torr, Departemen Ilmu Teknik, Universitas Oxford, salah satu penulis makalah ini, mengatakan: “Dunia sepakat pada pertemuan puncak AI terakhir bahwa kita memerlukan tindakan, namun sekarang saatnya beralih dari proposal yang tidak jelas ke komitmen yang nyata. Makalah ini memberikan banyak rekomendasi penting mengenai komitmen apa yang harus dilakukan oleh perusahaan dan pemerintah.”

Respons Dunia Belum Sesuai Rencana Menghadapi Potensi Kemajuan AI yang Pesat

Menurut penulis makalah ini, sangat penting bagi para pemimpin dunia untuk mempertimbangkan dengan serius kemungkinan bahwa sistem AI generalis yang sangat kuat—yang melebihi kemampuan manusia di banyak bidang penting—akan dikembangkan dalam dekade ini atau dekade mendatang. Mereka mengatakan bahwa meskipun pemerintah di seluruh dunia telah membahas AI terdepan dan melakukan beberapa upaya untuk memperkenalkan pedoman awal, hal ini tidak sebanding dengan kemungkinan kemajuan pesat dan transformatif yang diharapkan oleh banyak ahli.

Penelitian saat ini mengenai keamanan AI masih sangat kurang, dengan perkiraan hanya 1-3% publikasi AI mengenai keselamatan. Selain itu, kita tidak memiliki mekanisme atau institusi untuk mencegah penyalahgunaan dan kecerobohan, termasuk penggunaan sistem otonom yang mampu mengambil tindakan dan mencapai tujuan secara mandiri.

Pakar AI Terkemuka Dunia Mengeluarkan Ajakan Bertindak

Sehubungan dengan hal ini, komunitas internasional pionir AI telah mengeluarkan seruan mendesak untuk bertindak. Rekan penulisnya termasuk Geoffrey Hinton, Andrew Yao, Daybreak Music, mendiang Daniel Kahneman; whole 25 pakar akademis terkemuka dunia di bidang AI dan tata kelolanya. Para penulisnya berasal dari AS, Tiongkok, UE, Inggris, dan kekuatan AI lainnya, termasuk pemenang penghargaan Turing, peraih Nobel, dan penulis buku teks AI standar.

Artikel ini adalah pertama kalinya sekelompok ahli internasional menyepakati prioritas bagi pembuat kebijakan international mengenai risiko dari sistem AI yang canggih.

Prioritas Mendesak untuk Tata Kelola AI

Para penulis merekomendasikan pemerintah untuk:

  • Membentuk lembaga-lembaga ahli yang bertindak cepat dalam pengawasan AI dan menyediakan dana yang jauh lebih besar daripada yang seharusnya mereka terima berdasarkan rencana kebijakan apa pun saat ini. Sebagai perbandingan, Institut Keamanan AI AS saat ini memiliki anggaran tahunan sebesar $10 juta, sedangkan Badan Pengawas Obat dan Makanan AS (FDA) memiliki anggaran sebesar $6,7 miliar.
  • Mewajibkan penilaian risiko yang lebih ketat dengan konsekuensi yang dapat ditegakkan, daripada mengandalkan evaluasi mannequin yang bersifat sukarela atau tidak ditentukan secara spesifik.
  • Mewajibkan perusahaan AI untuk memprioritaskan keselamatan, dan untuk menunjukkan bahwa sistem mereka tidak dapat menimbulkan bahaya. Hal ini termasuk penggunaan “kasus keselamatan” (digunakan untuk teknologi penting lainnya seperti penerbangan) yang mengalihkan beban untuk menunjukkan keselamatan kepada pengembang AI.
  • Menerapkan standar mitigasi yang sepadan dengan tingkat risiko yang ditimbulkan oleh sistem AI. Prioritas mendesaknya adalah menetapkan kebijakan yang secara otomatis terpicu ketika AI mencapai tonggak kemampuan tertentu. Jika AI berkembang pesat, persyaratan yang ketat secara otomatis akan berlaku, namun jika kemajuan melambat, persyaratan tersebut akan dilonggarkan.

Menurut penulis, agar sistem AI di masa depan memiliki kemampuan yang luar biasa, pemerintah harus siap untuk memimpin dalam bidang regulasi. Hal ini termasuk memberikan izin pengembangan sistem-sistem tersebut, membatasi otonomi sistem-sistem tersebut dalam peran-peran penting di masyarakat, menghentikan pengembangan dan penerapan sistem-sistem tersebut sebagai respons terhadap kemampuan yang mengkhawatirkan, mewajibkan kontrol akses, dan mewajibkan langkah-langkah keamanan informasi yang kuat terhadap peretas tingkat negara bagian, hingga perlindungan yang memadai siap.

Dampak AI Bisa Menjadi Bencana Besar

AI telah mencapai kemajuan pesat dalam bidang-bidang penting seperti peretasan, manipulasi sosial, dan perencanaan strategis, dan mungkin akan segera menimbulkan tantangan pengendalian yang belum pernah terjadi sebelumnya. Untuk mencapai tujuan yang tidak diinginkan, sistem AI dapat memperoleh kepercayaan manusia, memperoleh sumber daya, dan memengaruhi pengambil keputusan utama. Untuk menghindari campur tangan manusia, mereka mungkin dapat menyalin algoritme mereka di seluruh jaringan server international. Kejahatan dunia maya berskala besar, manipulasi sosial, dan dampak buruk lainnya dapat meningkat dengan cepat. Dalam konflik terbuka, sistem AI dapat secara mandiri mengerahkan berbagai senjata, termasuk senjata biologis. Oleh karena itu, terdapat kemungkinan yang sangat besar bahwa kemajuan AI yang tidak terkendali dapat berujung pada hilangnya nyawa dan biosfer dalam skala besar, serta marginalisasi atau kepunahan umat manusia.

Stuart Russell OBE, Profesor Ilmu Komputer di College of California di Berkeley dan penulis buku teks standar dunia tentang AI, mengatakan: “Ini adalah makalah konsensus yang dibuat oleh para ahli terkemuka, dan memerlukan peraturan ketat dari pemerintah, bukan peraturan sukarela. perilaku yang ditulis oleh industri. Saatnya untuk serius dengan sistem AI yang canggih. Ini bukan mainan. Meningkatkan kemampuan mereka sebelum kita memahami bagaimana membuat mereka aman adalah tindakan yang sangat sembrono. Perusahaan akan mengeluh bahwa terlalu sulit untuk memenuhi peraturan—bahwa “peraturan menghambat inovasi.” Itu konyol. Ada lebih banyak peraturan di toko sandwich dibandingkan dengan perusahaan AI.”

Referensi: “Mengelola risiko AI yang ekstrem di tengah kemajuan pesat” oleh Yoshua Bengio, Geoffrey Hinton, Andrew Yao, Daybreak Music, Pieter Abbeel, Trevor Darrell, Yuval Noah Harari, Ya-Qin Zhang, Lan Xue, Shai Shalev-Shwartz, Gillian Hadfield, Jeff Clune, Tegan Maharaj, Frank Hutter, Atılım Güneş Baydin, Sheila McIlraith, Qiqi Gao, Ashwin Acharya, David Krueger, Anca Dragan, Philip Torr, Stuart Russell, Daniel Kahneman, Jan Brauner dan Sören Mindermann, 20 Mei 2024, Sains.
DOI: 10.1126/science.adn0117

Related Articles

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Back to top button
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.