
(SeaPRwire) – Dalam beberapa tahun terakhir, kecerdasan buatan telah menjadi pembicaraan hangat di kalangan masyarakat. Setiap model AI baru mengungkapkan inovasi luar biasa yang menyaingi versi yang dirilis hanya beberapa minggu sebelumnya. Para ahli, pengembang, dan CEO perusahaan AI membuat klaim berani tentang lintasan masa depan, dari pekerjaan berat dan dalam umur panjang manusia hingga potensi terhadap kemanusiaan.
Jika semua orang berbicara tentang AI, itu sebagian karena publikasi inovasi tersebut telah menghasilkan pendapatan yang tumbuh secara eksponensial bagi perusahaan yang mengembangkan model-model tersebut. Namun seiring AI menjadi lebih cepat, lebih mampu, lebih kompleks, percakapan publik itu dapat dengan cepat dipindahkan di balik pintu tertutup. Perusahaan AI semakin banyak menyebarkan model AI di dalam organisasi mereka sendiri, dan kemungkinan besar mereka akan segera merasa untuk menyimpan model masa depan mereka yang paling kuat untuk penggunaan internal. Namun keputusan yang tampaknya tidak berbahaya ini dapat menimbulkan ancaman serius bagi masyarakat luas, seperti yang dijelaskan di bawah ini.
Sebagian besar perusahaan AI terkemuka telah secara terbuka menyatakan niat mereka untuk mengembangkan model AI yang kompeten seperti manusia dalam semua tugas kognitif, yang dapat menghasilkan triliunan dolar nilai ekonomi. Dengan keyakinan yang umum saat ini akan menuju kecerdasan umum buatan (AGI), keuntungan strategis potensial dari model yang sangat canggih mungkin segera mendorong perusahaan untuk memanfaatkan model mereka secara rahasia dan internal untuk meningkatkan kemajuan teknis—tetapi memberikan sedikit sinyal kemajuan kepada pesaing dan dunia luar yang lebih luas.
Sistem AI saat ini sudah sering berperilaku dengan cara yang tidak terduga, tidak disengaja, dan tidak diinginkan dalam konteks yang disimulasikan secara eksperimental, misalnya, mengancam untuk pengguna, atau . Namun, jika pengembang terkemuka mulai merahasiakan kartu mereka, masyarakat tidak akan lagi memiliki jendela, bahkan yang sempit sekalipun, untuk secara publik mempelajari dan menilai keuntungan dan kerugian, profil risiko dan keamanan, serta lintasan teknologi fundamental ini. Setelah sistem AI canggih di masa depan disebarkan dan digunakan, dan mungkin secara eksklusif demikian, di balik pintu tertutup, bahaya yang tidak terlihat bagi masyarakat dapat muncul dan berkembang tanpa pengawasan atau tembakan peringatan—itulah ancaman yang dapat dan harus kita hindari.
Laboratorium terkemuka sudah semakin banyak memanfaatkan sistem AI untuk mempercepat alur kerja penelitian dan pengembangan (R&D) mereka sendiri, dengan merancang algoritma baru, mengusulkan arsitektur yang sepenuhnya baru, atau mengoptimalkan kode. Google, misalnya, bahwa 50% dari kode mereka sekarang ditulis oleh AI. Seperti yang disorot dalam , sistem AI canggih pada akhirnya dapat digunakan untuk secara iteratif meningkatkan penerus mereka sendiri, berpotensi menciptakan “” yang kuat dari model yang semakin mampu. Hasil ini akan menjadi berita bagus bagi perusahaan AI yang bertujuan untuk dengan cepat mencapai kecerdasan umum buatan, atau bahkan , di depan para pesaing—tetapi hanya jika mereka memanfaatkan keuntungan strategis mereka jauh dari mata-mata.
Sekilas, semua ini mungkin terdengar tidak berbahaya: ancaman apa yang bisa ditimbulkan oleh sistem AI yang belum dirilis?
Masalahnya ada dua: pertama, seiring sistem AI canggih menjadi semakin berguna secara internal untuk membangun AI yang lebih baik, mungkin ada insentif kompetitif dan ekonomi yang kuat, bahkan lebih dari hari ini, untuk memprioritaskan kecepatan dan keuntungan kompetitif daripada kehati-hatian. Dinamika perlombaan ini mengandung risiko, terutama jika sistem AI yang semakin canggih mulai digunakan oleh staf perusahaan dan disebarkan untuk digunakan di area kritis keamanan seperti R&D AI, berpotensi secara otonom untuk mengurangi gesekan, menanamkan titik-titik kegagalan potensial sebelum ada yang dapat sepenuhnya memahami perilaku sistem AI.
Kedua, penilaian dan intervensi yang ada sebagian besar berfokus pada sistem AI yang tersedia untuk umum. Untuk sistem AI yang digunakan secara internal, sangat sedikit, jika ada, informasi yang tersedia tentang siapa yang memiliki akses istimewa ke mereka atau untuk apa mereka digunakan. Lebih tepatnya, hanya sedikit informasi yang tersedia tentang kemampuan mereka, apakah mereka berperilaku tidak diinginkan; apakah mereka berada di bawah kontrol yang sesuai dengan mekanisme pengawasan dan perlindungan; apakah mereka dapat disalahgunakan oleh mereka yang memiliki akses ke mereka atau profil risiko keseluruhan mereka. Juga tidak ada persyaratan yang cukup masuk akal dan terperinci untuk memastikan bahwa sistem AI ini diuji secara ketat dan tidak menimbulkan ancaman berantai bagi masyarakat sebelum digunakan.
Jika kita tidak mewajibkan perusahaan teknologi untuk memberikan informasi yang cukup rinci tentang bagaimana mereka menguji, mengontrol, dan menggunakan model AI baru secara internal, pemerintah tidak dapat mempersiapkan diri untuk sistem AI yang pada akhirnya dapat memiliki kapabilitas setingkat negara. Sementara itu, ancaman yang berkembang di balik pintu tertutup dapat menyebar ke masyarakat tanpa peringatan sebelumnya atau kemampuan untuk campur tangan. Yang pasti, bahkan hari ini, kita tidak dapat mempercayai sistem AI saat ini untuk berperilaku sesuai tujuan secara andal baik yang digunakan secara eksternal maupun internal. Namun, kita masih punya waktu untuk bertindak.
Ada langkah-langkah lugas yang dapat diambil hari ini. Lingkup kebijakan keamanan AI perbatasan sukarela perusahaan AI harus diperluas secara eksplisit untuk mencakup penyebaran dan penggunaan internal berisiko tinggi, seperti untuk mempercepat R&D AI. Sebagai bagian dari ini, penyebaran internal harus diperlakukan dengan kehati-hatian yang sama seperti penyebaran eksternal, dan penilaian serta evaluasi ketat untuk mengidentifikasi kapabilitas berbahaya, pembentukan profil risiko yang jelas, dan mekanisme kontrol atau pembatas yang diperlukan sebelum penggunaan harus didorong .
Lembaga pemerintah yang bertanggung jawab atas kesiapsiagaan nasional harus memiliki visibilitas proaktif terhadap penyebaran dan penggunaan internal sistem AI yang sangat canggih dan menerima semua informasi kritis keamanan nasional yang relevan dan diperlukan. Ini dapat mencakup, misalnya, informasi tentang siapa yang memiliki akses ke sistem AI ini dan dalam kondisi apa, untuk apa sistem AI ini digunakan, pengawasan apa yang diterapkan padanya, dan apa yang bisa terjadi jika pengawasan ini gagal, untuk memastikan bahwa kepentingan ekonomi dan kekayaan intelektual seimbang dengan kepentingan keamanan nasional yang sah.
Perusahaan AI dan pemerintah harus secara kolaboratif memimpin dalam penerapan praktik terbaik yang lugas ini untuk memastikan inovasi yang dapat dipercaya dan perlindungan publik.
Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.
Sektor: Top Story, Daily News
SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya.