Amerika Serikat Menahan Dukungan Dari Laporan Keamanan AI Internasional Utama

Subkomite Yudisial Senat Tentang Teknologi Menyelidiki Regulasi Kecerdasan Buatan

(SeaPRwire) –   Kecerdasan buatan (AI) berkembang lebih cepat daripada yang diperkirakan banyak ahli, dan bukti untuk beberapa risiko telah “bertambah secara substansial.” Sementara itu, teknik manajemen risiko saat ini “berkembang tetapi tidak cukup.” Itu adalah temuan dari Laporan Keamanan AI Internasional kedua, yang diterbitkan pada hari Selasa, sebelum KTT Dampak AI yang dijadwalkan berlangsung di Delhi dari 19 hingga 20 Februari.

Dibimbing oleh 100 ahli dan didukung oleh 30 negara dan organisasi internasional termasuk Inggris Raya, Cina, dan Uni Eropa, laporan ini dimaksudkan untuk menjadi contoh “bekerja sama untuk mengatasi tantangan bersama.” Tetapi tidak seperti tahun lalu, Amerika Serikat menolak untuk mendukungnya, kata ketua laporan, ilmuwan peraih Penghargaan Turing Yoshua Bengio, mengkonfirmasi.

Saat risiko AI mulai menjadi nyata, rumah dari pengembang AI terkemuka telah menjauh dari upaya internasional untuk memahami dan menguranginya. Langkah ini sebagian besar simbolis, dan laporan tidak bergantung pada dukungan AS. Tetapi ketika datang ke pemahaman tentang AI, “semakin besar konsensus di seluruh dunia, semakin baik,” kata Bengio.

Apakah AS menolak isi laporan, atau hanya menarik diri dari perjanjian internasional—ia keluar dari dan pada Januari—masih tidak jelas. Bengio mengatakan AS memberikan umpan balik pada versi awal laporan tetapi menolak untuk menandatangani versi final.

Departemen Perdagangan AS, yang disebutkan dalam Laporan Keamanan AI Internasional 2025, tidak merespon untuk memberikan komentar tentang keputusan tersebut.

Apa yang Dikatakan Laporan

“Selama setahun terakhir, kemampuan model dan sistem AI tujuan umum telah terus meningkat,” tulis laporan tersebut. Kemampuan telah berkembang begitu cepat sehingga dalam setahun antara laporan pertama dan kedua, penulis menerbitkan dua pembaruan sementara sebagai respons terhadap perubahan besar. Itu bertentangan dengan deretan headline yang terus-menerus menunjukkan bahwa AI telah mencapai plateau. Bukti ilmiah menunjukkan “tidak ada perlambatan kemajuan selama setahun terakhir,” kata Bengio.

Mengapa banyak orang merasa kemajuan telah melambat? Salah satu petunjuk adalah apa yang peneliti sebut “ketidakberaturan” kinerja AI. Model-model ini dapat mencapai standar medali emas pada soal Olimpiade Matematika Internasional sementara kadang-kadang gagal menghitung jumlah huruf r dalam “strawberry.” Ketidakberaturan itu membuat kemampuan AI sulit dinilai, dan perbandingan langsung dengan manusia—seperti analogi “magang” yang populer—menyesatkan.

Tidak ada jaminan bahwa tingkat kemajuan saat ini akan berlanjut, meskipun laporan mencatat bahwa tren konsisten dengan peningkatan berkelanjutan hingga 2030. Jika langkah hari ini tetap berlangsung sampai saat itu, ahli memprediksi AI akan dapat menyelesaikan tugas rekayasa perangkat lunak yang jelas cakupannya yang akan memakan waktu beberapa hari bagi insinyur manusia. Tetapi laporan juga menimbulkan kemungkinan yang lebih mencolok bahwa kemajuan dapat dipercepat jika AI secara substansial membantu dalam pengembangannya, menghasilkan sistem yang sama atau lebih mampu daripada manusia di sebagian besar dimensi

Itu kemungkinan akan membuat investor bersemangat, tetapi mengkhawatirkan bagi mereka yang khawatir masyarakat gagal beradaptasi secara memadai dengan risiko yang muncul pada langkah saat ini. Bahkan CEO Google DeepMind Demis Hassabis di Davos pada Januari bahwa ia percaya itu akan “lebih baik bagi dunia” jika kemajuan melambat.

“Strategi yang bijaksana, baik Anda berada di pemerintah atau bisnis, adalah mempersiapkan semua skenario yang masuk akal,” kata Bengio. Itu berarti mengurangi risiko, bahkan di tengah ketidakpastian.

Pemahaman yang Semakin Matang Tentang Risiko

Pembuat kebijakan yang ingin mendengarkan ilmuwan ketika datang ke risiko AI menghadapi masalah: ilmuwan tidak setuju. Bengio dan rekan perintis AI Geoffrey Hinton telah memperingatkan sejak peluncuran ChatGPT bahwa AI dapat menimbulkan ancaman eksistensial bagi manusia. Sementara Yann LeCun, yang ketiga dari yang disebut “bapak baptis” AI, memiliki kekhawatiran seperti itu “omong kosong total.”

Tetapi laporan menunjukkan bahwa dasar semakin kuat. Meskipun beberapa pertanyaan masih memecah belah, “ada tingkat konvergensi yang tinggi” pada temuan inti, catat laporan tersebut. Sistem AI sekarang sama atau melebihi kinerja ahli pada benchmark yang relevan dengan pengembangan senjata biologis, seperti memecahkan masalah protokol laboratorium virologi. Ada bukti kuat bahwa kelompok kriminal dan penyerang yang disponsori negara secara aktif menggunakan AI dalam operasi cyber.

Melanjutkan untuk mengukur risiko tersebut akan menghadapi tantangan ke depan karena model AI semakin belajar untuk memainkan tes keamanan, kata laporan tersebut.”Kita melihat AI yang perilakunya, ketika diuji, […] berbeda dari ketika digunakan,” kata Bengio, menambahkan bahwa dengan mempelajari rantai-pikiran model—langkah-langkah antara sebelum sampai pada jawaban—peneliti telah mengidentifikasi perbedaan ini “bukan kebetulan.” AI bertindak bodoh atau berperilaku terbaik dengan cara yang “secara signifikan menghambat kemampuan kita untuk memperkirakan risiko dengan benar,” kata Bengio.

Alih-alih mengusulkan satu solusi tunggal, laporan merekomendasikan menumpuk beberapa langkah keamanan—pengujian sebelum rilis, pemantauan setelah, —sehingga apa yang lolos dari satu lapisan akan tertangkap oleh lapisan berikutnya, seperti air melalui serangkaian saringan yang semakin halus. Beberapa langkah target model itu sendiri; yang lain bertujuan untuk memperkuat pertahanan di dunia nyata—misalnya, membuat lebih sulit untuk memperoleh bahan yang dibutuhkan untuk membuat senjata biologis meskipun AI telah membuatnya lebih mudah dirancang. Di sisi perusahaan, 12 perusahaan secara sukarela menerbitkan atau memperbarui Kerangka Keamanan Frontier pada 2025, dokumen yang menjelaskan bagaimana mereka berencana mengelola risiko saat mereka membangun model yang lebih mampu—meskipun mereka bervariasi dalam risiko yang mereka cakup, catat laporan tersebut.

Meskipun temuan tersebut, Bengio mengatakan laporan telah memberinya perasaan optimis. Ketika laporan pertama ditugaskan pada akhir 2023, debat tentang risiko AI didorong oleh pendapat dan teori. Sekarang, katanya, “kita mulai memiliki diskusi yang jauh lebih matang.”

Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.

Sektor: Top Story, Daily News

SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya.