
(SeaPRwire) – Pada tahun 2025, kesalahpahaman tentang AI berkembang pesat seiring dengan perjuangan orang-orang untuk memahami perkembangan dan adopsi teknologi yang cepat. Berikut adalah tiga kesalahpahaman populer yang perlu ditinggalkan di Tahun Baru.
Model AI sedang mentok
Ketika GPT-5 dirilis pada bulan Mei, orang-orang bertanya-tanya (bukan untuk pertama kalinya) apakah AI sedang mentok. Meskipun ada peningkatan penamaan yang signifikan, peningkatannya terlihat bertahap. The New Yorker menerbitkan sebuah artikel berjudul, “What if A.I. Doesn’t Get Much Better Than This?” yang mengklaim bahwa GPT-5 adalah “produk terbaru yang menunjukkan bahwa kemajuan pada model bahasa besar telah mandek.”
Segera terungkap bahwa, terlepas dari tonggak penamaan tersebut, GPT-5 terutama merupakan upaya untuk memberikan kinerja dengan biaya yang lebih rendah. Lima bulan kemudian, OpenAI, Google, dan Anthropic semuanya telah merilis model yang menunjukkan peningkatan substansial pada tugas-tugas yang bernilai ekonomi. “Berlawanan dengan kepercayaan populer bahwa penskalaan sudah berakhir,” lompatan kinerja dalam model terbaru Google “sebesar yang pernah kami lihat,” kata pemimpin tim pembelajaran mendalam Google DeepMind, Oriol Vinyals, setelah Gemini 3 dirilis. “Tidak ada tanda-tanda tembok penghalang.”
Ada alasan untuk mempertanyakan bagaimana tepatnya model AI akan meningkat. Di domain di mana mendapatkan data untuk pelatihan itu mahal—misalnya dalam menerapkan agen AI sebagai pembeli pribadi—kemajuan mungkin lambat. “Mungkin AI akan terus menjadi lebih baik dan mungkin AI akan terus payah dalam hal-hal penting,” kata Helen Toner, direktur eksekutif sementara di Center for Security and Emerging Technology. Namun gagasan bahwa kemajuan sedang mandek sulit untuk dibenarkan.
Mobil self-driving lebih berbahaya daripada pengemudi manusia
Ketika AI yang menggerakkan chatbot mengalami malfungsi, itu biasanya berarti seseorang membuat kesalahan pada [dokumen mereka], atau salah menghitung jumlah huruf “r” dalam kata “strawberry”. Ketika AI yang menggerakkan mobil self-driving mengalami malfungsi, orang-orang bisa [cedera]. Tidak heran jika banyak yang ragu-ragu untuk mencoba teknologi baru ini.
Di Inggris, sebuah [survei] terhadap 2.000 orang dewasa menemukan bahwa hanya 22% yang merasa nyaman bepergian dengan mobil tanpa pengemudi. Di AS, [angka] itu adalah 13%. Pada bulan Oktober, sebuah mobil Waymo [menabrak] seekor kucing di San Francisco, memicu kemarahan.
Namun berkali-kali mobil otonom telah terbukti lebih aman daripada pengemudi manusia, menurut sebuah [analisis] terhadap data dari 100 juta mil mengemudi tanpa pengemudi dari Waymo. Mobil-mobil Waymo terlibat dalam hampir lima kali lebih sedikit tabrakan yang menyebabkan cedera dan 11 kali lebih sedikit tabrakan yang menyebabkan “cedera serius atau lebih buruk” dibandingkan pengemudi manusia.
AI tidak bisa menciptakan pengetahuan baru
Pada tahun 2013, Sébastien Bubeck, seorang matematikawan, menerbitkan makalah di jurnal bergengsi tentang teori graf. “Kami meninggalkan beberapa pertanyaan terbuka, dan kemudian saya mengerjakannya dengan mahasiswa pascasarjana di Princeton,” kata Bubeck, yang sekarang menjadi peneliti di OpenAI. “Kami memecahkan sebagian besar pertanyaan terbuka, kecuali satu.” Setelah lebih dari satu dekade, Bubeck memberikan masalah tersebut kepada sebuah sistem yang dibangun di atas GPT-5.
“Kami membiarkannya berpikir selama dua hari,” katanya. “Ada identitas ajaib di sana yang ditemukan model itu, dan itu benar-benar memecahkan masalah.”
Kritikus berargumen bahwa model bahasa besar, seperti GPT-5, tidak dapat menghasilkan sesuatu yang orisinal, dan hanya mereplikasi informasi yang telah mereka latih—sehingga membuat LLM dijuluki secara ironis sebagai “[stochastic parrots]”. Pada bulan Juni, Apple menerbitkan sebuah [makalah] yang mengklaim menunjukkan bahwa kemampuan penalaran apa pun dari LLM adalah “ilusi”.
Memang benar, cara LLM menghasilkan respons mereka [berbeda] dari penalaran manusia. Mereka [kesulitan] untuk menafsirkan diagram sederhana, bahkan ketika mereka memenangkan medali emas di kompetisi [matematika] dan [pemrograman] terkemuka, dan “secara mandiri” [menemukan] “konstruksi matematika yang baru”. Namun kesulitan dengan tugas-tugas mudah rupanya tidak mencegah mereka untuk menghasilkan ide-ide yang berguna dan kompleks.
“LLM tentu dapat menjalankan urutan langkah logis untuk memecahkan masalah yang memerlukan deduksi dan induksi,” kata Dan Hendrycks, direktur eksekutif Center for AI Safety kepada TIME. “Apakah seseorang memilih untuk melabeli proses itu ‘penalaran’ atau sesuatu yang lain adalah urusan mereka dan kamus mereka.”
Artikel ini disediakan oleh penyedia konten pihak ketiga. SeaPRwire (https://www.seaprwire.com/) tidak memberikan jaminan atau pernyataan sehubungan dengan hal tersebut.
Sektor: Top Story, Daily News
SeaPRwire menyediakan distribusi siaran pers real-time untuk perusahaan dan lembaga, menjangkau lebih dari 6.500 toko media, 86.000 editor dan jurnalis, dan 3,5 juta desktop profesional di 90 negara. SeaPRwire mendukung distribusi siaran pers dalam bahasa Inggris, Korea, Jepang, Arab, Cina Sederhana, Cina Tradisional, Vietnam, Thailand, Indonesia, Melayu, Jerman, Rusia, Prancis, Spanyol, Portugis dan bahasa lainnya.