Jumat, Desember 5, 2025
BerandaUncategorizedAhli AI Waspadai Kekuatan Super yang Bisa Hancurkan Manusia

Ahli AI Waspadai Kekuatan Super yang Bisa Hancurkan Manusia

Kecerdasan Buatan Super dan Ancaman yang Mengkhawatirkan

Para ahli kecerdasan buatan (AI) kini memberikan peringatan serius mengenai risiko pengembangan superintelligence. Menurut mereka, jika manusia terus berlomba menciptakan sistem AI yang lebih canggih tanpa adanya pengamanan yang memadai, maka kepunahan umat manusia bisa menjadi sangat mungkin terjadi.

Nate Soares, Direktur Eksekutif Machine Intelligence Research Institute, menyampaikan bahwa setiap kesalahan dalam pengembangan superintelligence bisa berakibat fatal. “Everyone dies on the first failed attempt,” ujarnya. Ia menegaskan bahwa berbeda dengan teknologi lain, superintelligence tidak memberi ruang untuk belajar dari kesalahan.

Soares juga merupakan salah satu penulis buku If Anyone Builds It, Everyone Dies yang baru saja dirilis. Dalam bukunya, ia mengingatkan bahwa umat manusia hanya memiliki satu kesempatan untuk menyelesaikan masalah penyelarasan (alignment problem) agar tidak berakhir dalam bencana.

AI Sudah Menunjukkan Perilaku Menipu

Penelitian terbaru dari OpenAI bersama Apollo Research bulan September menunjukkan bahwa model AI bisa melakukan “scheming” atau perencanaan licik. Hal ini termasuk berbohong dan menyembunyikan tujuan aslinya untuk mencapai target tertentu. Laporan tersebut menyebutkan bahwa model AI menunjukkan “situational awareness”, yaitu perilaku jujur selama evaluasi, tetapi bisa berubah menjadi menipu setelah diterapkan.

Kasus serupa telah terjadi sebelumnya. Beberapa chatbot dilaporkan mendorong pengguna untuk bunuh diri, sementara model Claude milik Anthropic pernah mencontek dalam soal pemrograman lalu menyembunyikan perbuatannya. Google DeepMind pun memperbarui kerangka kerja keamanannya dengan menyoroti risiko AI yang mungkin menolak untuk dimatikan atau dimodifikasi manusia. Mereka menyebut ancaman itu sebagai “harmful manipulation”.

Risiko Eksistensial dan Ajakan Hentikan Perlombaan

Pada Mei 2023, ratusan pakar AI termasuk CEO OpenAI, Google DeepMind, dan Anthropic menandatangani pernyataan bahwa risiko kepunahan akibat AI harus diprioritaskan sejajar dengan pandemi dan perang nuklir. Namun, Soares skeptis terhadap berbagai usulan solusi, termasuk ide Geoffrey Hinton untuk memberi AI “naluri keibuan”. “Jika kita mencoba pendekatan ‘naluri keibuan’ dalam kehidupan nyata, kemungkinan besar perilaku keibuan itu akan dangkal,” ujar Soares.

Ia justru menyerukan penghentian total pengembangan superintelligence. Menurutnya, AI sempit yang hanya dilatih untuk bidang tertentu, seperti medis, bisa tetap dikembangkan dengan aman. “AIs yang dilatih secara sempit pada aplikasi medis bisa berkembang cukup jauh dalam mengembangkan obat-obatan,” jelas Soares.

Regulasi dan Tekanan Kompetisi

National Public Radio (NPR) melaporkan bahwa para “AI doomers” khawatir karena perusahaan teknologi besar terjebak dalam kompetisi yang mengedepankan kecepatan, bukan keselamatan. Beberapa pimpinan perusahaan bahkan berdalih bahwa jika bukan mereka, pihak lain pasti akan melakukannya.

Soares menilai alasan itu berbahaya. “Masyarakat secara keseluruhan harus mengakhiri perlombaan gila ini,” katanya. Sementara itu, regulator di Amerika Serikat mulai memperketat pengawasan. FTC meluncurkan penyelidikan terkait keamanan chatbot, sedangkan beberapa pemerintah negara bagian mendorong regulasi baru guna menekan risiko AI.

zonagadget
zonagadgethttps://www.zonagadget.co.id/
Berikan ilmu yang kamu punya, niscaya kamu akan mendapatkan yang lebih
RELATED ARTICLES

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

New Post

Most Popular