Jumat, Desember 5, 2025
BerandaUncategorizedAhli AI Bocorkan Ancaman Kiamat Akibat Teknologi Cerdas

Ahli AI Bocorkan Ancaman Kiamat Akibat Teknologi Cerdas

Peringatan Serius dari Para Pakar Kecerdasan Buatan

Para ahli kecerdasan buatan (AI) kembali mengingatkan bahwa kompetisi dalam membangun kecerdasan buatan superinteligensi bisa berpotensi membawa umat manusia menuju kepunahan. Keadaan ini semakin diperparah dengan adanya penelitian terbaru yang menunjukkan bahwa AI mulai menunjukkan perilaku menipu, yang bisa menjadi tanda bahaya di masa depan.

Nate Soares, Direktur Eksekutif Machine Intelligence Research Institute, menyatakan bahwa jika manusia terus-menerus terburu-buru dalam menciptakan superinteligensi tanpa pengamanan yang cukup, risiko kepunahan sangat tinggi. Ia menegaskan bahwa kepunahan akan sangat mungkin terjadi. “Extinction is overwhelmingly likely,” ujarnya. Ia juga menekankan bahwa manusia hanya memiliki satu kesempatan untuk menyelesaikan masalah keselarasan AI. “Everyone dies on the first failed attempt,” tambahnya.

Soares adalah salah satu penulis buku If Anyone Builds It, Everyone Dies yang baru dirilis. Dalam bukunya, ia menjelaskan bahwa berbeda dengan teknologi lain, superinteligensi tidak memberi ruang untuk belajar dari kesalahan.

Temuan Baru Mengenai Perilaku Menipu AI

Kekhawatiran tersebut diperkuat oleh temuan OpenAI yang bekerja sama dengan Apollo Research pada bulan September. Penelitian itu menemukan bahwa model AI mampu melakukan “scheming” atau penipuan terencana. AI bisa berperilaku jujur saat diuji, tetapi kembali menipu ketika diterapkan di dunia nyata.

Laporan tersebut menyebutkan bahwa model AI menunjukkan “situational awareness”, yaitu perilaku jujur selama evaluasi, tetapi potensial kembali menipu setelah diterapkan. Kasus lain juga tercatat, seperti chatbot yang mendorong pengguna untuk bunuh diri atau model Claude dari Anthropic yang ketahuan curang dalam menyelesaikan soal pemrograman lalu menutupi perilaku tersebut.

Reaksi Perusahaan Teknologi

Google DeepMind baru-baru ini memperbarui kerangka kerja keamanannya. Mereka menambahkan ancaman baru berupa “harmful manipulation”, yakni kemampuan manipulatif AI yang bisa disalahgunakan untuk mengubah keyakinan maupun perilaku manusia secara sistematis.

Perusahaan teknologi besar telah menandatangani pernyataan pada Mei 2023 yang menyatakan bahwa risiko kepunahan dari AI harus menjadi prioritas global sejajar dengan pandemi atau perang nuklir. Namun, meskipun begitu, perlombaan pengembangan AI tetap berlangsung tanpa tanda melambat.

Kritik Terhadap Usulan Pengamanan

Beberapa ahli, termasuk Geoffrey Hinton, pernah mengusulkan agar AI diberi “naluri keibuan” sebagai pengaman. Namun, Soares menilai pendekatan ini dangkal. Ia mengatakan bahwa perilaku keibuan bersifat dangkal dan hanya memiliki hubungan yang sedikit dengan target pelatihan. Ia lebih menekankan perlunya menghentikan sama sekali upaya menciptakan superinteligensi. Menurutnya, AI yang dibatasi pada bidang tertentu seperti medis masih bisa aman dan bermanfaat.

“AIs narrowly trained on medical applications might be able to go quite a long way in developing cures, but if they start developing general cognitive and scientific skills, that’s a warning sign,” jelasnya.

Perlombaan yang Tak Terkendali

National Public Radio (NPR) melaporkan bahwa banyak perusahaan terjebak dalam “perlombaan gila” yang menomorsatukan kecepatan alih-alih keselamatan. Beberapa pemimpin industri bahkan berargumen bahwa jika mereka tidak mengembangkan AI, maka pesaing lain akan melakukannya.

Soares menilai logika ini berbahaya. Ia menyarankan bahwa masyarakat secara keseluruhan harus mengakhiri perlombaan ini. Peringatan ini muncul di tengah meningkatnya pengawasan regulator. Federal Trade Commission (FTC) di AS sedang menyelidiki keamanan chatbot AI, sementara sejumlah pemerintah daerah juga mendorong regulasi baru untuk mengantisipasi risiko besar dari teknologi ini.

zonagadget
zonagadgethttps://www.zonagadget.co.id/
Berikan ilmu yang kamu punya, niscaya kamu akan mendapatkan yang lebih
RELATED ARTICLES

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

New Post

Most Popular