Masalah Halusinasi pada Kecerdasan Buatan
Kecerdasan buatan (AI) yang berbasis bahasa, seperti GPT-5 dan ChatGPT, masih menghadapi masalah serius dalam bentuk halusinasi. Fenomena ini terjadi ketika model AI memberikan jawaban yang terdengar logis namun sebenarnya salah. Meskipun kualitas model semakin baik, OpenAI menyatakan bahwa halusinasi tetap menjadi tantangan utama yang sulit dihilangkan sepenuhnya.
Dalam sebuah artikel resmi, OpenAI menjelaskan bahwa halusinasi adalah pernyataan yang terdengar masuk akal, namun tidak benar dan dibuat oleh model bahasa. Peneliti menekankan bahwa meskipun model terus ditingkatkan, masalah ini tetap muncul karena sifat dasar dari sistem pelatihan yang digunakan.
Contoh nyata dari fenomena ini bisa dilihat dalam eksperimen yang dilakukan. Ketika chatbot AI ditanya tentang judul disertasi Ph.D atau tanggal lahir Adam Tauman Kalai—salah satu penulis makalah—jawaban yang diberikan berbeda-beda dan semua salah. Hal ini menunjukkan bagaimana model AI bisa sangat percaya diri dalam menjawab, meski jawabannya tidak benar.
Menurut riset OpenAI, penyebab utama halusinasi berasal dari proses pre training, yaitu saat model dilatih untuk menebak kata berikutnya dari kumpulan teks besar tanpa adanya label benar atau salah. Model hanya belajar dari contoh bahasa yang fasih, bukan dari data yang menyatakan apakah pernyataan itu fakta atau fiksi.
Untuk pola-pola rutin seperti ejaan atau tanda baca, skala data yang besar dapat membantu mengatasi kesalahan. Namun, untuk fakta unik dan jarang, seperti tanggal lahir seseorang atau data lain yang tidak umum, AI akan “menebak” karena tidak ada pola yang bisa diikuti.
Selain itu, tantangan lainnya terletak pada cara penilaian keakuratan model. Sistem evaluasi saat ini cenderung memberi insentif agar model tetap menebak daripada jujur mengaku “tidak tahu”. Skema ini mirip dengan ujian pilihan ganda di mana menebak tetap memiliki peluang benar, sedangkan mengosongkan jawaban pasti mendapat nol poin. Akibatnya, model terus didorong untuk memberikan jawaban yang percaya diri, bukan menahan diri saat tidak yakin.
Para peneliti OpenAI menyarankan solusi untuk mengubah paradigma evaluasi. Sistem penilaian sebaiknya memberi penalti lebih berat pada jawaban salah yang diberikan dengan keyakinan tinggi, dan memberikan “kredit parsial” untuk ekspresi ketidakyakinan yang tepat. Dengan demikian, model akan terlatih untuk diam saat tidak tahu, sehingga mengurangi kecenderungan halusinasi.
Peneliti menutup makalah mereka dengan pesan penting bahwa selama evaluasi dan leaderboard AI masih memberi hadiah pada “tebakan beruntung”, model AI akan terus belajar untuk menebak daripada jujur mengakui ketidaktahuan. Ini menunjukkan bahwa perubahan dalam sistem evaluasi sangat penting untuk memperbaiki kualitas AI dan mengurangi risiko halusinasi.

