Semakin banyak masyarakat merujuk pada alat bantu obrolan berbasis teknologi kecerdasan buatan (AI), seperti Grok, Meta AI, ChatGPT, dll., untuk mendapatkan konfirmasi informasi secara instan. Akan tetapi, betapa tepat dan terpercayakah respons yang mereka hasilkan?
“Hei @Grok, benarkah begitu?” belakangan pertanyaan serupa sering muncul di platform X, terutama sejak Elon Musk membuka akses bagi khalayak nonpremium pada Desember 2024 silam. Melalui aplikasi kecerdasan buatan, pengguna bisa
menguji kesahihan suatu informasi dengan cara yang langsung
.
Belakangan pengguna semakin banyak beralih ke chatbot kecerdasan buatan (AI) seperti ChatGPT, Gemini, atau Perplexity untuk menggantikan mesin pencari tradisional. Karena ketika Google dkk. hanya menyajikan informasi, AI merangkum jawabannya secara singkat dan padat untuk pengguna.
Seberapa akurat?
Sebuah studi yang dilakukan oleh Tow Center for Digital Journalism di Universitas Columbia, yang dipublikasikan pada bulan Maret di Columbia Journalism Review (CJR) menunjukkan, delapan alat
pencarian berbasis AI generatif
gagal mengidentifikasi sumber kutipan artikel dengan benar dalam 60 persen kasus.
Perplexity dinilai sebagai yang paling akurat, dengan tingkat kesalahan “hanya” 37 persen. Sebaliknya, Grok—AI chatbot buatan xAI milik Elon Musk—mencatat tingkat kesalahan sebesar 94 persen. CJR pun mengungkapkan kekhawatiran serius atas “kepercayaan diri yang mengkhawatirkan” yang ditunjukkan oleh chatbot saat memberikan informasi yang ternyata keliru.
Sebagaimana ditulis dalam laporannya, ChatGPT salah mengenali sebanyak 134 artikel, namun di antara 200 respons yang diberikannya, hanya ada ketidakpastian tentang lima belas jawaban saja. Tidak satupun dari jawabannya memberikan penolakan atas pertanyaan tersebut. Penelitian ini mencatat bahwa kebanyakan bot percakapan cenderung enggan menolak menjawab pertanyaan yang diluar kemampuannya.
Ringkasan: Bahaya penyebaran informasi salah tetap besar.
Hasil dari dua penelitian terpisah — satu dilakukan oleh BBC dan satunya lagi oleh Universitas Colombia — mengungkapkan tren yang seragam: kecerdasan buatan pada chatbot masih belum bisa dipercaya sebagai sumber informasi primer untuk berita serta data penting. Selain menyajikan respons yang salah, sebagian besar juga mencantumkan petunjuk palsu atau materi yang tak pernah muncul dalam dokumen awalnya.
Dengan
meningkatnya penggunaan chatbot AI
oleh masyarakat, para pakar memperingatkan risiko serius terhadap penyebaran misinformasi. Salah satu bukti misinformasi oleh Grok disebutkan adalah pola jawabannya soal isu “genosida terhadap kulit putih” di Afrika Selatan,
“Pengguna harus tetap waspada dan kritis terhadap jawaban dari chatbot AI, terutama ketika berkaitan dengan isu-isu aktual atau kontroversial,” ujar Pete Archer, Direktur Program AI Generatif di BBC. “Sampai teknologi ini dapat menjamin akurasi dan transparansi, sebaiknya informasi dari chatbot tetap diperiksa silang dengan sumber berita terpercaya.”
Sumber tidak akurat, hasil menyesatkan
Pertanyaan pokok selanjutnya adalah di manakah chatbot kecerdasan buatan mendapatkan informasinya? Sumber-sumbernya meliputi database besar serta hasil pencarian internet. Keakuratan dan kualitas respon yang diberikan sangat tergantung pada cara pelatihan dan pemrograman yang digunakan untuk chatbot tersebut.
” Salah satu tantangan terkini yang hadapi adalah kedatangan banyak model bahasa besar (LLM) yang dipenuhi dengan informasi salah dan propaganda dari Rusia,” ungkap Tommaso Canetta kepada DW.
Canetta merupakan Deputi Direktur untuk tim verifikasi fakta Pagella Politica di Italia serta penanggung jawab verifikasi di observatorium media digital Eropa (EDMO).
“Jika sumbernya tidak tepercaya dan berkualitas rendah, maka jawabannya kemungkinan besar akan mencerminkan hal yang sama,” tambahnya. Dia mengaku sering kali menemukan jawaban chatbot yang “tidak lengkap, tidak akurat, menyesatkan, atau bahkan sepenuhnya salah.”
Saat AI mengarang cerita
Salah satu kasus paling mencolok terjadi pada April 2024, ketika chatbot Meta AI mengklaim di sebuah grup orang tua di Facebook bahwa ia memiliki seorang anak berbakat dengan disabilitas, lalu memberikan saran tentang pendidikan khusus.
Belakangan, chatbot tersebut meminta maaf dan mengaku bahwa ia tidak memiliki pengalaman pribadi atau anak, seperti yang dijelaskan oleh Meta kepada 404Media, yang pertama kali melaporkan kasus ini.
Meta menyatakan, chatbot adalah teknologi baru yang “mungkin tidak selalu memberikan jawaban yang diharapkan.” Sejak peluncuran, perusahaan mengklaim telah terus melakukan pembaruan dan peningkatan sistem.
Meski demikian, akibat dari penyebaran informasi yang salah dapat berdampak sangat besar. Sebagai contoh, pada bulan Agustus tahun 2024, usai Presiden Amerika Serikat Joe Biden memutuskan mundur dari proses pencalonannya, platform Grok mendistribusi kabar bohong yang menuduh Wakil Presiden Kamala Harris tak bakal tampil dalam daftar pemilih di sejumlah wilayah bagian. Kejadian itu lantas membuat Sekretaris Negara Bagian Minnesota, Steve Simon, merespons dengan cara mengirim pesan terbuka ke Elon Musk guna melambangkan protesnya tersebut.
Menghadapi kesulitan dalam menafsirkan ilustrasi yang diciptakan oleh kecerdasan buatan
Bukan cuma dalam teks, chatbot AI ternyata juga memiliki keterbatasan besar ketika harus mengenali gambar. Pada suatu percobaan sederhana, Deutsche Welle menginstruksi Grok untuk mendeteksi tanggal, tempat, serta latar belakang dari foto hasil AI yang menggambarkan api berkobar di gudang pesawat terbang. Foto itu sebenarnya diproses ulang dari klip TikTok.
Namun, dalam jawabannya, Grok menyebut gambar itu terkait dengan beberapa kejadian nyata di berbagai lokasi, seperti bandara di Salisbury (Inggris), Denver (AS), hingga Ho Chi Minh City (Vietnam)—padahal gambar tersebut tidak berkaitan dengan insiden manapun.
Yang lebih mengkhawatirkan, Grok justru menggunakan keberadaan watermark TikTok sebagai “bukti keaslian,” sembari dalam tab “detail lebih lanjut” menyatakan bahwa TikTok merupakan platform penyebar konten viral yang dapat menyesatkan jika tidak diverifikasi dengan baik.
Pada 14 Mei, Grok juga mengklaim bahwa video viral dalam bahasa Portugis, yang menunjukkan seekor anaconda raksasa di Amazon sepanjang ratusan meter adalah asli, meskipun jelas merupakan hasil manipulasi berbasis AI.
Kesimpulan: AI bukan alat pemeriksa fakta yang andal
Meski
chatbot AI kerap terlihat seperti ensiklopedia serba tahu
, kenyataannya tidaklah demikian. Mereka bisa salah, salah tafsir, dan bahkan bisa dimanipulasi.
Felix Simon, peneliti pascadoktoral di Oxford Internet Institute yang fokus pada AI dan berita digital, menyimpulkan bahwa sistem AI seperti Grok, Meta AI, dan ChatGPT “tidak seharusnya dianggap sebagai alat pemeriksa fakta.”
“Mereka bisa digunakan dengan hasil tertentu dalam konteks tersebut, tetapi sejauh mana mereka bisa diandalkan dan konsisten—terutama dalam kasus yang kompleks—masih belum jelas.”
Tommaso Canetta menambahkan bahwa chatbot AI mungkin berguna untuk pemeriksaan fakta yang sangat sederhana. Namun, dia memperingatkan agar tidak menaruh kepercayaan sepenuhnya pada mereka. Kedua pakar sepakat bahwa pengguna harus selalu membandingkan jawaban chatbot dengan sumber lain yang tepercaya.
Artikel ini pertama kali terbit dalam Bahasa Jerman
Diadaptasi oleh Rizki Nugraha
Editor Agus Setiawan
ind:content_author: Matt Ford, Ines Eisele

