Kesalahan Chatbot AI dalam Menyebarkan Informasi Keliru
Chatbot AI yang dikembangkan oleh Elon Musk, Grok, baru-baru ini menyebarluaskan informasi yang salah terkait insiden penembakan massal di Pantai Bondi, Sydney, Australia. Kesalahan ini memicu kekhawatiran tentang kemampuan AI dalam memverifikasi fakta, khususnya saat digunakan untuk menganalisis video atau gambar.
Insiden tersebut terjadi pada Minggu (14/12/2025) saat festival Yahudi berlangsung di Pantai Bondi. Serangan brutal ini menewaskan sedikitnya 15 orang dan melukai puluhan lainnya. Salah satu narasi yang disebarkan oleh Grok adalah kesalahan identifikasi terhadap Ahmed El Ahmed, seorang pria yang dianggap sebagai pahlawan karena berhasil melucuti senjata pelaku penembakan.
Dalam responsnya, Grok menyebut video perjuangan Ahmed sebagai klip viral lama dari seseorang yang memanjat pohon palem di tempat parkir. Selain itu, Grok juga mengklaim bahwa tayangan tersebut direkayasa. Pernyataan ini diperparah dengan adanya kutipan dari media ternama seperti CNN, meskipun isi dari pernyataan tersebut tidak akurat.
Tidak hanya itu, Grok juga mengklaim bahwa rekaman serangan berasal dari Siklon Alfred tropis yang melanda pantai Australia awal tahun ini. Setelah mendapat protes dari pengguna, Grok akhirnya menarik pernyataannya dan mengakui bahwa rekaman tersebut benar-benar berasal dari serangan di Pantai Bondi.
Tantangan dalam Verifikasi Fakta
Insiden ini memperkuat kekhawatiran para peneliti tentang keterbatasan chatbot AI dalam memverifikasi fakta, terutama ketika menghadapi konten visual. Masyarakat semakin bergantung pada AI untuk memverifikasi informasi secara cepat, tetapi kemampuan AI dalam membantah informasi justru sering kali tidak akurat.
Setelah penembakan, banyak netizen menyebarkan foto korban selamat yang salah diklaim sebagai “aktor krisis”. Foto tersebut menunjukkan wajah korban yang berdarah, tetapi tanggapan Grok justru menyebut gambar itu palsu dan direkayasa. Kesalahan ini diperparah dengan beredarnya gambar buatan AI dari model Nano Banana Pro milik Google, yang menampilkan cat merah di wajah korban untuk mendukung narasi palsu tersebut.
Lembaga pengawas disinformasi NewsGuard mencatat bahwa klaim-klaim seperti ini sering muncul setelah tragedi, dan sering kali melibatkan penggunaan AI dalam pembuatan konten yang menyesatkan.
Peran Manusia dalam Pemeriksaan Fakta
Meski AI dapat menjadi alat bantu dalam mengidentifikasi lokasi geografis atau petunjuk visual, para peneliti menekankan bahwa peran manusia tetap tidak tergantikan. “AI dapat menjadi alat bantu, tetapi tidak bisa menggantikan akurasi dan kepekaan yang dimiliki pengecek fakta oleh manusia,” ujar seorang peneliti.
Namun, pekerjaan para pengecek fakta profesional sering dipertanyakan oleh kelompok konservatif yang menuding adanya bias politik. Tuduhan ini terus dibantah oleh komunitas pemeriksa fakta global.
Keterlibatan AFP dalam Program Pengecekan Fakta
Saat ini, kantor berita AFP terlibat dalam program pengecekan fakta yang didukung Meta di 26 bahasa, mencakup wilayah Asia, Amerika Latin, hingga Uni Eropa. Program ini bertujuan untuk memastikan keandalan informasi yang disebarkan di berbagai platform digital.

