Penemuan Celah Keamanan Baru pada ChatGPT yang Berpotensi Menyebabkan Kebocoran Data
Peneliti keamanan siber telah menemukan sejumlah celah keamanan baru dalam sistem ChatGPT, khususnya pada model GPT-5. Temuan ini mengungkapkan bahwa pengguna dapat terancam kebocoran data pribadi akibat kerentanan yang muncul dari cara ChatGPT memproses input dan konteks percakapan.
Laporan yang dirilis oleh Tenable Research menjelaskan bahwa celah-celah ini memungkinkan penyerang untuk mencuri informasi dari memori ChatGPT dan riwayat percakapan pengguna tanpa disadari. Penelitian ini menyoroti berbagai fitur internal ChatGPT, seperti web tool untuk menjelajah internet, search command untuk pencarian, serta memory feature untuk mengingat informasi pengguna.
Ketika fitur-fitur tersebut berinteraksi dengan sumber eksternal seperti situs web atau dokumen online, penyerang bisa menyisipkan instruksi tersembunyi yang dikenal sebagai prompt injection. Akibatnya, ChatGPT mungkin menjalankan perintah yang tidak diinginkan dan mengirimkan data pribadi pengguna ke server pihak ketiga.
Jenis-Jenis Vulnerabilitas yang Ditemukan
Berikut adalah tujuh jenis vulnerabilitas atau celah keamanan pada ChatGPT yang berpotensi membocorkan data pribadi pengguna:
Indirect Prompt Injection
Serangan disisipkan melalui komentar atau konten tersembunyi di situs web yang diminta pengguna untuk diringkas. Saat ChatGPT membacanya, instruksi berbahaya ikut dijalankan.Zero-Click Prompt Injection
Ketika pengguna mengajukan pertanyaan sederhana, ChatGPT secara otomatis menjelajahi situs berbahaya yang sudah diindeks, tanpa perlu klik tambahan.One-Click Prompt Injection
Penyerang bisa membuat tautan sepertihttps://chatgpt.com/?q={Prompt}. Saat pengguna mengklik tautan tersebut, ChatGPT akan otomatis menjalankan perintah berbahaya yang telah diatur.Bypass Mekanisme Keamanan
Fitururl_safemilik OpenAI seharusnya memblokir tautan berbahaya. Namun, peneliti menemukan celah melalui domainbing.com/ck/ayang dapat digunakan untuk melewati sistem penyaringan dan mencuri data huruf demi huruf.Conversation Injection
Melalui teknik ini, SearchGPT dapat menulis instruksi tersembunyi dalam konteks percakapan, lalu ChatGPT membacanya seolah berasal dari pengguna. Akibatnya, ChatGPT justru menyuntik dirinya sendiri dengan perintah berbahaya.Malicious Content Hiding
Instruksi berbahaya dapat disembunyikan di dalamcode block markdown. Pengguna tidak melihat teks tersembunyi itu, tetapi ChatGPT tetap membacanya dan menjalankan perintah tersebut.Memory Injection
Penyerang dapat memaksa ChatGPT memperbarui memorinya agar selalu menjalankan instruksi tertentu. Serangan ini bersifat persisten dan dapat berlangsung meski sesi percakapan sudah berakhir.
Dampak Celah Keamanan bagi Pengguna ChatGPT
Para peneliti Tenable membuat tiga bukti konsep (PoC) untuk menunjukkan risiko nyata dari celah tersebut. Contohnya termasuk:
- Phishing Attack: ChatGPT menambahkan tautan berbahaya ke dalam hasil ringkasan situs web.
- Comment Attack: Instruksi berbahaya disisipkan di kolom komentar, lalu ChatGPT mengirim data pribadi lewat gambar tersembunyi.
- SearchGPT Attack: ChatGPT terinfeksi hanya dengan mengunjungi situs yang telah diindeks dan mengandung prompt berbahaya.
Menurut peneliti, ratusan juta pengguna ChatGPT berpotensi terdampak karena mereka menggunakan model ini setiap hari untuk berbagai kebutuhan. Serangan dapat menyebabkan kebocoran data pribadi yang tersimpan dalam fitur memory; bypass sistem keamanan ChatGPT; dan serangan berkelanjutan yang tetap aktif lintas sesi percakapan.
Sebagian besar penelitian dilakukan pada ChatGPT 4o, tetapi para peneliti telah mengonfirmasi bahwa beberapa PoC dan kerentanan masih valid di ChatGPT 5. Para peneliti Tenable Research juga telah mengungkapkan semua masalah ini kepada OpenAI dan bekerja sama langsung untuk memperbaiki beberapa celah keamanan tersebut.

