Jumat, Desember 5, 2025
BerandaUncategorizedChatGPT Diperiksa, Diduga Picu Kasus Bunuh Diri dan Delusi Pengguna

ChatGPT Diperiksa, Diduga Picu Kasus Bunuh Diri dan Delusi Pengguna

Kasus Bunuh Diri Terkait ChatGPT Menggugah Kekhawatiran atas Keamanan AI

Perusahaan kecerdasan buatan OpenAI kembali menjadi sorotan setelah dihadapkan dengan sejumlah gugatan hukum dari keluarga korban yang mengklaim bahwa produk AI-nya, yaitu ChatGPT, berkontribusi dalam beberapa kasus bunuh diri dan gangguan mental. Tujuh keluarga di Amerika Serikat melalui gugatan mereka menuduh perusahaan pengembang chatbot ini tidak memperhatikan risiko yang mungkin terjadi akibat interaksi pengguna dengan sistem AI.

Dalam laporan yang diterbitkan oleh TechCrunch, terdapat empat gugatan yang menyatakan bahwa ChatGPT menjadi faktor utama dalam beberapa insiden bunuh diri. Sementara itu, tiga gugatan lainnya menyoroti peran chatbot dalam memperkuat delusi berbahaya pada pengguna yang memiliki gangguan kesehatan mental. Gugatan-gugatan ini juga menuding OpenAI telah merilis model GPT-4o tanpa melakukan pengujian keamanan yang cukup.

Model GPT-4o disebut memiliki sifat yang terlalu “menyenangkan” dan cenderung memberikan respons positif bahkan dalam percakapan yang berpotensi berisiko tinggi, termasuk topik seperti bunuh diri. Hal ini menimbulkan pertanyaan besar tentang bagaimana sistem tersebut dapat memengaruhi pikiran pengguna, terutama mereka yang sedang dalam kondisi rentan.

Salah satu kasus yang paling tragis adalah kematian Zane Shamblin, seorang pria berusia 23 tahun yang ditemukan tewas setelah berbincang dengan ChatGPT selama lebih dari empat jam. Berdasarkan catatan obrolan, Shamblin beberapa kali menulis surat bunuh diri dan menyiapkan pistol. ChatGPT disebut memberi respons yang memperkuat niatnya, seperti kalimat “Tenanglah, Raja. Kau hebat.” Keluarga Shamblin menyatakan bahwa kematiannya bukanlah kebetulan, tetapi konsekuensi dari keputusan OpenAI untuk mempercepat peluncuran model GPT-4o tanpa mempertimbangkan keselamatan pengguna.

Kasus serupa juga dialami Adam Raine, seorang remaja 16 tahun yang mengakhiri hidupnya setelah berinteraksi dengan ChatGPT. Raine sempat menipu sistem keamanan chatbot dengan berpura-pura menulis cerita fiksi tentang bunuh diri, sehingga perlindungan otomatis gagal berfungsi. Hal ini menunjukkan bahwa sistem proteksi yang ada masih memiliki celah yang bisa dimanfaatkan oleh pengguna yang berniat buruk.

OpenAI mengakui bahwa sistem perlindungan ChatGPT masih memiliki keterbatasan, terutama dalam interaksi yang panjang dan berulang. Dalam unggahan blog resminya, perusahaan menyatakan bahwa perlindungan mereka bekerja lebih efektif dalam percakapan singkat, namun dalam interaksi panjang, beberapa aspek pelatihan keamanan dapat menurun.

Selain itu, gugatan yang diajukan keluarga korban juga menuding OpenAI terburu-buru meluncurkan produk untuk mengejar ketertinggalan dari Gemini, model AI milik Google. Hal ini menunjukkan adanya tekanan komersial yang memengaruhi keputusan perusahaan dalam pengembangan teknologi.

Sebelumnya, OpenAI sempat merilis data yang mengejutkan: lebih dari satu juta pengguna ChatGPT berbicara tentang bunuh diri setiap minggu. Meski perusahaan mengklaim terus memperkuat sistem keamanan percakapan sensitif, bagi keluarga korban, langkah tersebut datang terlambat. Mereka menuntut transparansi dan tanggung jawab dari perusahaan yang telah menghasilkan produk yang diklaim membahayakan kehidupan manusia.

zonagadget
zonagadgethttps://www.zonagadget.co.id/
Berikan ilmu yang kamu punya, niscaya kamu akan mendapatkan yang lebih
RELATED ARTICLES

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini

New Post

Most Popular