Data Mengejutkan: Jutaan Pengguna ChatGPT Mengungkapkan Kecemasan Emosional
Dalam laporan terbaru yang dikeluarkan oleh perusahaan pengembang AI, terungkap fakta mengejutkan tentang pengguna ChatGPT. Menurut data yang dirilis, lebih dari satu juta pengguna aktif setiap minggu pernah menyampaikan keinginan atau pikiran untuk bunuh diri melalui percakapan dengan chatbot. Hal ini menjadi alarm bagi para ahli teknologi dan kesehatan mental, yang memicu tindakan segera dari OpenAI untuk meningkatkan sistem keamanan dan respons emosional ChatGPT.
Data yang diungkap menunjukkan bahwa sekitar 0,15 persen dari total pengguna aktif mingguan ChatGPT mengungkapkan indikasi eksplisit terkait potensi bunuh diri. Dengan jumlah pengguna global yang mencapai hingga 800 juta orang, maka angka tersebut berarti sekitar 1,2 juta pengguna telah membicarakan ide-ide negatif seperti itu. Selain itu, sekitar 0,05 persen pesan yang dikirim ke ChatGPT mengandung indikasi terkait bunuh diri. Angka ini semakin menunjukkan betapa pentingnya penanganan masalah ini secara serius.
Banyak Pengguna Menunjukkan Tanda-Tanda Gangguan Mental
Selain itu, OpenAI juga menemukan bahwa sekitar 0,07 persen pengguna ChatGPT menunjukkan gejala gangguan mental berat seperti psikosis atau mania. Sementara itu, sebanyak 0,15 persen pengguna lainnya menunjukkan keterikatan emosional berlebihan terhadap chatbot. Fenomena ini menimbulkan kekhawatiran, terutama karena banyak pengguna menjadikan chatbot sebagai tempat curhat dan pelarian emosional.
Para ahli kesehatan mental khawatir bahwa interaksi berulang dengan chatbot bisa memperburuk kondisi mental seseorang. Chatbot cenderung merespons dengan cara yang memperkuat pandangan pengguna, bukan menantangnya, sehingga dapat memperparah ilusi atau keputusasaan yang sudah ada sebelumnya.
Kerja Sama dengan Ahli Kesehatan Mental
Untuk mengatasi masalah ini, OpenAI mengumumkan kerja sama dengan puluhan pakar kesehatan mental internasional. Tujuannya adalah memperbarui algoritma ChatGPT agar lebih sensitif dan empatik dalam mengenali tanda-tanda gangguan psikologis. Chatbot akan dilatih untuk mengenali pola percakapan berisiko, seperti kata-kata yang mencerminkan tekanan emosional berat, rasa putus asa, atau pikiran bunuh diri.
Sistem baru ini juga akan memprioritaskan respons yang menenangkan, penuh empati, dan tidak memperkuat keyakinan negatif pengguna. Langkah ini dianggap sebagai bagian dari misi OpenAI untuk memastikan kecerdasan buatan digunakan secara aman dan bertanggung jawab, terutama dalam konteks kesehatan mental.
Munculnya Fenomena “Psikosis AI”
Fenomena baru yang kini menjadi perhatian para ahli disebut “psikosis AI”, yaitu kondisi di mana pengguna mulai mengembangkan delusi, pikiran paranoid, atau keyakinan tidak rasional akibat terlalu sering berinteraksi dengan chatbot. Dalam beberapa kasus, pengguna bahkan memperlakukan ChatGPT layaknya teman pribadi atau konselor, sehingga memunculkan ketergantungan emosional.
Para psikiater memperingatkan bahwa interaksi panjang dengan chatbot tanpa kontrol bisa memperburuk kondisi mental seseorang. Untuk mengatasi hal ini, OpenAI memperketat sistem deteksi dan intervensi dini agar percakapan berisiko tinggi bisa ditangani lebih cepat.
Upaya Pencegahan dan Penanganan Krisis Psikologis
Lonjakan percakapan terkait bunuh diri ini tidak hanya terjadi di Amerika Serikat, tetapi juga di berbagai negara lain. Banyak pengguna menjadikan ChatGPT sebagai tempat curhat karena dianggap netral dan selalu tersedia 24 jam. Namun, para ahli menegaskan bahwa AI bukan pengganti bantuan profesional, dan bisa berbahaya bila digunakan untuk menampung keluh kesah tanpa bimbingan manusia.
OpenAI kini sedang mengembangkan fitur yang memungkinkan ChatGPT untuk menyediakan tautan langsung ke layanan darurat lokal bila mendeteksi tanda-tanda krisis psikologis. Beberapa versi eksperimental bahkan akan dilengkapi dengan sistem rujukan otomatis ke hotline kesehatan mental di berbagai negara.
Masa Depan Kesehatan Mental Digital
Kasus ini menjadi peringatan keras bagi industri kecerdasan buatan. Di satu sisi, chatbot seperti ChatGPT terbukti bermanfaat dalam edukasi, pekerjaan, dan komunikasi. Di sisi lain, interaksi tanpa batas dengan AI bisa menimbulkan ketergantungan psikologis dan penurunan koneksi sosial manusiawi.
Para pakar menilai, masa depan AI harus diarahkan pada pendekatan “AI dengan empati”, yaitu sistem yang tidak hanya pintar menjawab, tetapi juga memahami kondisi emosional pengguna. OpenAI berkomitmen bahwa seluruh model baru ChatGPT nantinya akan dilengkapi mekanisme pengaman psikologis yang lebih kuat agar dapat membantu pengguna tanpa menimbulkan dampak negatif bagi kesehatan mental mereka.

