Penggunaan ChatGPT yang Semakin Meluas
Penggunaan ChatGPT kini semakin meluas karena kemampuannya membantu berbagai tugas, mulai dari merangkum dokumen hingga menjawab pertanyaan kompleks. Kemudahan ini membuat banyak orang mengandalkannya dalam pekerjaan sehari-hari maupun kebutuhan pribadi, tanpa berpikir panjang soal dampak jangka panjangnya.
Di balik kecanggihannya tersebut, CEO ChatGPT OpenAI, Sam Altman, mengingatkan agar pengguna lebih berhati-hati. Ia menyoroti pentingnya memahami risiko penggunaan AI dan bagaimana informasi yang dibagikan bisa memiliki konsekuensi serius.
Obrolan di ChatGPT Bisa Digunakan di Pengadilan
Sam Altman menyampaikan bahwa percakapan dengan ChatGPT tidak dilindungi secara hukum. Artinya, informasi yang dibagikan pengguna dapat digunakan sebagai bukti dalam kasus hukum. Meskipun itu obrolan yang bersifat pribadi atau sensitif sekali pun.
Dalam podcast “This Past Weekend” bersama Theo Vonn, Altman menyebut kondisi ini sebagai hal yang sangat kacau. Ia mengatakan, OpenAI secara hukum wajib menyimpan percakapan, termasuk yang sudah dihapus. “Jadi, kalau Anda bicara dengan ChatGPT tentang hal-hal paling sensitif, lalu ada gugatan atau semacamnya, kami mungkin diharuskan untuk menunjukkannya. Dan menurut saya itu sangat kacau,” ujarnya.
Kebutuhan Kerangka Hukum untuk ChatGPT
Altman menekankan bahwa AI memang memerlukan kerangka hukum atau kebijakan terkait isi obrolan penggunanya dengan program tersebut. Ia membandingkan percakapan ChatGPT dengan percakapan yang dilakukan dengan dokter, pengacara, dan terapis. Dari hal itu, Altman berpikir, chatbot AI memang harus diberikan hak hukum yang sama.
“Kalau Anda berbicara dengan pengacara atau dokter, ada perlindungan hukum. Tapi kami belum punya itu saat pengguna berbicara dengan ChatGPT,” katanya. Ia menyebut tidak masuk akal jika perusahaan AI seperti OpenAI bisa diminta menyerahkan isi percakapan pengguna dalam proses hukum.
Privasi Menjadi Isu Besar
Fenomena pengguna yang memperlakukan chatbot seperti terapis, pelatih hidup, atau penasihat hukum kini makin umum. Padahal, tidak ada jaminan kerahasiaan dalam interaksi dengan AI. Ini membuat privasi menjadi isu besar, terutama karena belum ada aturan jelas soal perlindungan data dalam percakapan AI.
Peneliti dari Universitas Carnegie Mellon, William Agnew, menambahkan bahwa model AI bisa saja memuntahkan informasi pribadi pengguna di sesi lain. Artinya, informasi sensitif yang Anda bagikan bisa muncul kembali dalam konteks berbeda, termasuk diakses pihak yang tidak diinginkan.
Langkah yang Harus Dilakukan Pengguna
Altman pun mendorong adanya kejelasan hukum soal privasi data dalam penggunaan AI. Sementara itu, ia menyarankan pengguna untuk berpikir dua kali sebelum mengungkap rahasia terdalam mereka ke chatbot seperti ChatGPT.
Beberapa langkah yang bisa diambil oleh pengguna antara lain:
- Memahami batasan privasi dalam penggunaan AI.
- Menghindari berbagi informasi sensitif yang bisa menimbulkan risiko.
- Mempertanyakan kebijakan privasi perusahaan AI sebelum menggunakan layanan mereka.
- Menjaga kesadaran akan potensi konsekuensi hukum dari setiap interaksi dengan AI.
Dengan semakin berkembangnya teknologi AI, penting bagi pengguna untuk tetap waspada dan memahami risiko yang mungkin timbul dari penggunaan alat-alat seperti ChatGPT.

