Perubahan Kebijakan ChatGPT untuk Menjaga Keamanan Pengguna
Sejak 29 Oktober lalu, ChatGPT telah melakukan perubahan signifikan terkait aturan internalnya. Platform chatbot AI ini kini tidak lagi memberikan saran langsung dalam beberapa bidang penting seperti kesehatan, hukum, dan keuangan. Alih-alih memberikan jawaban spesifik, ChatGPT hanya akan menjelaskan prinsip dasar, mekanisme umum, serta menyarankan pengguna untuk berkonsultasi dengan ahli profesional.
Aturan baru ini mencakup larangan keras untuk menyebutkan nama obat atau memberikan dosis tertentu. Tidak ada lagi template tuntutan hukum yang bisa dihasilkan oleh chatbot. Selain itu, ChatGPT juga tidak lagi memberikan rekomendasi investasi atau saran jual-beli. Hal ini dilakukan untuk memastikan bahwa pengguna tidak mengandalkan informasi yang mungkin tidak akurat atau berisiko.
Risiko Menggunakan ChatGPT sebagai Terapis
Beberapa orang menggunakan ChatGPT sebagai pengganti terapis. Meskipun chatbot dapat menawarkan teknik grounding atau jawaban umum, risiko yang terkait sangat besar. ChatGPT tidak memiliki pengalaman langsung sebagai terapis, tidak bisa membaca bahasa tubuh penanya, dan tidak memiliki kemampuan empati yang tulus.
Terapis berlisensi memiliki tanggung jawab hukum untuk melindungi pasien dari bahaya. Sementara itu, ChatGPT tidak memiliki mandat tersebut. Dalam situasi krisis, pengguna sebaiknya tidak bergantung pada chatbot untuk mendapatkan bantuan darurat.
Batasan dalam Pemrosesan Informasi Keuangan
Dalam hal keuangan, ChatGPT dapat menjelaskan apa itu ETF atau Exchange Traded Fund. Namun, ia tidak memiliki kemampuan untuk mengetahui rasio utang terhadap pendapatan, tujuan pensiun, atau selera risiko pengguna. Jika uang sungguhan dan denda regulator terlibat, pengguna disarankan untuk berkonsultasi dengan profesional keuangan.
Keterbatasan dalam Situasi Darurat
ChatGPT juga memiliki keterbatasan dalam situasi darurat. Misalnya, jika tercium bau karbon monoksida di ruangan, pengguna tidak boleh membuka chatbot untuk bertanya apakah mereka dalam bahaya. Sebaliknya, evakuasi harus dilakukan segera. Model bahasa besar seperti GPT-4o di balik ChatGPT tidak mampu mendeteksi bau gas atau mengirimkan tim darurat.
Keterbatasan Informasi Realtime
Meski ChatGPT Search telah diluncurkan oleh OpenAI pada akhir 2024, kemampuannya untuk memperbarui informasi secara real-time masih terbatas. Chatbot ini dapat mengambil halaman web dan harga saham terbaru, tetapi pembaruan membutuhkan prompt baru setiap kali. Ini membuatnya tidak efektif untuk memantau berita terkini secara langsung.
Risiko Data Sensitif yang Disimpan
Salah satu risiko terbesar penggunaan ChatGPT adalah penyimpanan data sensitif. Apa pun yang dibagikan pengguna, termasuk penghasilan, nomor Jaminan Sosial, atau informasi rute bank, kemungkinan besar akan menjadi bagian dari data pelatihan ChatGPT. Risiko serupa berlaku untuk kontrak klien, rekam medis, atau nomor paspor.
Setelah informasi sensitif dimasukkan dalam prompt, tidak ada jaminan di mana informasi itu disimpan atau siapa saja yang bisa mengaksesnya. Oleh karena itu, pengguna harus sangat berhati-hati dalam membagikan data pribadi melalui platform ini.

