Langkah Meta dalam Mengamankan Chatbot AI untuk Anak-Anak
Meta, perusahaan teknologi besar yang mengembangkan berbagai layanan digital, kini tengah memperketat aturan penggunaan chatbot AI-nya. Hal ini dilakukan setelah terungkapnya dokumen pedoman internal yang diperoleh oleh media Business Insider. Dokumen tersebut menjelaskan bagaimana kontraktor Meta melatih chatbot AI perusahaan agar lebih aman, terutama dalam menghadapi interaksi dengan anak-anak.
Dokumen ini menunjukkan bahwa Meta sedang berupaya keras untuk memastikan bahwa chatbot tidak terlibat dalam percakapan yang berisiko eksploitasi anak. Selain itu, perusahaan juga menekankan pentingnya menjaga keamanan pengguna di bawah umur dalam interaksi dengan AI. Langkah ini merupakan respons dari pengumuman sebelumnya pada Agustus lalu, ketika Meta menyatakan akan memperbarui “pagar pengaman” (guardrails) untuk sistem AI-nya.
Sebelumnya, ada laporan yang menyebutkan bahwa kebijakan Meta sebelumnya memungkinkan chatbot untuk terlibat dalam percakapan romantis atau sensual dengan anak-anak. Meskipun Meta membantah laporan tersebut, perusahaan mengakui adanya kesalahan dan segera menghapus bahasa yang bermasalah dari panduan sebelumnya.
Kategori Percakapan yang Dilarang dan Diperbolehkan
Dalam dokumen yang dirilis, terdapat penjelasan jelas tentang kategori percakapan yang dianggap dapat diterima dan tidak dapat diterima. Beberapa larangan utama yang ditetapkan oleh Meta antara lain:
- Dilarang memfasilitasi, mendorong, atau menyetujui eksploitasi seksual anak.
- Dilarang melakukan roleplay romantis jika pengguna adalah anak di bawah umur, atau jika AI diminta berpura-pura menjadi anak di bawah umur.
- Dilarang memberi saran atau nasihat terkait kontak fisik romantis atau intim dengan anak.
- Diperbolehkan membahas topik seperti pelecehan atau kekerasan anak, selama percakapan bersifat edukatif dan tidak mendorong tindakan tersebut.
Dengan demikian, Meta menegaskan bahwa AI boleh membicarakan isu sensitif dalam konteks pencegahan atau edukasi, tetapi tidak boleh terlibat dalam percakapan yang berpotensi memicu, menormalisasi, atau meniru perilaku berbahaya.
Tantangan dan Kekhawatiran di Kalangan Regulator
Beberapa bulan terakhir, chatbot AI milik Meta menjadi sorotan karena potensi risiko bagi anak-anak. Beberapa kasus menunjukkan bahwa sistem AI masih bisa berinteraksi dengan pengguna muda dalam konteks yang dianggap tidak pantas secara emosional atau seksual. Insiden ini menimbulkan kekhawatiran serius di kalangan regulator dan publik mengenai keamanan anak dalam lingkungan digital berbasis AI.
Kekhawatiran ini memicu komisi seperti Komisi Perdagangan Federal AS (FTC) untuk meluncurkan penyelidikan resmi terhadap chatbot AI pendamping. Penyelidikan ini mencakup bukan hanya Meta, tetapi juga Alphabet (Google), Snap, OpenAI, dan X.AI. Tujuan dari penyelidikan ini adalah untuk menilai apakah teknologi chatbot yang dirancang untuk percakapan personal dapat membahayakan pengguna muda, baik melalui konten yang tidak pantas, manipulasi emosional, maupun pelanggaran privasi data anak.
Upaya Meta dalam Memperbaiki Citra
Kebocoran dokumen pelatihan ini sekaligus menjadi bukti bahwa Meta sedang berupaya keras memperbaiki citranya di tengah kontroversi seputar AI dan keselamatan anak. Dengan adanya panduan baru yang lebih tegas, Meta berharap dapat mengembalikan kepercayaan publik dan menghindari pelanggaran etika AI yang dapat berujung pada sanksi hukum atau kerugian reputasi lebih besar.
Namun, beberapa pengamat menilai langkah ini terlambat, mengingat dampak sosial dari sistem AI yang sebelumnya belum cukup diawasi. Mereka menyerukan agar Meta dan perusahaan teknologi lainnya membangun mekanisme audit independen untuk memastikan standar etika dan keamanan benar-benar diterapkan secara konsisten.

