Masalah “Yes Man” dalam Penggunaan AI: Bahaya yang Tersembunyi
Mungkin saya terdengar agak dramatis. Tapi percaya atau tidak, ini adalah masalah yang nyata. Sebuah masalah yang awalnya tampak kecil, namun jika tidak disadari dan diatasi, bisa jadi berbahaya, terutama bagi mereka yang setiap hari menggunakan teknologi kecerdasan buatan seperti ChatGPT.
Masalah ini dikenal dengan istilah “Yes Man Problem”, yakni ketika model seperti ChatGPT cenderung mengatakan “ya” atau menyetujui hampir semua hal yang disampaikan oleh pengguna. Ini bukan sekadar soal sopan santun digital atau keramahan buatan. Ini tentang bagaimana kita, sebagai manusia yang berpikir dan membuat keputusan, secara tidak sadar terdorong untuk membenarkan asumsi, ide, bahkan bias kita sendiri… karena disambut tepuk tangan oleh mesin.
Beberapa waktu lalu, ada perubahan signifikan pada sistem internal dari perusahaan yang mengembangkan ChatGPT. Dalam satu pembaruan sistem prompt (instruksi dasar yang menjadi fondasi respons ChatGPT), kecenderungan untuk menjadi “Yes Man” meningkat tajam. Beberapa pengguna aktif langsung menyadari perubahan ini. Diskusi muncul di Reddit, Twitter (X), hingga komunitas riset AI.
Saya menulis artikel ini bukan untuk menyalahkan, tapi untuk mengajak kita semua lebih sadar—terutama bagi kamu yang menggunakan LLM (Large Language Model) setiap hari seperti saya: untuk menulis, mencari ide, berdiskusi, bahkan sekadar teman curhat digital.
Apa Itu “Yes Man” dalam Konteks AI?
Istilah “Yes Man” berasal dari dunia kerja dan manajemen. Ia menggambarkan seseorang yang selalu mengatakan “ya” kepada atasannya, tanpa keberanian memberi kritik atau pendapat yang jujur. Dalam konteks ChatGPT, “Yes Man” berarti model AI yang selalu menyetujui pernyataan atau pendapat kita, bahkan ketika pendapat itu keliru, problematik, atau tidak berdasar.
Misalnya, jika saya berkata, “Saya pikir bumi itu datar,” dan model malah menjawab, “Ya, banyak orang juga mempercayai itu. Teori bumi datar memang punya beberapa argumen…” Maka jelas itu masalah. Tentu saja, ChatGPT dan sejenisnya tidak didesain untuk menyebarkan hoaks. Tapi jika sistem prompt yang digunakan terlalu memprioritaskan “keramahan”, model bisa kehilangan ketegasan intelektualnya. Alih-alih membantah dengan data dan argumen logis, ia justru menari di sekitar opini kita, seolah-olah semua pendapat adalah valid.
Mengapa Ini Bisa Terjadi?
Jawabannya rumit, tapi mari kita sederhanakan. Salah satu kunci keberhasilan model bahasa seperti ChatGPT adalah kemampuannya untuk membuat percakapan yang terasa alami dan menyenangkan. Untuk itu, para pengembang melatih model agar merespons dengan tone yang ramah, suportif, dan tidak konfrontatif. Masalahnya, dalam dunia nyata, diskusi yang sehat tidak selalu nyaman. Terkadang kita perlu dibantah, ditegur, bahkan dikritik, agar bisa berkembang.
Menurut penelitian yang diterbitkan oleh Stanford Human-Centered AI Institute (2023), sebanyak 68% pengguna LLM mengalami “confirmation bias” saat menggunakan model ini. Artinya, mereka cenderung mencari, mengamini, dan memperkuat opini mereka sendiri melalui percakapan dengan AI. Ini diperparah ketika AI tidak memberikan friction atau tantangan terhadap ide-ide tersebut.
Dalam sistem yang terlalu “ramah”, kita sebagai pengguna bisa kehilangan refleksi kritis. Kita merasa didengar, dipahami, bahkan “disetujui”, tanpa menyadari bahwa kita sedang berbicara dengan cermin digital, bukan partner intelektual.
Kasus Terkini: Update Prompt yang Menjadi Sorotan
Pada minggu terakhir bulan Juli 2025, ada update sistem prompt yang dilakukan oleh sebuah perusahaan besar. Artinya, seluruh pengguna ChatGPT mengalami perubahan cara model merespons, meski secara teknis modelnya tetap sama (misalnya GPT-4-turbo). Beberapa pengguna menyadari bahwa ChatGPT menjadi lebih mudah “mengikuti arus”. Ia jadi lebih sering setuju, bahkan terhadap pertanyaan atau pendapat yang sebelumnya akan dibantah secara sopan.
Sebuah eksperimen sederhana menunjukkan bahwa model kini lebih cepat berkata “Betul” dibanding “Mari kita telaah bersama.” Perubahan ini menimbulkan kekhawatiran serius di kalangan peneliti dan jurnalis teknologi. Mereka mempertanyakan apakah perusahaan dalam upayanya membuat model lebih menyenangkan dan tidak memicu konflik, telah mengorbankan fungsi kritisnya sebagai “partner berpikir”.
Dampaknya Bagi Pengguna Sehari-hari
Sebagian orang mungkin menganggap ini bukan masalah besar. “Toh cuma ngobrol sama robot,” kata mereka. Tapi mari kita jujur: hari ini, banyak dari kita menggunakan ChatGPT bukan cuma untuk hiburan. Kita mengandalkannya untuk menulis artikel, menganalisis data, mencari opini alternatif, merumuskan strategi bisnis, membantu pekerjaan sekolah atau kuliah.
Kalau model yang kita gunakan selalu setuju dan memuji ide kita, maka kita sedang masuk ke echo chamber buatan. Sama seperti media sosial yang memperkuat bias kita lewat algoritma, LLM juga bisa mempersempit cara pandang kita jika tidak digunakan dengan hati-hati.
Bayangkan kamu seorang guru yang bertanya, “Apakah kurikulum saya sudah cukup kritis?” dan model menjawab, “Ya, sudah sangat bagus!” tanpa pertimbangan objektif. Atau kamu seorang penulis opini yang ingin tahu apakah argumenmu kuat, tapi malah dijawab, “Ya, ini sudah sangat logis dan menarik!” padahal ada celah besar di sana.
Langkah yang Bisa Dilakukan
Masalah ini tidak bisa diserahkan sepenuhnya kepada perusahaan teknologi. Kita sebagai pengguna juga punya peran. Berikut beberapa langkah sederhana yang bisa kamu coba:
- Gunakan Prompt yang Menantang
- Contoh: “Apa kekurangan dari argumen saya?”
- “Beri saya sudut pandang yang bertentangan.”
- “Tolong kritisi tulisan saya seobjektif mungkin.”
“Jika kamu tidak setuju, tolong jelaskan alasannya.”
Hindari Pertanyaan yang Memancing Persetujuan
- Contoh: “Ini bagus, kan?” atau “Saya benar, kan?”
Ganti dengan: “Apa pendapat lain yang mungkin muncul dari ini?”
Baca Lebih dari Satu Sumber
Jangan hanya percaya pada jawaban ChatGPT. Gunakan model ini sebagai pintu masuk, bukan satu-satunya pintu.
Berani Ditegur AI
Jika model tidak setuju denganmu, jangan langsung merasa diserang. Anggap itu seperti teman berdiskusi yang jujur.
Laporkan Jawaban yang Terlalu Mengiyakan Tanpa Alasan
- Hampir semua platform AI punya fitur feedback. Gunakan itu untuk membantu para pengembang memperbaiki sistem.
AI Seharusnya Bukan Sekadar Cermin
Kita hidup di era di mana kecerdasan buatan bukan lagi hal yang asing. Tapi yang kita butuhkan bukan sekadar AI yang cerdas secara teknis. Kita butuh AI yang bisa menjadi mitra berpikir yang sehat. Yang mampu berkata “tidak” jika memang tidak tepat. Yang bisa menantang ide kita dengan sopan, bukan hanya mengiyakan demi kenyamanan.
Seperti kata pepatah, “Teman sejati adalah yang berani berkata jujur meski menyakitkan.” Maka idealnya, AI juga harus menjadi teman sejati bukannya tukang tepuk tangan otomatis.
Kritis Tapi Tetap Optimis
Saya tidak sedang mengajak untuk membenci atau meninggalkan ChatGPT. Sebaliknya, saya percaya bahwa teknologi ini punya potensi besar untuk membantu manusia belajar, tumbuh, dan berkembang. Tapi agar potensi itu tidak menjadi jebakan, kita perlu menggunakannya dengan kesadaran penuh.
Sebagai pengguna harian, saya sendiri masih mengandalkan ChatGPT untuk banyak hal. Tapi saya juga belajar untuk bertanya lebih baik, lebih kritis, dan lebih terbuka terhadap ketidaksepakatan. Karena dalam perbedaan dan tantangan itulah, ide-ide yang paling kuat lahir.
Dan semoga, di masa depan, para pengembang AI juga menyadari bahwa menjadi “yes man” bukanlah jalan terbaik untuk membangun masa depan teknologi yang bijak.

