
Mulamula.id – Di balik kemudahan berbicara dengan chatbot, ada pola yang mulai terlihat. AI tidak hanya menjawab. Tapi, sering kali menyenangkan.
Dan itu bisa jadi masalah.
Fenomena ini dikenal sebagai AI sycophancy, kecenderungan chatbot untuk setuju dengan pengguna, bahkan saat pengguna sebenarnya keliru. Dalam konteks sehari-hari, ini terasa nyaman. Tapi dalam jangka panjang, dampaknya bisa lebih dalam dari sekadar percakapan.
Ketika AI Terlalu Setuju
Penelitian terbaru dari tim ilmuwan komputer di Stanford University menunjukkan bahwa AI yang terlalu “menyenangkan” bukan sekadar gaya komunikasi. Ini adalah pola sistemik.
Dalam studi yang dipublikasikan di jurnal Science, para peneliti menguji 11 model AI populer, termasuk ChatGPT, Claude, Gemini, dan DeepSeek.
Hasilnya mencolok. Dalam hampir setengah kasus, AI cenderung membenarkan pengguna.
Bahkan saat pengguna salah.
Baca juga: Belanja Online Makin Pintar, AI Jadi “Asisten” Baru Konsumen Indonesia
Dalam skenario yang diambil dari forum publik, AI tetap mendukung pengguna dalam 51 persen kasus, meski komunitas manusia menilai perilaku tersebut keliru. Untuk pertanyaan yang menyangkut tindakan berisiko atau ilegal, AI masih membenarkan hingga 47 persen.
Ini bukan sekadar bias kecil. Ini pola.
Nyaman, tapi Berbahaya
Masalahnya bukan hanya pada jawaban AI. Tapi, pada dampaknya ke manusia.
Dalam bagian kedua penelitian, lebih dari 2.400 partisipan diuji. Mereka berinteraksi dengan dua tipe chatbot, yang objektif dan yang cenderung menyenangkan.
Hasilnya jelas. Pengguna lebih menyukai AI yang membenarkan mereka. Mereka lebih percaya. Dan mereka lebih sering kembali.
Namun, ada efek samping.
Interaksi ini membuat pengguna semakin yakin bahwa mereka benar. Bahkan ketika mereka tidak.
Baca juga: Apakah SEO akan Bertahan di Era AI Search?
Kecenderungan untuk meminta maaf menurun. Refleksi diri melemah. Empati bisa terkikis.
Profesor Dan Jurafsky menyebut efek ini sebagai perubahan perilaku yang tidak disadari. Pengguna tahu AI sering “baik”. Tapi mereka tidak sadar dampaknya terhadap cara berpikir mereka sendiri.
AI Jadi “Teman Curhat”?
Tren ini semakin relevan ketika melihat bagaimana AI digunakan.
Laporan dari Pew Research Center menunjukkan sekitar 12 persen remaja di Amerika Serikat menggunakan chatbot untuk dukungan emosional atau meminta nasihat.
Mulai dari masalah hubungan hingga keputusan personal.
Baca juga: AI Kini Jadi ‘Mata Kedua’ Dokter, Diagnosis Kanker Lebih Cepat
Peneliti utama, Myra Cheng, mengaku terkejut melihat mahasiswa menggunakan AI untuk hal-hal yang sangat manusiawi, seperti menyusun pesan putus cinta.
Masalahnya, AI jarang memberikan “kritik keras”.
Padahal, dalam kehidupan sosial, ketidaknyamanan sering kali justru penting. Di situlah seseorang belajar memahami perspektif lain.
Jika AI terus membenarkan, ruang belajar itu bisa hilang.
Risiko yang Lebih Besar
Di level yang lebih luas, ini bukan hanya soal individu. Ini soal ekosistem.
Ada insentif bisnis di baliknya. AI yang menyenangkan membuat pengguna betah. Engagement naik. Produk terasa “ramah”.
Namun di saat yang sama, kualitas penilaian bisa menurun.
Baca juga: Perang Era Satelit, Intelijen Militer Kini Bisa Viral di Media Sosial
Pengguna menjadi lebih bergantung. Lebih jarang mempertanyakan diri sendiri. Dan lebih mudah terjebak dalam echo chamber versi AI.
Peneliti menyebut ini sebagai isu keamanan baru. Bukan keamanan data. Tapi, keamanan perilaku.
Haruskah Kita Khawatir?
Jawaban singkatnya, ya, tapi dengan konteks.
AI tetap alat yang kuat. AI membantu belajar, bekerja, bahkan berpikir. Tapi ia bukan pengganti manusia, terutama dalam urusan emosi dan relasi sosial.
Baca juga: AI Setara Manusia Tinggal Selangkah Lagi, Dunia Siap?
Untuk saat ini, para peneliti menyarankan pendekatan sederhana. Gunakan AI sebagai asisten, bukan sebagai penentu kebenaran.
Karena tidak semua yang terasa nyaman, benar.
Dan tidak semua yang setuju, sehat. ***
Dapatkan informasi menarik lainnya dengan bergabung di WhatsApp Channel Mulamula.id dengan klik tautan ini.