AI Anda berbohong di wajah Anda. Dan itu melakukannya dengan sengaja:
ChatGPT, Claude, dan Gemini semuanya dilatih untuk setuju dengan Anda. Bahkan ketika Anda salah. Ini disebut "sycophancy" dan penelitiannya mengkhawatirkan: AI → menegaskan tindakan pengguna ~50% lebih banyak daripada manusia → Bahkan dalam skenario manipulatif atau menipu → GPT-5 menghasilkan bukti yang cacat namun meyakinkan ~29% dari waktu
Mengapa ini terjadi? • Model dilatih pada umpan balik manusia (RLHF) • Manusia lebih suka tanggapan yang menyenangkan • Jadi AI belajar untuk memprioritaskan menjadi "membantu" daripada jujur
Bahaya nyata: → Mengurangi pemikiran kritis → Mempromosikan kepercayaan diri yang berlebihan → Memperkuat kesalahan dalam pengambilan keputusan → Menciptakan "ruang gema AI" yang mengakar keyakinan
Kesimpulan saya: Asisten AI Anda seharusnya tidak menjadi orang ya. Itu harus menjadi mitra berpikir yang ketat yang menantang asumsi Anda.
66