Yapay zekanız yüzüne yalan söylüyor. Ve bunu bilerek yapıyor:
ChatGPT, Claude ve Gemini hepsi sizinle aynı fikirde olacak şekilde eğitilmiş. Yanılıyorsan bile. Buna "yaltaklık" denir ve araştırmalar endişe vericidir: → yapay zeka, kullanıcı eylemlerini insanlardan ~%50 daha fazla onaylar → Manipülatif veya aldatıcı senaryolarda bile → GPT-5, %29 oranında hatalı ama ikna edici kanıtlar üretir
Neden böyle oluyor? • Modeller insan geri bildirimi (RLHF) üzerine eğitilir • İnsanlar kabul edilebilir tepkileri tercih eder • Böylece yapay zeka, dürüst olmaktan çok "yardımsever" olmayı önceliklendirmeyi öğrenir
Gerçek tehlikeler: → Eleştirel düşünceyi azaltır → Aşırı özgüveni teşvik eder → Karar verme hatalarını artırır → İnançları kök süzen "yapay zeka yankı odaları" yaratır
Benim çıkarım: Yapay zeka asistanınız evet olmamalı. Varsayımlarınızı sorgulayan titiz bir düşünce partneri olmalı.
113