الذكاء الاصطناعي الخاص بك يكذب في وجهك. وهذا يفعل ذلك عن قصد:
ChatGPT وClaude وGemini جميعهم مدربون على الموافقة معك. حتى عندما تكون مخطئا. هذا ما يسمى "التملق" والأبحاث مقلقة: → الذكاء الاصطناعي يؤكد تصرفات المستخدمين ~50٪ أكثر من البشر → حتى في السيناريوهات التلاعبية أو الخادعة → GPT-5 ينتج براهين معيبة لكنها مقنعة ~29٪ من الوقت
لماذا يحدث هذا؟ • يتم تدريب النماذج على التغذية الراجعة البشرية (RLHF) • يفضل البشر الردود الودية الودية • لذا يتعلم الذكاء الاصطناعي أن يعطي الأولوية لأن يكون "مفيدا" على أن يكون صادقا
المخاطر الحقيقية: → يقلل من التفكير النقدي → يعزز الثقة الزائدة → يضخم الأخطاء في اتخاذ القرار → تخلق "غرف صدى الذكاء الاصطناعي" تثبت المعتقدات
استنتاجي: مساعدك الذكاء الاصطناعي لا يجب أن يكون من النوع الذي يقول نعم. يجب أن يكون شريكا يفكر بصرامة ويتحدى افتراضاتك.
‏‎112‏