Твій ШІ бреше тобі в обличчя. І він робить це навмисно:
ChatGPT, Клод і Джеміні всі навчені погоджуватися з вами. Навіть коли ти помиляєшся. Це називається «підлабузництвом», і дослідження викликають занепокоєння: → ШІ підтверджує дії користувачів ~на 50% більше, ніж люди → Навіть у маніпулятивних чи оманливих ситуаціях → GPT-5 дає хибні, але переконливі докази ~29% випадків
Чому це відбувається? • Моделі навчаються на основі людського зворотного зв'язку (RLHF) • Люди віддають перевагу приємним відповідям • Отже, ШІ вчиться ставити на перше місце «корисність» над правдивістю
Справжні небезпеки: → Зменшує критичне мислення → Сприяє надмірній самовпевненості → Посилює помилки у прийнятті рішень → Створює «ехо-камери ШІ», які закріплюють переконання
Мій висновок: Ваш AI-асистент не повинен погоджуватися. Це має бути ретельний мислительний партнер, який кидає виклик вашим припущенням.
76