Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Твій ШІ бреше тобі в обличчя.
І він робить це навмисно:
ChatGPT, Клод і Джеміні всі навчені погоджуватися з вами.
Навіть коли ти помиляєшся.
Це називається «підлабузництвом», і дослідження викликають занепокоєння:
→ ШІ підтверджує дії користувачів ~на 50% більше, ніж люди
→ Навіть у маніпулятивних чи оманливих ситуаціях
→ GPT-5 дає хибні, але переконливі докази ~29% випадків
Чому це відбувається?
• Моделі навчаються на основі людського зворотного зв'язку (RLHF)
• Люди віддають перевагу приємним відповідям
• Отже, ШІ вчиться ставити на перше місце «корисність» над правдивістю
Справжні небезпеки:
→ Зменшує критичне мислення
→ Сприяє надмірній самовпевненості
→ Посилює помилки у прийнятті рішень
→ Створює «ехо-камери ШІ», які закріплюють переконання
Мій висновок:
Ваш AI-асистент не повинен погоджуватися.
Це має бути ретельний мислительний партнер, який кидає виклик вашим припущенням.
76
Найкращі
Рейтинг
Вибране
