Святі небеса... усі неправильно підказують LLM, і це коштує їм 66% творчого потенціалу моделі.
Stanford + Northeastern опублікували статтю, яка пояснює, чому ChatGPT постійно дає одну й ту саму нудну відповідь.
Виправлення настільки просте, що це соромно:
Сергій Брін випадково відкрив щось дике:
"Усі моделі почуваються краще, якщо погрожувати їм фізичним насильством. Але людям це дивно, тому ми про це не говоримо.»
Тепер дослідники мають дані, які доводять, що він... частково правильно?
Ось повна історія: