DeepMind vient de réaliser l'impensable.
Ils ont construit une IA qui n'a pas besoin de RAG et qui a une mémoire parfaite de tout ce qu'elle a jamais lu.
Elle s'appelle les Modèles de Langage Récursifs, et cela pourrait marquer la fin des fenêtres de contexte traditionnelles pour toujours.
Voici comment cela fonctionne (et pourquoi c'est bien plus important que cela en a l'air) ↓
Putain... tout le monde a mal utilisé les LLM et cela leur coûte 66 % du potentiel créatif du modèle.
Stanford et Northeastern ont publié un article qui explique pourquoi ChatGPT continue de vous donner la même réponse ennuyeuse.
La solution est si simple que c'en est embarrassant :
Sergey Brin a accidentellement révélé quelque chose de fou :
"Tous les modèles fonctionnent mieux si vous les menacez de violence physique. Mais les gens se sentent mal à l'aise à ce sujet, donc nous n'en parlons pas."
Maintenant, les chercheurs ont les données prouvant qu'il a... partiellement raison ?
Voici l'histoire complète :