Es gibt eine Art von Lucas-Kritik-Problem (oder Grossman-Stiglitz) mit LLMs; sie können genau sein, wenn sie hauptsächlich auf von Menschen generierten Texten basieren; aber sobald wir eine Menge von LLM-generiertem Unsinn erstellen, wer weiß.