Det finns ett slags Lucas-kritikproblem (eller Grossman Stigliz) med LLM:er; i det att de kan vara korrekta när de mestadels bygger på mänskligt genererade texter; men när vi börjar skapa massor av LLM-genererad BS vem vet