Det er et slags Lucas-kritikkproblem (eller Grossman Stigliz) med LLM-er; ved at de kan være nøyaktige når de for det meste trekker på menneskegenererte tekster; men når vi begynner å lage massevis av LLM-generert BS, hvem vet