Hvis LLM rent faktisk var i stand til at bruge sandhed som kriterie for sine udtalelser, så ville det ikke være noget problem at træne nye modeller på eksisterende LLM-tekst. Hver iteration ville jo introducere sine egne nye erkendelser og indsigter. Og næste iteration ville så kunne bygge videre på dem, så mængden af sandhed stiger.