Fehler können mehr oder weniger schwerwiegend sein. Da LLMs im Gegensatz zu Menschen kein Weltmodell besitzen, ist die Schwere der Fehler nicht sinnvoll begrenzbar. Ein menschlicher Koch kann Zucker und Salz verwechseln, aber er wird nie auf die Idee kommen, Klebstoff auf die Pizza zu schmieren.
LLMs sind vor allem dort sinnvoll, wo es nicht auf die Schwere der gemachten Fehler ankommt. Oft liegt das aber schlicht und ergreifend daran, dass es um Vorgänge geht, wo das Ergebnis ohnehin irrelevant ist.