Warum halluzinieren Sprachmodelle? OpenAI (https://cdn.openai.com/pdf/d04913be-3f6f-4d2b-b283-ff432ef4aaa5/why-language-models-hallucinate.pdf) zeigt: Es ist kein Bug, sondern eine Folge des Trainings! 🤖
Modelle werden wie Studenten auf Tests getrimmt. Gängige Benchmarks belohnen plausibles Raten und bestrafen ein "Ich weiß nicht". Das Ergebnis: lieber eine falsche Antwort geben als keine.
Die Lösung liegt also nicht nur im Training, sondern in einer fairen Bewertung, die Unsicherheit nicht bestraft.


