@343max @rstockm @wortkomplex
Ist korrekt - das war die Stelle an der ich meinte, dass man das Ergebnis jetzt noch umformulieren könnte - exakt weil mir die vergeigte Formulierung aufgefallen war.
Die Modelle "verstehen" durchaus - wie sehr versucht ja z.B. der GLUE benchmark (general language understanding evaluation) zu messen. Es stimmt aber, dass ich stärker auf die Gefahr hätte hinweisen können, dass das Model falschen Output erzeugt ohne dass es dem Nutzer auffällt.
Durch retrieval augmentation, selection/inference separation und andere Techniken wird sich das verbessern. Recht interessantes Paper dazu ist z.B. "Faithful Reasoning Using LLMs" von Antonia Creswell. Das Modell agiert da schrittweise und fragt sich nach jedem Schritt "Kann ich die Antwort wissen?" Ich denke, dass wir bald auch zu nachvollziehbaren Argumentationspfaden und vertrauenswürdigeren Ergebnissen kommen.