@stayinbed
Also: Es gibt verschiedene Arten von Fehlern. Einmal habe ich das Buch umgestellt auf neue Rechtschreibung. Da ist noch viel „im Folgenden“ falsch gewesen. Das wäre sicher gefunden worden. Ansonsten: Nein. Die Theorie ist zu selten. Bei der #LOT letztes Jahr hatte ja ein Doktorand die Hausaufgaben schon mit #ChatGPT gemacht. Was er anbrachte, war im Prinzip richtig, nur war es mit anderen Merkmalen gemacht, als ich verwendet hatte. Das #LLM hatte also aus dem Trainingsmaterial irgendwas anderes extrahiert.
Die Fehler sind auch entweder Spitzfindigkeiten in den Formulierungen oder hochgradig nicht-trivial. Die Interaktion von verschiedenen Phänomenen (Verbstellung, Vorfeldbesetzung, Verbalkomplex, Koordination, bestimmte Annahmen über Merkmalsgeometirien und formale Grundlagen). Vieles davon nie aufgeschrieben.
Bei den Spitzfindigkeiten ist zum Beispiel die Wendung: „ungrammatischer Satz“ dabei. So etwas kann es ja gar nicht geben. Entweder etwas ist ein Satz, dann ist es grammatisch, oder es ist eben kein Satz. Ich rede jetzt immer von „ungrammatischer Wortfolge“.
LLMs können nicht denken. Das müssten sie aber um herauszufinden, was das, was ich schreibe bedeutet und was für Vorhersagen meine Theorie macht. So funktioniert #Wissenschaft: Eine Theorie macht Vorhersagen. Die können überprüft werden und wenn sie nicht zur Realität passen, ist die Theorie falsch.
Von #generalAI sind wir noch weit weg. Ich kann nicht sehen, wie das funktionieren soll. Es sei denn, sie bauen etwas von dem, was wir schon haben, ein. Irgendwie muss man halt denken und Schlüsse ziehen.
Im Bild ist nur eine Ungenauigkeit zu sehen. Da fehlt ein Stück Pfad. Aber auch das wird ein LLM wohl nicht finden, denn ich erkläre, wie die Pfade aufgebaut sind und warum und weiter vorn im Buch ist dieser Pfad genau so noch drin (ist ja auch ein Copy & Paste-Fehler). Man müsste die Struktur verstehen, um zu wissen, dass diese Pfade gleich aufgebaut sein müssen.