Michael Hahn hat den #Leibnitzpreis bekommen, mit einer Arbeit dazu, unter welchen Bedingungen #LLMs daneben liegen. Herzliche Glückwunsch!
Ich kenne ihn seid er 16 ist. Da kam er zu einer #HPSG-Konferenz, mit einer Arbeit zum Arabischen. Er hatte die Analyse mit dem Computer implementiert und als Frank Richter nach dem Vortrag erstaunt fragte, mit welchem System er gearbeitet habe, war die Antwort: „Für #TRALE brauchte man eine Prolog-Lizenz, deshalb habe ich mir selbst einen Parser geschrieben.“ Uns ist allen die Kinnlade heruntergefallen, denn das sind eigentlich zwei Jobs: Ein solches System entwickeln und eine Analyse für das Arabische ausarbeiten. Und das mit 16. Die meisten Erwachsenen kriegen kein gerades HPSG-Papier hin.
Ein außergewöhnlicher Mensch!
„Selbst die besten KI-Sprachmodelle (Large Language Models, LLMs) können bei logischen Fragestellungen deutlich danebenliegen. Dann stimmen Rechnungen nicht, Reihenfolgen werden falsch wiedergegeben oder die KI halluziniert und denkt sich falsche Kennzahlen oder Zitate aus. Michael Hahns Arbeiten an der Schnittstelle von Maschinellem Lernen und Computerlinguistik erklären, warum LLMs trotz massiver Fortschritte weiterhin Fehler machen. Er hat eine Forschungsrichtung initiiert, die die Fähigkeiten der neuronalen Netzarchitektur analysiert, auf der alle populären LLMs basieren – der Transformer-Architektur. Er konnte mathematisch beweisen, dass Transformer bei Aufgaben scheitern, in denen jeder Teil der Eingabe für die Ausgabe relevant ist, das heißt, wenn die Änderung eines einzigen Zeichens das korrekte Ergebnis verändern kann. So lassen sich theoretische Einsichten gewinnen, mit denen man die Stärken und Schwächen von LLMs besser vorhersagen kann. “
https://www.dfg.de/de/gefoerderte-projekte/preistraeger-innen/leibnitz-preis/2026/hahn






