@tazgetroete Der Autor hat in vielem recht, er übersieht aber zwei wesentliche Punkte:
1. Ein LLM ist keine „KI“, und dieses Framing als „KI“ ist die Grundursache dafür, dass so viele Menschen diese Systeme völlig unreflektiert nutzen!
2. Die Technik hinter einem LLM hat keine Ahnung was ein Fakt ist. Sie berechnet lediglich die Wahrscheinlichkeit für den nächste Token des zu erstellenden Textes!
Damit ist ein „richtiger“ Output bloß ein Zufallsprodukt, und die Ergebnisse meist nutzlos…