Ist euch auch schon aufgefallen, dass man an Themen, in denen man sich gut auskennt, erst so richtig merkt, wie schlecht der Output von LLMs ist?
Wenn das stimmt, bedeutet das, dass Leute, die sich allzu sehr von LLMs beeindrucken lassen, insgesamt wenig Ahnung haben.