Ist euch auch schon aufgefallen, dass man an Themen, in denen man sich gut auskennt, erst so richtig merkt, wie schlecht der Output von LLMs ist?

Wenn das stimmt, bedeutet das, dass Leute, die sich allzu sehr von LLMs beeindrucken lassen, insgesamt wenig Ahnung haben.

@ennopark Ja. Ich finde, man sollte LLMs nur in diesen Bereichen einsetzen (so überhaupt), in denen man ihre Ausgaben validieren kann.