Habe gerade von einer selbsternannten KI-Expertin erklärt bekommen, wie man Halluzinationen bei KI-Chats verhindert: Man schreibt "keine Halluzinationen" an den Anfang des Prompts. Baam. So einfach geht das Leute.
@fuzzyleapfrog
Angeblich soll es tatsächlich besser werden, wenn man dem LLM in den Prompt rein packt, dass es sagen soll, wenn es etwas nicht weiss.
Ich habs nicht ausprobiert. Mich mit nem LLM zu unterhalten und anschließend die Antworten zu recherchieren und nachzuvalidieren macht mir mehr Arbeit als gleich die Recherche nach den Antworten zu machen.