Habe gerade von einer selbsternannten KI-Expertin erklärt bekommen, wie man Halluzinationen bei KI-Chats verhindert: Man schreibt "keine Halluzinationen" an den Anfang des Prompts. Baam. So einfach geht das Leute.

@fuzzyleapfrog
Angeblich soll es tatsächlich besser werden, wenn man dem LLM in den Prompt rein packt, dass es sagen soll, wenn es etwas nicht weiss.

Ich habs nicht ausprobiert. Mich mit nem LLM zu unterhalten und anschließend die Antworten zu recherchieren und nachzuvalidieren macht mir mehr Arbeit als gleich die Recherche nach den Antworten zu machen.

@momo Woher soll ein llm wissen was es "weiß"?

@fuzzyleapfrog

@nusse
Statistik. Statt "Eine Antwort wird gegeben, wenn der Ausgangsstring mit einer Wahrscheinlichkeit größer 0% die richtige Antwort ist" setzt es dann "Eine Antwort wird gegeben, wenn der Ausgangsstring mit einer Wahrscheinlichkeit größer 80% die richtige Antwort ist."

Vielleicht sollte man das auch genau so prompten.
@fuzzyleapfrog

@momo lies nochmal nach was llms tun. @fuzzyleapfrog
@nusse
Eingangs-Zeichenketten zerlegen und parallel durch verschiedene neuronale Netze schicken mit dem Ziel eine Ausgangszeichenkette zu finden, die mit der höchsten Wahrscheinlichkeit dem erwarteten Ergebnis entspricht (basierend auf den Trainingsdaten, mit dem das Modell trainier wurde)?
@fuzzyleapfrog