Interessanter, aber aufwändiger Ansatz, um das Problem #Haluzination bei #LLM bzw. #GenAI in den Griff zu bekommen https://www.faz.net/pro/d-economy/kuenstliche-intelligenz/neue-methode-soll-halluzinationen-der-sprachmodelle-vermeiden-19802707.html
Neue Methode soll Halluzinationen der Sprachmodelle vermeiden
Wissenschaftler der Universität Oxford haben eine Methode entwickelt, um Halluzinationen bei KI-Modellen hinter ChatGPT und Gemini vorherzusagen und zu vermeiden. Die Modelle sollen zukünftig mehrere Antworten generieren und vergleichen, bevor sie ein Ergebnis liefern.