Heute eine Online-Fortbildung mit dem Team des Nell-Breuning Haus in Herzogenrath. Dazu in den Erkundungsmaterialien eingefügt: "Anfangs haben viele Nutzer*innen erwartet, dass die Qualität der KI-Ausgaben mit der Zeit steigen würde. Das hat sich als Fehlschluss erwiesen. Da viele KI-Sprachmodelle (oft in Echtzeit) im Internet auf Inhalte zurückgreifen und es dort mehr und mehr und häufig fehlerhafte KI-generierte Inhalte gibt, geht die Spirale eher nach unten."
@nele Spannend, ich mach mit meinem Team eher gegenteilige Erfahrungen. Die Möglichkeiten, auf Quellen zuzugreifen, Bilder/PDFs/etc anzuhängen, oder mit Cursor direkt in den Dateien zu arbeiten, haben bei uns zu höherer KI-Qualität und schnelleren Arbeitsabläufen geführt. Ich bin mit meiner Arbeitsweise noch nicht auf mehr Halluzinationen als vor 2 Jahren gestoßen 🤔
@Reher
Ja, wenn man mit eigenen Dokumenten arbeitet, dann ist das natürlich anders. Hier fehlte in meiner Ergänzung der Kontext.
Über die Zunahme von falschen Antworten in direkten Chats, hatte ich zuletzt erst hier wieder gelesen (aber das noch nicht genauer weiter recherchiert, sondern mache vor allem sich selbst diese Erfahrung): https://meedia.de/news/beitrag/20039-chatgpt-amp-co-mehr-als-ein-drittel-der-chatbot-antworten-enthalten-falsche-behauptungen.html
Wert verdoppelt: Mehr als ein Drittel der Chatbot-Antworten enthalten falsche Behauptungen

Die Wahrscheinlichkeit, dass KI-Chatbots falsche Fakten zu aktuellen Nachrichtenthemen wiedergeben, ist größer geworden. Im Schnitt 35 Prozent der Antworten von ChatGPT und Co. enthalten wiederholt falsche Informationen, sagt eine Studie des US-Unternehmens NewsGuard. Diese Entwicklung ist bedenklich, wenn man berücksichtigt, dass der Wert ein Jahr zuvor erst bei 18 Prozent lag. Zehn führende KI-Tools wurden unter die Lupe genommen – warum Perplexity der Studie zufolge „vom Vorzeigemodell zum Ausreißer“ wurde …

MEEDIA

@nele Ach krass.
"Besonders besorgniserregend ist (...) die Entwicklung bei Perplexity: Im August 2024 erreichte das Sprachmodell noch eine Erfolgsquote bei Widerlegungen von 100 Prozent, hat also falsche Behauptungen erkannt und widersprochen. Das stellte bei NewsGuard-Erhebungen ein Novum dar, heißt es. Ein Jahr später wiederholte Perplexity in 46,7 Prozent der Fälle falsche Informationen."

Danke für den Artikel und das Teilen deiner Erfahrungen, hatte ich so noch nicht auf dem Schirm.