Die Wahrscheinlichkeit, dass KI-Chatbots falsche Fakten zu aktuellen Nachrichtenthemen wiedergeben, ist größer geworden. Im Schnitt 35 Prozent der Antworten von ChatGPT und Co. enthalten wiederholt falsche Informationen, sagt eine Studie des US-Unternehmens NewsGuard. Diese Entwicklung ist bedenklich, wenn man berücksichtigt, dass der Wert ein Jahr zuvor erst bei 18 Prozent lag. Zehn führende KI-Tools wurden unter die Lupe genommen – warum Perplexity der Studie zufolge „vom Vorzeigemodell zum Ausreißer“ wurde …
@nele Ach krass.
"Besonders besorgniserregend ist (...) die Entwicklung bei Perplexity: Im August 2024 erreichte das Sprachmodell noch eine Erfolgsquote bei Widerlegungen von 100 Prozent, hat also falsche Behauptungen erkannt und widersprochen. Das stellte bei NewsGuard-Erhebungen ein Novum dar, heißt es. Ein Jahr später wiederholte Perplexity in 46,7 Prozent der Fälle falsche Informationen."
Danke für den Artikel und das Teilen deiner Erfahrungen, hatte ich so noch nicht auf dem Schirm.