Peinlicher KI-Müll: Deloitte, eine der umsatzstärksten Beratungs- und Wirtschaftsprüfungsgesellschaften der Welt, erstattet dem australischen Arbeitsministerium einen Teil des Honorares für einen Prüfbericht zurück. Der Bericht enthielt KI-halluzinierte Angaben. Darunter waren mehrere falsche Fußnoten, nicht existente Quellen und z.B. auch ein Gerichtsverfahren, das „völlig falsch zitiert“ wurde. 👇

https://orf.at/stories/3407637/

#peinlich #fehler #ki #ai #aislop #workslop #kimuell #kifehler #deloitte #unternehmensberatung #kihalluzinationen

„KI-Gatsch“ in Bericht: Deloitte erstattet Australien Geld zurück

Das Beratungsunternehmen Deloitte muss der australischen Regierung für einen fehlerhaften Bericht Geld zurückerstatten. Das vom Arbeitsministerium für umgerechnet knapp 250.000 Euro in Auftrag gegebene Dokument wurde offenbar zumindest teilweise per KI generiert und enthielt falsche Fußnoten und Zitate. Der peinliche Vorfall verweist erneut auf die Tücken KI-generierter Texte und Bilder, die zunehmend als „KI-Gatsch“ („AI Slop“) bezeichnet werden.

ORF.at

"Laut OpenAI sind Halluzinationen ein inhärentes Problem von LLMs wie GPT-5. Das liegt wohl am Training und verbreiteten Benchmarks." 🦄✨

https://www.golem.de/news/halluzinationen-warum-denken-sich-ki-modelle-einfach-fakten-aus-2509-199912.html

#KIHalluzinationen #KünstlicheIntelligenz

Halluzinationen: Warum denken sich KI-Modelle einfach Fakten aus? - Golem.de

Laut OpenAI sind Halluzinationen ein inhärentes Problem von LLMs wie GPT-5. Das liegt wohl am Training und verbreiteten Benchmarks.

Golem.de
Wenn ChatGPT dir Märchen erzählt: Wie du KI-Halluzinationen rechtzeitig erkennst - t3n – digital pioneers
https://t3n.de/news/chatgpt-maerchen-halluzinationen-podcast-1688919/
#KI #Chatbot #ChatGPT #KIHalluzinationen #Halluzinationen
KI-Halluzinationen bei Code-Entwicklung führen in Security-Katastrophe
https://winfuture.de/news,150635.html #KI #KIHalluzinationen #Halluzinationen #Programmieren
KI-Halluzinationen bei Code-Entwicklung führen in Security-Katastrophe

Der zunehmende Einsatz von KI-Modellen bei der Entwicklung von Software führt zu alarmierenden Sicherheitsproblemen. Das zeigt eine aktuelle Untersuchung, bei der über eine halbe Million Code-Beispiele genauer untersucht wurden.

WinFuture.de
Amazons Q hat Halluzinationen - KINEWS24.de

Amazons Q hat Halluzinationen

KI NEWS24