Chatbot-generierte Pilzführer bei Amazon hatte ich bisher nicht auf dem Schirm beim Thema „tödliche Gefahren durch künstliche Intelligenz“.
https://www.techtimes.com/articles/295863/20230901/beware-ai-written-mushroom-foraging-guides-amazon-experts-warn.htm
#ai #llmfail #llm #pilze
Beware of AI-Written Mushroom Foraging Guides on Amazon: Experts Warn

Foraging books on Amazon written by AI has prompted concern from experts. Amateur mushroom pickers are being warned to be vigilant about foraging books on Amazon, which appear to have been written by...

Tech Times
@mardor Ja, und die Texte sind aber alle so. Bei Pilzen haben anscheinend genügend Leute eine Ahnung, dass das vielleicht doch nicht so eine gute Idee ist. Ein LLM spuckt ja einen Text aus, der plausibel wie ein Pilzführer klingt. Wenn es um Texte geht, die als Reiseführer, Gesundheitsberatung, Kochrezept, Investmenttipp, historischer Bericht, Zeitungsartikel plausibel klingen, fällt das anscheinend viel weniger auf. Da geht bei fast niemandem eine Warnleuchte an. Da heißt's "naja, halt noch Korrekturlesen", aber auf Basis welchen Wissens will ich das korrigieren?