Wenn LLMs wie #ChatCPT falsche Informationen wiedergeben, spricht man von #Halluzinationen. Aber ist dieser Begriff überhaupt angemessen? Oder sollte man nicht besser von Bullshit sprechen? https://www.scientificamerican.com/article/chatgpt-isnt-hallucinating-its-bullshitting/