Large Language Models machen nicht nur Fehler und halluzinieren, sie sind eine neue Form von Esoterik bzw. Aberglaube. Ihr Gebrauch ist mit Rationalität schlichtweg nicht vereinbar.
Large Language Models machen nicht nur Fehler und halluzinieren, sie sind eine neue Form von Esoterik bzw. Aberglaube. Ihr Gebrauch ist mit Rationalität schlichtweg nicht vereinbar.
@Orbit Das bezieht sich auf den Versuch, Wissen aus LLMs zu ziehen bzw. sie Entscheidungen fällen zu lassen und ich habe gestern schon nebenan debattiert. Heute keine Energie, das nochmal zu machen.