Large Language Models machen nicht nur Fehler und halluzinieren, sie sind eine neue Form von Esoterik bzw. Aberglaube. Ihr Gebrauch ist mit Rationalität schlichtweg nicht vereinbar.
Large Language Models machen nicht nur Fehler und halluzinieren, sie sind eine neue Form von Esoterik bzw. Aberglaube. Ihr Gebrauch ist mit Rationalität schlichtweg nicht vereinbar.
@ennopark Das ist aber auch wieder ein harter Fall von "Werkzeug falsch für einen bekloppten Auftrag eingesetzt".
Für mich zeugt diese (genau wie viele andere) Verwendung(en) von Unverstand.
Aber aufgrund solcher Beispiele die technischen und praktischen Fähigkeiten der Systeme komplett zu leugnen leider auch.
@ennopark
hmm ja,
vermutlich ist es sogar noch schlimmer,
LLM basieren auf laengst ueberholt geglaubter wahnhafter Ideologie,
Rasenwahn, Eugentik wie auch Transhumanismus.
Timnit Gebur hats als #TESCREAL zusammengefasst, scheint durchaus plausibel zu sein, wenn man den Spinnern zu hoert; was man tunlichst vermeiden sollte.
@ennopark
Das ist ChatGPT, Gpt??? das jeweilige LLM das drunter steckt. Und ja ChatGPT ist eine notorisch miese "AI Anwendung".
Anzumerken wäre dann noch das Chat Completion nicht unbedingt das nützlichste ist was man mit Textnodellen machen kann.
Und ja immer alles in einem Prozess designen wo die statistische Natur der Verarbeitung berücksichtigt wird.
Aber da menschliche Sprache generell mehrdeutig ist (nicht umsonst gibt es denn Begriff Eingabe Validierung), seufz.
@Orbit Das bezieht sich auf den Versuch, Wissen aus LLMs zu ziehen bzw. sie Entscheidungen fällen zu lassen und ich habe gestern schon nebenan debattiert. Heute keine Energie, das nochmal zu machen.