Large Language Models machen nicht nur Fehler und halluzinieren, sie sind eine neue Form von Esoterik bzw. Aberglaube. Ihr Gebrauch ist mit Rationalität schlichtweg nicht vereinbar.
Large Language Models machen nicht nur Fehler und halluzinieren, sie sind eine neue Form von Esoterik bzw. Aberglaube. Ihr Gebrauch ist mit Rationalität schlichtweg nicht vereinbar.
@ennopark
hmm ja,
vermutlich ist es sogar noch schlimmer,
LLM basieren auf laengst ueberholt geglaubter wahnhafter Ideologie,
Rasenwahn, Eugentik wie auch Transhumanismus.
Timnit Gebur hats als #TESCREAL zusammengefasst, scheint durchaus plausibel zu sein, wenn man den Spinnern zu hoert; was man tunlichst vermeiden sollte.