Large Language Models machen nicht nur Fehler und halluzinieren, sie sind eine neue Form von Esoterik bzw. Aberglaube. Ihr Gebrauch ist mit Rationalität schlichtweg nicht vereinbar.

https://chatgpt.com/g/g-eBazvNcPn-handwriting-analysis

ChatGPT - Handwriting Analysis

Analyzes your handwriting for personality traits, strengths, and blind-spots

ChatGPT
@ennopark die ersten Versionen waren noch OK. Da war der input ja aber auch noch menschlich. Aber durch das backfeeding von dem ganzen ki Unsinn wird es zunehmend esoterisch und detached von jeder Realität.
Ist so als wenn man massiv auf acid ist.

@ennopark Das ist aber auch wieder ein harter Fall von "Werkzeug falsch für einen bekloppten Auftrag eingesetzt".

Für mich zeugt diese (genau wie viele andere) Verwendung(en) von Unverstand.

Aber aufgrund solcher Beispiele die technischen und praktischen Fähigkeiten der Systeme komplett zu leugnen leider auch.

@larsmb Ja, sehe ich ähnlich. Für mich eignet sie sich zum Prototyping.

Ein LLM ist gut, um einen ersten Entwurf zu erstellen, darüber nachzudenken oder mit den Ideen zu spielen, aber nicht, um das Endprodukt auszuspucken.

/cc @ennopark

@ennopark
hmm ja,
vermutlich ist es sogar noch schlimmer,
LLM basieren auf laengst ueberholt geglaubter wahnhafter Ideologie,
Rasenwahn, Eugentik wie auch Transhumanismus.
Timnit Gebur hats als #TESCREAL zusammengefasst, scheint durchaus plausibel zu sein, wenn man den Spinnern zu hoert; was man tunlichst vermeiden sollte.

https://en.wikipedia.org/wiki/TESCREAL

TESCREAL - Wikipedia

@ennopark https://www.edahnsmall.com/ ist der Autor dieses Dings. Sehr einfach sowas zu bauen, im Prinzip braucht man nur ein Prompt zu formulieren und ChatGPT glaubt und macht was da drin steht. Eigentlich sollte OpenAI für das Veröffentlichen von ChatGPT Apps eine Validierung machen, aber vermutlich sind die zu beschäftigt damit, neue Rechenzentren zu planen...
Edahn Small

Edahn Small

@ennopark
Das ist ChatGPT, Gpt??? das jeweilige LLM das drunter steckt. Und ja ChatGPT ist eine notorisch miese "AI Anwendung".

Anzumerken wäre dann noch das Chat Completion nicht unbedingt das nützlichste ist was man mit Textnodellen machen kann.

Und ja immer alles in einem Prozess designen wo die statistische Natur der Verarbeitung berücksichtigt wird.

Aber da menschliche Sprache generell mehrdeutig ist (nicht umsonst gibt es denn Begriff Eingabe Validierung), seufz.

@ennopark sorry, ich hab meine Modelle mittlerweile lokal auf dem Rechner laufen. Via MCP-Server bedienen diese z.B. meine Grafiksoftware wie Blender oder Freecad. Das geht enorm schnell und ich hab im Nu fertige Objekte für meinen 3D Druck erstellt. Ein lernfähiger Agent koppelt die verschiedenen SubNNs für unterschiedliche Aufgaben. Z.B. Vogelstimmen analyse für Statistische Erhebungen für den NABU. Wo ist da Esoterik?

@Orbit Das bezieht sich auf den Versuch, Wissen aus LLMs zu ziehen bzw. sie Entscheidungen fällen zu lassen und ich habe gestern schon nebenan debattiert. Heute keine Energie, das nochmal zu machen.

https://bsky.app/profile/ennopark.de/post/3m56uxrytrs24

Enno Park (@ennopark.de)

This post requires authentication to view.

Bluesky Social
@ennopark sorry, hab keinen Account bei blusky, kann das also nicht lesen. Meine NNs auf meinem Rechner sind nicht esotherisch. Du kennst die ja gar nicht. Finde du solltest da nach den wirklichen Ursachen suchen.
@ennopark grundsätzlich liegt es nicht unbedingt an den NNs selbst , es ist hier die alte Weisheit: wem gehören die Produktionsmitteln! Ich plädiere daher für die Genossenschafts-KI. Das Geschäftemacher Profit mit allen Mitteln inklusive Lüge und Esoterik machen wollen ist nun mal unser gewähltes Kapitalistisches Handicap. Das sollten wir seit der Kaffeefahrt und den Kauf von Bieberbettwäsche für 999€ eigentlich geschnallt haben.