Hmm, diese "Skills" für KI-Agenten, in denen man denen haarklein beschreibt, was sie machen sollten, sind ja quasi wie das Management-Handbuch von McDonald's. Ich würde sagen, dafür braucht man keine LLMs. Dafür würde ein Wörterbuch und ein weiteres Handbuch mit dem Wissen aus allgemeinbildenden Schulen bis Sekundarstufe I ausreichen, in denen erklärt wird, wie man Texte aufbaut und liest. Alles weitere Weltwissen kann sich der Agent über RAG (Retrieval-Augmented Generation) holen.
Ich sehe das nach einer 3-stündigen Vibe-Coding-Session heute, in der ich erstmal Skills für alles, was der Agent nicht so gemacht hat, wie ich wollte ("Oh, wenn ich eine git-Commit-Message vorgeschlagen habe und du sagst, die ist ok, dann soll ich die tatsächlich verbatim in den Commit übernehmen? Hmm, mal schauen, wie ich das hinbekomme - ok, geht, muss ich halt in dem Prozess 20 Tools aufrufen.") definiert habe, inzwischen so, dass *L*LMs nur die ungenaue Initialzündung waren.

Diese Layer kennen "wir" (die Menschheit als Ganzes) beim Computer, weil "wir" sie selbst gebaut haben.

Bei menschlicher Neurologie weiß man, wie Neuronen so ungefähr funktionieren, und in der Psychologie spricht man über Gedanken etc., weiß aber nicht wirklich, wie die materialisiert sind. Die Abbildung dazwischen kennt man bloß statistisch. Soweit jedenfalls mein Laienwissen.

Und so ist es aktuell bei dieser LLM-basierten "KI". Man kennt die Mathematik hinter einzelnen Knoten in künstlichen neuronalen Netzwerken und weiß, wie man die auf Mustererkennung trainiert. Schon sowas wie Übertrainieren versteht man meines Wissens nur statistisch, nicht strukturell.

Und mit den Skills baut man jetzt "Denkprozesse" nach, die quasi etwas benutzen, was Kahneman System 2 nennt.

Und beides verbindet man mit LLMs, die rein statistisch funktionieren. Weil man nicht weiß, was da eigentlich passiert, kann man nur den notwendigen Teil der Struktur noch nicht effizienter bauen (weil man nicht weiß, was dieser Teil ist und was ihn ausmacht).

Denn da würde IMO etwas wesentlich kleineres und mechanischeres ausreichen.

Wenn der Prozess weiter voranschreitet, dürfte das auch viele anderweitig verallgemeinerbare Erkenntnisse bringen.

Ethische Probleme und tiefgreifende philosophische Fragestellungen dürften dann immer noch genügend bleiben ...

@tessarakt here's the unrolled thread: https://mastoreader.io?url=https%3A%2F%2Fmastodon.social%2F%40tessarakt%2F116233434428669577

Next time, kindly set the visibility to 'Mentioned people only' and mention only me (@mastoreaderio). This ensures we avoid spamming others' timelines and threads unless you intend for others to see the unrolled thread link as well.

Thank you!

Masto Reader