Diese Layer kennen "wir" (die Menschheit als Ganzes) beim Computer, weil "wir" sie selbst gebaut haben.
Bei menschlicher Neurologie weiß man, wie Neuronen so ungefähr funktionieren, und in der Psychologie spricht man über Gedanken etc., weiß aber nicht wirklich, wie die materialisiert sind. Die Abbildung dazwischen kennt man bloß statistisch. Soweit jedenfalls mein Laienwissen.
Und so ist es aktuell bei dieser LLM-basierten "KI". Man kennt die Mathematik hinter einzelnen Knoten in künstlichen neuronalen Netzwerken und weiß, wie man die auf Mustererkennung trainiert. Schon sowas wie Übertrainieren versteht man meines Wissens nur statistisch, nicht strukturell.
Und mit den Skills baut man jetzt "Denkprozesse" nach, die quasi etwas benutzen, was Kahneman System 2 nennt.
Und beides verbindet man mit LLMs, die rein statistisch funktionieren. Weil man nicht weiß, was da eigentlich passiert, kann man nur den notwendigen Teil der Struktur noch nicht effizienter bauen (weil man nicht weiß, was dieser Teil ist und was ihn ausmacht).
Denn da würde IMO etwas wesentlich kleineres und mechanischeres ausreichen.
Wenn der Prozess weiter voranschreitet, dürfte das auch viele anderweitig verallgemeinerbare Erkenntnisse bringen.
@tessarakt here's the unrolled thread: https://mastoreader.io?url=https%3A%2F%2Fmastodon.social%2F%40tessarakt%2F116233434428669577
Next time, kindly set the visibility to 'Mentioned people only' and mention only me (@mastoreaderio). This ensures we avoid spamming others' timelines and threads unless you intend for others to see the unrolled thread link as well.
Thank you!