@ButchCoolidge @netzpolitik zur Relativierung: LLMs brauchen irgendwie 50'000 Jahre an Sprachinput um die Muster einer Sprache zu lernen.
Sie sind reine Feed-forward Mustererkennungs- und Erzeugungsmaschinen. Sie werden einmal trainiert und verändern sich dann nicht mehr. Ein Lerneffekt wird lediglich durch Einbezug von Kontext gefaket.
Wir sind da schon noch mehr. Jeder Einzeller ist in diesem Sinne mehr. Weil wir Feedback-Loops haben und in ständiger Wechselwirkung mit der Umwelt stehen.
@ButchCoolidge @netzpolitik 50'000 Jahre... ich find die Leistung der LLMs ja auch toll und beeindruckend. Und für viele Anwendungen relativ nützlich.
Aber ich glaube nicht, dass mit dem Ansatz AGI gelingen wird.
Mich überzeugt David Deutsch mit seiner Prognose, dass wir AGI anders lösen werden, dass es dazu aber eine richtige Theorie braucht die Erklärt, wie unsere Intelligenz funktioniert.