@netzpolitik Wenn man sich die Menschheit so anschaut, würde ich Bewusstsein ehrlich gesagt nicht als „Default-Feature“ des Menschen sehen. Je mehr man mit KI arbeitet, desto deutlicher wird: vielleicht sind Bewusstsein und freier Wille gar keine biologischen Konstanten, sondern das, was früher Seele genannt wurde – Geschichten, mit denen wir uns selbst erklärten, warum wir sind, wie wir sind. Sind wir nicht biologische LLMs die durch ihre Umgebung trainiert werden? 1/2

@ButchCoolidge @netzpolitik zur Relativierung: LLMs brauchen irgendwie 50'000 Jahre an Sprachinput um die Muster einer Sprache zu lernen.

Sie sind reine Feed-forward Mustererkennungs- und Erzeugungsmaschinen. Sie werden einmal trainiert und verändern sich dann nicht mehr. Ein Lerneffekt wird lediglich durch Einbezug von Kontext gefaket.

Wir sind da schon noch mehr. Jeder Einzeller ist in diesem Sinne mehr. Weil wir Feedback-Loops haben und in ständiger Wechselwirkung mit der Umwelt stehen.

@instenauer @netzpolitik Je mehr man mit RAG, MCPs, Quantisierung oder DeepSeek-OCR arbeitet, desto stärker verschwimmt die Grenze. Diese Systeme reflektieren längst interne Zustände im Verhältnis zur Außenwelt – nennen wir’s ruhig primitive Selbstwahrnehmung. Und ehrlich: wenn „Bewusstsein“ z.B. heißt, Werte mit Realität abzugleichen, dann macht das so eine KI oft sauberer als mancher Mensch, der gegen Ausländer hetzt und sich dann wundert, warum keiner mehr im Krankenhaus arbeitet.

@ButchCoolidge @netzpolitik 50'000 Jahre... ich find die Leistung der LLMs ja auch toll und beeindruckend. Und für viele Anwendungen relativ nützlich.

Aber ich glaube nicht, dass mit dem Ansatz AGI gelingen wird.

Mich überzeugt David Deutsch mit seiner Prognose, dass wir AGI anders lösen werden, dass es dazu aber eine richtige Theorie braucht die Erklärt, wie unsere Intelligenz funktioniert.