KI basiert auf Wahrscheinlichkeiten und kann deswegen nicht intelligent sein.

Wie oft ist diese Aussage zu hören, auch von intelligenten Menschen, die ich sehr schätze.

Der erste Teil der Aussage stimmt: KI basiert auf Wahrscheinlichkeiten. Manche sagen auch Statistik. Andere sagen Stochastik.

Der zweite Teil der Aussage ist fundamental falsch.

https://dr-dsgvo.de/intelligenz-wahrscheinlichkeit-und-zufall/

Secure AI, Digital Privacy & Website Compliance - Dr. GDPR

Leading blog on privacy, GDPR, website compliance & secure AI usage. 1000+ expert articles, tools & checks. 10 languages incl. EN/DE

Dr. DSGVO

@drdsgvo Gehst du in deinem Beitrag nicht implizit davon aus, dass mathematisch/logische Intelligenz die einzige Form von Intelligenz ist?

Deine Realität ist naturwissenschaftlich geprägt. Menschen konstruieren jedoch auch Wirklichkeit – und damit Wissen – durch soziale Beziehungen. Das soziologische Mechanismen.

Vielleicht "attestiert" du deswegen KI-Kritikern irrationales Unbehagen ("vielen unheimlich")?

Der Hinweis, dass KI und Menschen beide unzuverlässig sind, übersieht den Aspekt der Verantwortlichkeit. Ein rechtlicher wie sozialer Aspekt.

Versteh mich nicht falsch: IT und Naturwissenschaften sind faszinierend. Aber sie sind nicht die einzigen Kriterien, um Realität und Intelligenz zu bewerten.

Diese Tatsache ist ebenfalls wissenschaftlich belegt.

@lacrosse Nein, es geht nicht um logische Intelligenz, sondern um Intelligenz, die beim Menschen im Gehirn liegt, das von Signalen gespeist wird (Auge, Ohr etc.).

Genau dies findet auch bei KI statt, es ist exakt identisch.

Der Mensch hat auch noch Aktoren (Beine etc.) . Das ist bei KI-Robotern auch vorhanden, allerdings erst in einem halbwegs frühen Stadium.

Verantwortlichkeit ist ein willkürliches Konstrukt, das der Mensch definiert hat. Der Iran definiert offenbar anders als Deutschland.

@drdsgvo Die These basiert auf einer funktionalistischen Betrachtung des Menschen. Du reduzierst ihn auf seine funktionellen Bestandteile, um ihn mit Technologie vergleichbar zu machen. Ein Beispiel, warum das nicht funktioniert: Schmerz ist nicht nur ein „technisches” Signal des Körpers, sondern hängt auch mit Schmerzerleben zusammen. Das heißt, er hängt mit Lebendigkeit und Körperlichkeit (Spüren, Fühlen etc.) zusammen. Gleiches gilt für Denken, Gedanken: Sie sind mit dem menschlichen Körper verbunden. Das findet nicht ausschließlich im Gehirn statt. Dein gesamter Körper denkt mit.

Verantwortung ist ein menschliches Konstrukt. Und universell. Nicht willkürlich. Unterstellst du etwa, dass sich Eltern im Iran nicht für das Wohlergehen ihrer Kinder verantwortlich fühlen?

@lacrosse Schmerz ist da, um den Körper zu schützen.
Verantwortung und Moral sind zwei verschiedene Dinge. Moral kommt aus Erziehung. Gestern gehört: von der Generation Z meint jeder 3. Mann, die Frau müsse bedingungslos gehorchen. Wo ist da Verantwortung oder Moral?
@drdsgvo Die Frage nach Moral und Verantwortung ist ein gesellschaftlicher Aushandlungsprozess. Es ist interessant, dass du das Beispiel der Geschlechterrollen wählst, da sich hier Parallelen zum heutigen Einsatz von Technologie ziehen lassen. Musks Grok-KI und der Spice-Mode sind nichts anderes als die Objektivierung von Frauen. Wundert es da, dass ein reaktionäres Rollenbild verstärkt wird? Das bringt mich zu einem Kernpunkt: Meiner Meinung nach dient die PR-These, dass KI im menschlichen Sinne intelligent sei, hauptsächlich dazu, der Frage nach der Verantwortung für Schäden aus dem Weg zu gehen. Unter anderem deshalb halte ich den dahinterstehenden Funktionalismus für falsch.
@lacrosse Nein, mir geht es nicht darum, wer Verantwortung für KI hat oder nicht. Mir geht es nur um die Intelligenzfunktion, die KI genauso aufweist wie der Mensch (bei beiden: mehr oder weniger, je nach dem).
Auch Vorurteil (Bias) ist sowohl in KI als auch beim Menschen vorhanden.
@drdsgvo Wir werden uns nicht einigen können. Ist auch nicht schlimm. Wie bereits geschrieben, halte ich die funktionale Reduktion von Menschen zugunsten von KI für problematisch.
Dass KI Bias-Muster in von Menschen erzeugten Trainingsdaten feststellt, ist keine Überraschung. Das ist jedoch kein Anzeichen von Intelligenz. Mir ist allerdings wichtig, dass Menschen, die KI kritisch gegenüberstehen, dies auf Basis von Tatsachen und wissenschaftlichen Erkenntnissen tun. Das hat nichts damit zu tun, dass die Technologie unheimlich ist.