Was ich noch interessanter fand in meiner Recherche über #ChatGPT als die philosophischen Aspekte, ist, was wir aus der ganzen Sache über uns lernen können: Wie Sprache, Verstehen und Intelligenz zusammenhängen (oder eben nicht), und welcher "kognitive Glitch" in unserem Gehirn dazu führt, dass wir eloquentes Daherplappern als glaubhaft/sinnvoll/intelligent wahrnehmen: https://www.spektrum.de/news/maschinelles-lernen-chatgpt-wird-immer-plappern/2090727
#NLP #llm #gpt3
Das sprachgewaltige Plappermaul

Der »intelligente« Chatbot ChatGPT entwirft überzeugende Texte – aber redet oft Unsinn. Wirklich lösen lässt sich das Problem nicht, denn das liegt nur zum Teil an der Technik.

Spektrum.de
Wobei mich die philosophischen Aspekte von #Bewusstsein und Intelligenz etc schon auch sehr faszinieren. Diese langen Interviews mit Philosoph:innen in Zusammenhang mit der Recherche um Blake Lemoine (der Google-Forscher, der sagt, sein #LLM Lamda sei bewusst/empfindungsfähig) haben mir echt viel Spaß gemacht. Auch das Gespräch mit Lemoine selbst war super interessant.
https://www.republik.ch/2022/07/28/lemoine-und-die-maschine-eine-beziehungsgeschichte
#ChatGPT #NLP
Lemoine und die Maschine – eine Beziehungs­geschichte

Ein Google-Forscher sagt, ein KI-System habe Bewusstsein erlangt – und wird entlassen. Wer ist dieser Blake Lemoine? Eine Begegnung.

Republik

@evawolfangel
Danke für den sehr guten Artikel.

Passend dazu das arte-Feature vom 4.12.22
"Haben Tiere ein Ich?" aus der Reihe "42 - Die Antwort auf fast alles"
Befasst sich mit dem Bewusstsein von Tieren und den Definitionen von Bewusstsein.

@evawolfangel
Im Intro …
statt:
»… denn das liegt nur zum Teil an der Technik.«
sollte mE richtiger da stehen
»… denn das liegt nur zum Teil an der Informatik.«
@n770 Stimmt. :) (Der Teaser ist nicht von mir, hätte mir aber auch passieren können)

@evawolfangel

na ja: im Beitrag taucht Technik auch noch einmal auf
»… Das sind Themen, vor denen _Technik_ethikerinnen immer wieder gewarnt hatten in Zusammenhang mit den neuen, riesigen Sprachmodellen…«

Das von mir adressierte Problem wird selbst in den Rubriken und Abkürzungen bei @spektrum
sichtbar: IT verweist mE fälschlich auf Artefakte, statt – besser – auf informatische Modellierungen… damit sollte die Wissenschaft Informatik endlich beim Spektrum als Kategorie aufgenommen werden

@n770 Wobei ich behaupten würde, dass Technik-Ethiker:innen schon auch für Informatik zuständig sind. Bzw jedenfalls äußern sie sich ja zu solchen Themen. Und ja: ich hab auch einige Wünsche, was bei Spektrum noch als Katergorie aufgenommen werden sollte. Das ist auf jeden Fall ausbaufähig - vielleicht haben sie Sorge, dass die Leiste oben dann mehrzeilig wird. :)@spektrum
@evawolfangel @spektrum
…andererseits ist Informatik+Gesellschaft bereits 1976 vom Fakultätentag Informatik als eigenständiges Fachgebiet der Wissenschaft ausgewiesen worden – leider haben die dieses Fachgebiet vertretenden Menschen es nicht vermocht, einen »Kanon« zu formulieren … trotz @fiff @bits_und_baeume @CCC und alledem… wobei auch da leider immer wieder diese IT auftaucht… statt #Informatik

"ein klassischer Zielkonflikt – und offenbar optimiert OpenAI derzeit eher auf »plappern« denn auf Wahrheit"

Ein sehr interessantes Stück Text über ChatGDP von @evawolfangel

@evawolfangel

> »Wenn der Kunde dann anfängt, über den Islam zu sprechen, wissen Sie nicht, wie das Modell reagiert – Sie können ihm nur blind vertrauen. Und das ist das Gefährlichste, was Sie tun können.«

Ist sicher richtig, ironischerweise existiert das Problem bei Menschen allerdings auch.

@davidbruchmann @evawolfangel .. aber Menschen zweifeln wir an, Maschinen nicht.. da haben wir die kollektive Illusion, dass die Maschine keinen Fehler macht.
@mosmann @davidbruchmann Genau, das sehe ich als riesiges Problem. Nicht immer ist Rassimus zb zudem so offensichtlich in den entscheidungen einer KI - und tatsächlich glauben noch immer viele Menschen, diese sei "neutral" oder "richtig".
@evawolfangel @mosmann Ich denke, manche Aufgaben sollten zumindest beim Lernen, von konkurierenden Systemen bearbeitet werden und die Diskrepanzen ausgewertet werden. Das erfordert natürlich abweichende Daten oder Parameter deren Auswahl auch biased ist. Trotzdem könnten Schwachstellen dadurch vermutlich aufgedeckt werden.
Bei Geschäftsprozessen gibt es ja das 4-Augen Prinzip, das wäre vielleicht vergleichbar, zumindest erklärt es den Ansatz.
@evawolfangel @mosmann Der Begriff "konkurierenden Systeme" ist wahrscheinlich falsch hier, da "konkurierenden Systeme" vermutlich bereits eine Lösung ausfiltern.
Gemeint war, dass der Lernprozess einfach mehrfach parallel ausgeführt wird, aber mit unterschiedlichen Daten oder Parametern, so dass man zwei oder mehr Lösungen zum Vergleich vorliegen hat.
"Parallel" bezieht sich auf die gleiche Ausgangsbasis, die Lernprozesse bauen also NICHT aufeinander auf.
@davidbruchmann @evawolfangel .. Transparenz über die Herleitung der Ergebnisse wäre wünschenswert, einbezogene Quellen sollten aber möglich sein.

@mosmann @evawolfangel Die Anforderung ist sicher am Schwierigsten zu realisieren:

1) Relavante Quellen finden.

2) Relevante Textstellen in den Quellen mit der Logik des Textes zu kombinieren und den Text entsprechend anzupassen.

Wenn es das zur Zeit der Promotion von Karl-Theodor zu Guttenberg gegeben hätte, hätter er sicher nicht einmal Copy & Paste gelernt 😂

@evawolfangel ich habe viel gelernt, vielen Dank! Als jemand, die mit Texten arbeitet, finde ich das Thema KI Sprache total faszinierend. Immerhin hat man hier früh den Bias zumindest schon einmal erkannt!
@bawHH Stimmt, man muss es positiv sehen. :)
@evawolfangel Ein wichtiger Punkt, warum wir automatisch die Fähigkeiten von #ChatGPT überschätzen: »Das ist der kognitive Glitch von uns Menschen: Wenn wir Sprache hören, konstruieren wir automatisch ein mentales Modell auf der Basis eines menschlichen Vorbilds.«

@evawolfangel passt der "kognitive Glitch" von uns Menschen zum 'Cooperative Principle', das Grice 1989 formuliert hat?
https://plato.stanford.edu/entries/grice/#ConvImpl

Die Verbindung von Grice und seinen Maximen zu koheränter Textproduktion von Maschinen & die Implikation für das Rezipienten dieser Texte lässt mich nicht wirklich los...
https://mastodon.lol/@lavaeolus/109495357495427759

Paul Grice (Stanford Encyclopedia of Philosophy)

@evawolfangel Evtl. können wir als Gesellschaft aus der Erfahrung mit KIs auch etwas lernen und auch abseits von generierten Texten kritischer gegenüber eloquenten Dampfplauderern sein.
@evawolfangel Danke für diesen schlauen Text.

@evawolfangel Ein anderer interessanter Artikel zum Thema, der auch links zu noch mehr Artikeln enthält.

How AI-generated text is poisoning the internet

https://www.technologyreview.com/2022/12/20/1065667/how-ai-generated-text-is-poisoning-the-internet/

How AI-generated text is poisoning the internet

Plus: A Roomba recorded a woman on the toilet. How did screenshots end up on Facebook?

MIT Technology Review