Lese in letzter Zeit öfters den Vorschlag, KI-Chatbots als Ersatz für Gesprächstherapien einzusetzen und wundere mich, dass niemand es als albtraumhaft empfindet, dass die KI-Anbieter so Zugriff auf die Gesprächsinhalte bekommen.
@ennopark Nein, ich vertraue da ausschließlich und nur meiner Therapeutin und Fachärztin
@ennopark Mal ganz davon abgesehen, dass das eine dystopische Perversion ist.
@Trollhaus @ennopark Also @linuzifer fand das in der letzten Folge @lnp eine ganz gute Idee.
@tessarakt @ennopark @linuzifer @lnp Was meine Auffassung nicht ändert. Damit wird die menschliche Kommunikation u. der Mensch selbst, zum kalten, mechanischen, technischen Akt. Wer das favorisiert, hat u.U. ein Problem in der Interaktion mit anderen lebendigen Wesen. Nachvollziehbar, aber nicht der Zustand, den ein Mensch haben sollte.
@Trollhaus @ennopark @linuzifer @lnp und das Argument "dann kann man so viele Therapiestunden machen, wie man will" - bemüht man sich dann noch, aus der einzelnen Therapiestunde etwas rauszuziehen?
@tessarakt @ennopark @linuzifer @lnp Ich gehe vom positiven Fall aus, in dem die/der Therapeut*in eine funktionierende Beziehung aufbaut u. wenige Stunden einen Prozess auslösen, der mit wenigen Stunden begleitet werden kann. Nicht der Fall, in dem die Therapie zur Supervision der Lebensgestaltung wird.
@tessarakt @ennopark @linuzifer @lnp Und wer bitte, möchte eine KI als Lebenscoach haben? Zumindest für mich, eine Horrorvision der Zukunft.
@tessarakt Worauf bezieht sich das? Das ich eine Persönlichkeit, die die Kommunikation mit lebendigen Wesen lieber meidet u. sich einer KI zuwendet, als schwierig erachte (Erfindung eines Krankheitsbildes) o. das die KI u.U. dies machen könnte?
😂 Musste erstmal nachschauen, was das ist.
@Trollhaus Das wird die Psychotherapie-KI dann in Zukunft behandeln ....
@Trollhaus @tessarakt @ennopark @linuzifer @lnp kenne da schon ein paar die es genau dafür nutzen...
@fabiscafe Und? Positive Erfolge? Vielleicht trifft in meiner Person eine Generation mit einer anderen Haltung dazu, was den Menschen ausmacht, auf eine andersdenkende Generation, die andere Prios setzen. Ziemlich wahrscheinlich ist das so.
@Trollhaus dafür ist es denke mal noch zu früh. In 2-3 Jahren kann man vielleicht was sagen. Aber da die Dinger einem sowieso nur erzählen was man hören will hab ich auch nicht viel Hoffnung

@fabiscafe @Trollhaus @tessarakt @ennopark @lnp wisst ihr, wie hoch der Bedarf an Therapien ist, und wie viele Menschen einfach keine (passende/aureichende) bekommen?

Die sollen also alle hochnäsig leiden, damit ihnen nicht das „Krankheitsbild einer schwierigen Persönlichkeit, die Kommunikation mit lebendigen Wesen lieber meidet u. sich einer KI zuwendet“ attestiert wird?

Selbst eine KI hätte hier mehr Empathie.

PS: Zur eigentlichen Frage von @ennopark hinsichtlich zentralisierter Erfassung haben wir in der gleichen Folge (über Therapie hinaus) gesprochen, insofern stimmt die Antwort von @tessarakt nur halb:
AI‘s *werden* Therapien anbieten/ergänzen/augmentieren, aber einfach mal ernsthafte Therapien mit generalisierten, zentralisierten chatbots zu machen ist NICHT eine grundsätzlich gute Idee.
@fabiscafe @Trollhaus
@lnp
@linuzifer Klingt für mich danach, dass die Möglichkeiten der Inanspruchnahme einer Therapie verbessert werden müssen, anstatt die Leute einer Maschine zu überlassen. Und es sollte Anlass genug sein, ordentlich Rabatz zu machen, statt den Verantwortlichen eine zweispurige Autobahn zu bauen, wie sie noch mehr bei denen streichen können, die bereits genug um die Ohren haben.
@ennopark @Trollhaus @fabiscafe @lnp @linuzifer @tessarakt Die Lösung von zu wenig Therapieangeboten kann und darf meiner Meinung nach nicht KI sein.
Es gibt genug Therapeut*innen. Es gibt nur nicht genug Kassenplätze. Und das kann geändert werden, wenn es politisch gewollt ist.

@ennopark Es gibt Forschungsprojekte, in denen die KI die Person in den*die eigene*n Therapeut*in verwandelt und dann Gespräche stattfinden. So mit virtual reality Brille.

Ich finde das extrem gruselig.

@rike_randomno @ennopark same…

die sollen erst mal lernen an einem snack-verkaufsstand zu arbeiten; dann können wir ja nochmal über die idee mit der therapie reden:

https://mastodon.social/@mfeilner/114782549989255315

@fnwbr @ennopark
Das liest sich ja wie der Plot eines Hollywoodfilms. Der KI eine sympathische und bekannte Stimme geben und das läuft.

Gibt ein paar Punkte, über die ich schmunzeln muss. Kapitalismus und Gewinnstreben war also nicht so richtig (offensichtlicher) Bestandteil dessen, was die KI zum Anlernen hatte?

Was die Forschungsprojekte angeht: Das sind ganz fancy und gehypte Forschungsvorhaben wegen KI und virtual reality und so. Hauptsaceh buzz words bedienen.

@ennopark also selbst wenn die Bots schon hinreichend funktionieren würden - wie stellt man sicher, dass die im Interesse der Patient_innen arbeiten?

@ennopark Könnte das nicht relativ einfach anonymisieren? Die KI muss ja nicht den Namen und genaue Angaben über den Patienten kennen.

Ob so ein KI-Chatbot besser ist als Monate auf einen Termin zu warten kann ich nicht beurteilen. Und ich weiss auch nicht, ob so eine KI nicht besser ist als so manche schlechte Ärzte.

@EvidenceOverIgnorance @ennopark jede Psychotherapie setzt ein etabliertes Vertrauensverhältnis voraus. Wenn dieses a priori ausgeschlossen werden muß, findet keine Psychotherapie statt. Wie man das Füttern der AI mit persönlichen, aber nicht allzu persönlichen Informationen stattdessen nennen könnte, weiß ich nicht. Psychotherapie sollte man's jedenfalls nicht nennen.
@EvidenceOverIgnorance @ennopark btw ist ein*e Psychotherapeut*in nicht unbedingt eine Ärztin. Kommt ja auf den Ausbildungsweg an.

@FriedemannLietz @ennopark Inwiefern haben Name, exaktes Geburtsdatum, Adresse, oder Versichertennummer eine Bedeutung für eine Therapie?

Und ich denke es macht einen Unterscheid, ob das die Therapie ersetzten soll, oder nur eine Ergänzung für die Wartezeit ist,

@EvidenceOverIgnorance @ennopark wenn die AI diese Daten nicht haben darf, dann darf sie auch keine Informationen bekommen, aus denen sie ableitbar sind. Das ist nun im Rahmen einer Psychotherapie 1. schwer zu vermeiden und 2. äußerst hinderlich, wenn jeder Satz geprüft werden muß, ob er nicht Informationen oder zumindest Bruchstücke von Informationen enthält, aus denen letztlich die eigene Identität geschlußfolgert werden kann. Wenn AI etwas "kann", dann Schlüsse aus gesammelten Daten ziehen.

@ennopark KI kann durchaus auch autark funktionieren, d.h. offline und ohne Datenübertragung zum Software-Hersteller.

Aber das macht den Vorschlag kaum weniger abwegig.

@ennopark nun wo Sie erwähnen das es diese Ideen gibt, komm ich nicht umhin zu vermuten das genau das der Plan ist.
@ennopark eine der ersten fragen sollte dann ja eigentlich auch sein, wer ist dann verantwortlich, wenn es zu dadurch verursachten schäden bei sich und/oder anderen kommt.

@ennopark Vor allem hatten wir das Thema einfach in den 60ern schon.

https://de.wikipedia.org/wiki/ELIZA

„Weizenbaum war erschüttert über die Reaktionen auf sein Programm, vor allem, dass praktizierende Psychotherapeuten ernsthaft daran glaubten, damit zu einer automatisierten Form der Psychotherapie gelangen zu können. Er entwickelte sich nicht zuletzt aufgrund dieser Erfahrungen zu einem Gesellschaftskritiker.“

#ELIZA #Weizenbaum

ELIZA – Wikipedia

@scheme @ennopark

das habe ich auch woanders schon mal angemerkt: Ich sehe die LLMs aktuell auch eher als "Super"-Elizas. Nur halt heute mit x Größenordnungen größerer Kapaztät und Datenbasis und damit können sie mitunter ein "Gegenüber" weitaus besser simulieren als damals.

Aber damals wie heute steckt da höchstens (in die Software eingebrachtes) Knowhow von Menschen, aber keine Intelligenz drin

@echopapa @scheme @ennopark

Frage mich an dem Punkt immer was denn echte Intelligenz ist? Nur weil eine Software zum Funktionieren beiträgt, heißt es doch nicht, daß es keine Intelligenz ist. Oder anders ausgedrückt: Was macht denn natürlich Intelligenz aus?

@ennopark daran ist noch viel mehr gruselig als nur das.
@ennopark also was ich meine ist, das ist einfach komplett inadäquat bis hoch gefährlich und wird Menschen die akute Krisen haben in den Suizid treiben.
@ennopark
Ich bezweifle, daß KI Chatbots Gesprächstherapeut*innen ersetzen können. Bei den Kernvariablen nach Rogers ist mindestens die Kongruenz, die visuell und evtl., wenn Klient*in es zulässt, durch Berührung vermittelt wird, durch KI nicht zu ersetzen.

@ennopark Was könnte schon schiefgehen:

https://futurism.com/commitment-jail-chatgpt-psychosis

(Datenschutz ist da uU ein relativ geringes Problem, auch wenn es absolut ein großes ist.)

#LLMs #MentalHealth #TheOnlyWinningMoveIsNotToPlay

People Are Being Involuntarily Committed, Jailed After Spiraling Into “ChatGPT Psychosis”

People experiencing "ChatGPT psychosis" are being involuntarily committed to mental hospitals and jailed following AI mental health crises.

Futurism
@ennopark
Ich bin gerade in einem Talk von einer, die den Chatverlauf ihrer Tennisgruppe aus WhatsApp mit der ChatGPT geteilt hat, damit die KI ihr erklärt, warum sie da immer Beef hat und ihr Antworten formuliert.
Ich glaube sie hat zu keinem Zeitpunkt darüber nachgedacht.
Und empfiehlt das auch allen als das Geilste der Welt. 😬
@ennopark gute Beiträge (und deutliche Warnungen) zu diesem Thema bringt auf Instagram immer wieder Alke Martens, Prof für Praktische Informatik an der @unirostock @alke_martens

@ennopark

Bei der heutigen Therapeutenmangel Situation wird es wohl einer schwer leidenden Person egal sein, ob alles aufgezeichnet wird.
Ich finde nur die kostenlosen Angebote sind absolut noch nicht soweit. Das ist oberflächliches beruhigenes Gelaber. Da gibt's bei YT besseres.
Die kostenpflichtigen hab ich nicht ausprobiert. Hat jemand Erfahrung?
Ansonsten bin ich von KI auch noch nicht so überzeugt. Bei meinem Hobby wo ich gern tiefgründiger gehen würde gibt er mir völlig falsche Antworten.
Was ich absolut gefährlich finde, daß Suchmaschinen auf KI umstellen. Ist.mir nicht nur einmal passiert, daß mir angezeigt wird daß es keinen Fund dazu gibt.
Selbst bei Haushaltstipps kommt wenig brauchbares heraus.
Wenn ich vertrauenswürdige Antworten will, bleibe ich wohl bei Büchern. Die könnten für die Zukunft vielleicht mal eine Geldanlage sein 😉

@ennopark so schlimm dieser Teil ist, ich finde es viel schlimmer das *niemand* vorhersagen kann *was* das LLM im Gespräch tatsächlich "sagt".
Es gibt jetzt schon erste fälle an gerichten in denen die chat protokolle zeigen das das LLM einem jugendlichen Selbstverletzung nahegelegt hat.

Solche fälle sind *technologiebedingt* unvermeidbar.

@ennopark Die empfinden das eher als traumhaft, weil sie so an gewaltige Mengen persönlicher Daten kommen. Da muß man dann keine Massenpropagandakampagnen starten, wenn man die Leute manipulieren will, sondern man kann für jeden einzelnen Menschen ein psychologisch maßgeschneidertes Manipulationsprogramm starten, vollautomatisch.

@ennopark Wem solche Chats helfen, kann ein LLM auch lokal laufen lassen: https://www.theregister.com/2024/08/18/self_hosted_github_copilot/

Das Privatsphären-Problem ist IMHO von der Grundsatzfrage "GenAI ja oder nein?" entkoppelt.

Who needs GitHub Copilot when you can roll your own AI code assistant at home

Here's how to get started with the open source tool Continue

The Register

@gittaca @ennopark
wem solche Chats helfen, der kann jetzt schon auf `M-x doctor` zugreifen, das hat ungefähr den selben Benefit ohne fragwürdiges statistisches Modell

generell sollte man aber Gesundheit nie einem fancy Magic-8-Ball überlassen

@ennopark
Da es sich hier um eher spezialisierte KI-Modelle handeln dürfte, kann ein solcher chat-Bot durchaus auf einer lokalen Maschine laufen, wenn sie entsprechende Leistungsmerkmale hat.

Je nach Komplexität ist ein normaler PC da eher überfordert, aber allzuviel braucht es aber nicht.

Wenn das dann ein entsprechend zertifizierter Dienstanbieter ist, ist es nahe dem, was "auf der Couch" passiert.

@ennopark
Vor Chatcpt juristischen Output wurde ich gewarnt,was soll dann bitte ein Bot Therapeut bringen dessen Aufgabenfeld deutlich weniger abzugrenzen ist wie eine BGB Fallkonstellation,ginge deren Wert deutlich über den Placeboeffekt hinaus oder handelt es sich um Psychologen-Globuli aus Bits und Bytes??

@ennopark

Ich glaube, ELIZA ist immer noch verfügbar und mit wenig Aufwand lokal installierbar.
Für alle größeren Themen halte ich es für sinnvoller, mit lebenden Menschen zu sprechen.

@ennopark es interessiert schlicht niemanden wohin die Daten abwandern, solange es nicht kompliziert wird.
@ennopark Das konnten auch nur wir hinbekommen, dass in Gesellschaften, in denen eh nur noch die wenigsten miteinander reden, nun dafür Automaten angeboten werden. Guckt da oben eigentlich jemand mit, für den:die wir das aufführen?

@ennopark Ich finde alles daran gruselig.
Ich weiß nicht, wo ich anfangen und wo aufhören soll.
1. Datenschutz
2. Menschlichkeit
3. Empathie
4. Zwischentöne
5. Fachliche Kompetenz
6. Reaktion und Handlungsfähigkeit
….

Schreibt die KI dann auch den Bericht für die Rentenversicherung? Für die Krankenkasse?
Stellt sie dann auch Diagnosen?