Lese in letzter Zeit öfters den Vorschlag, KI-Chatbots als Ersatz für Gesprächstherapien einzusetzen und wundere mich, dass niemand es als albtraumhaft empfindet, dass die KI-Anbieter so Zugriff auf die Gesprächsinhalte bekommen.
@ennopark Mal ganz davon abgesehen, dass das eine dystopische Perversion ist.
@Trollhaus @ennopark Also @linuzifer fand das in der letzten Folge @lnp eine ganz gute Idee.
@tessarakt @ennopark @linuzifer @lnp Was meine Auffassung nicht ändert. Damit wird die menschliche Kommunikation u. der Mensch selbst, zum kalten, mechanischen, technischen Akt. Wer das favorisiert, hat u.U. ein Problem in der Interaktion mit anderen lebendigen Wesen. Nachvollziehbar, aber nicht der Zustand, den ein Mensch haben sollte.
@Trollhaus @ennopark @linuzifer @lnp und das Argument "dann kann man so viele Therapiestunden machen, wie man will" - bemüht man sich dann noch, aus der einzelnen Therapiestunde etwas rauszuziehen?
@tessarakt @ennopark @linuzifer @lnp Ich gehe vom positiven Fall aus, in dem die/der Therapeut*in eine funktionierende Beziehung aufbaut u. wenige Stunden einen Prozess auslösen, der mit wenigen Stunden begleitet werden kann. Nicht der Fall, in dem die Therapie zur Supervision der Lebensgestaltung wird.
@tessarakt @ennopark @linuzifer @lnp Und wer bitte, möchte eine KI als Lebenscoach haben? Zumindest für mich, eine Horrorvision der Zukunft.
@tessarakt Worauf bezieht sich das? Das ich eine Persönlichkeit, die die Kommunikation mit lebendigen Wesen lieber meidet u. sich einer KI zuwendet, als schwierig erachte (Erfindung eines Krankheitsbildes) o. das die KI u.U. dies machen könnte?
😂 Musste erstmal nachschauen, was das ist.
@Trollhaus Das wird die Psychotherapie-KI dann in Zukunft behandeln ....
@Trollhaus @tessarakt @ennopark @linuzifer @lnp kenne da schon ein paar die es genau dafür nutzen...
@fabiscafe Und? Positive Erfolge? Vielleicht trifft in meiner Person eine Generation mit einer anderen Haltung dazu, was den Menschen ausmacht, auf eine andersdenkende Generation, die andere Prios setzen. Ziemlich wahrscheinlich ist das so.
@Trollhaus dafür ist es denke mal noch zu früh. In 2-3 Jahren kann man vielleicht was sagen. Aber da die Dinger einem sowieso nur erzählen was man hören will hab ich auch nicht viel Hoffnung

@fabiscafe @Trollhaus @tessarakt @ennopark @lnp wisst ihr, wie hoch der Bedarf an Therapien ist, und wie viele Menschen einfach keine (passende/aureichende) bekommen?

Die sollen also alle hochnäsig leiden, damit ihnen nicht das „Krankheitsbild einer schwierigen Persönlichkeit, die Kommunikation mit lebendigen Wesen lieber meidet u. sich einer KI zuwendet“ attestiert wird?

Selbst eine KI hätte hier mehr Empathie.

PS: Zur eigentlichen Frage von @ennopark hinsichtlich zentralisierter Erfassung haben wir in der gleichen Folge (über Therapie hinaus) gesprochen, insofern stimmt die Antwort von @tessarakt nur halb:
AI‘s *werden* Therapien anbieten/ergänzen/augmentieren, aber einfach mal ernsthafte Therapien mit generalisierten, zentralisierten chatbots zu machen ist NICHT eine grundsätzlich gute Idee.
@fabiscafe @Trollhaus
@lnp
@linuzifer Klingt für mich danach, dass die Möglichkeiten der Inanspruchnahme einer Therapie verbessert werden müssen, anstatt die Leute einer Maschine zu überlassen. Und es sollte Anlass genug sein, ordentlich Rabatz zu machen, statt den Verantwortlichen eine zweispurige Autobahn zu bauen, wie sie noch mehr bei denen streichen können, die bereits genug um die Ohren haben.
@ennopark @Trollhaus @fabiscafe @lnp @linuzifer @tessarakt Die Lösung von zu wenig Therapieangeboten kann und darf meiner Meinung nach nicht KI sein.
Es gibt genug Therapeut*innen. Es gibt nur nicht genug Kassenplätze. Und das kann geändert werden, wenn es politisch gewollt ist.