Lese in letzter Zeit öfters den Vorschlag, KI-Chatbots als Ersatz für Gesprächstherapien einzusetzen und wundere mich, dass niemand es als albtraumhaft empfindet, dass die KI-Anbieter so Zugriff auf die Gesprächsinhalte bekommen.

@ennopark Könnte das nicht relativ einfach anonymisieren? Die KI muss ja nicht den Namen und genaue Angaben über den Patienten kennen.

Ob so ein KI-Chatbot besser ist als Monate auf einen Termin zu warten kann ich nicht beurteilen. Und ich weiss auch nicht, ob so eine KI nicht besser ist als so manche schlechte Ärzte.

@EvidenceOverIgnorance @ennopark jede Psychotherapie setzt ein etabliertes Vertrauensverhältnis voraus. Wenn dieses a priori ausgeschlossen werden muß, findet keine Psychotherapie statt. Wie man das Füttern der AI mit persönlichen, aber nicht allzu persönlichen Informationen stattdessen nennen könnte, weiß ich nicht. Psychotherapie sollte man's jedenfalls nicht nennen.
@EvidenceOverIgnorance @ennopark btw ist ein*e Psychotherapeut*in nicht unbedingt eine Ärztin. Kommt ja auf den Ausbildungsweg an.

@FriedemannLietz @ennopark Inwiefern haben Name, exaktes Geburtsdatum, Adresse, oder Versichertennummer eine Bedeutung für eine Therapie?

Und ich denke es macht einen Unterscheid, ob das die Therapie ersetzten soll, oder nur eine Ergänzung für die Wartezeit ist,

@EvidenceOverIgnorance @ennopark wenn die AI diese Daten nicht haben darf, dann darf sie auch keine Informationen bekommen, aus denen sie ableitbar sind. Das ist nun im Rahmen einer Psychotherapie 1. schwer zu vermeiden und 2. äußerst hinderlich, wenn jeder Satz geprüft werden muß, ob er nicht Informationen oder zumindest Bruchstücke von Informationen enthält, aus denen letztlich die eigene Identität geschlußfolgert werden kann. Wenn AI etwas "kann", dann Schlüsse aus gesammelten Daten ziehen.