@fabiscafe @Trollhaus @tessarakt @ennopark @lnp wisst ihr, wie hoch der Bedarf an Therapien ist, und wie viele Menschen einfach keine (passende/aureichende) bekommen?
Die sollen also alle hochnäsig leiden, damit ihnen nicht das „Krankheitsbild einer schwierigen Persönlichkeit, die Kommunikation mit lebendigen Wesen lieber meidet u. sich einer KI zuwendet“ attestiert wird?
Selbst eine KI hätte hier mehr Empathie.
@ennopark Es gibt Forschungsprojekte, in denen die KI die Person in den*die eigene*n Therapeut*in verwandelt und dann Gespräche stattfinden. So mit virtual reality Brille.
Ich finde das extrem gruselig.
@rike_randomno @ennopark same…
die sollen erst mal lernen an einem snack-verkaufsstand zu arbeiten; dann können wir ja nochmal über die idee mit der therapie reden:
@fnwbr @ennopark
Das liest sich ja wie der Plot eines Hollywoodfilms. Der KI eine sympathische und bekannte Stimme geben und das läuft.
Gibt ein paar Punkte, über die ich schmunzeln muss. Kapitalismus und Gewinnstreben war also nicht so richtig (offensichtlicher) Bestandteil dessen, was die KI zum Anlernen hatte?
Was die Forschungsprojekte angeht: Das sind ganz fancy und gehypte Forschungsvorhaben wegen KI und virtual reality und so. Hauptsaceh buzz words bedienen.
@ennopark Könnte das nicht relativ einfach anonymisieren? Die KI muss ja nicht den Namen und genaue Angaben über den Patienten kennen.
Ob so ein KI-Chatbot besser ist als Monate auf einen Termin zu warten kann ich nicht beurteilen. Und ich weiss auch nicht, ob so eine KI nicht besser ist als so manche schlechte Ärzte.
@FriedemannLietz @ennopark Inwiefern haben Name, exaktes Geburtsdatum, Adresse, oder Versichertennummer eine Bedeutung für eine Therapie?
Und ich denke es macht einen Unterscheid, ob das die Therapie ersetzten soll, oder nur eine Ergänzung für die Wartezeit ist,
@ennopark KI kann durchaus auch autark funktionieren, d.h. offline und ohne Datenübertragung zum Software-Hersteller.
Aber das macht den Vorschlag kaum weniger abwegig.
@ennopark Vor allem hatten wir das Thema einfach in den 60ern schon.
https://de.wikipedia.org/wiki/ELIZA
„Weizenbaum war erschüttert über die Reaktionen auf sein Programm, vor allem, dass praktizierende Psychotherapeuten ernsthaft daran glaubten, damit zu einer automatisierten Form der Psychotherapie gelangen zu können. Er entwickelte sich nicht zuletzt aufgrund dieser Erfahrungen zu einem Gesellschaftskritiker.“
das habe ich auch woanders schon mal angemerkt: Ich sehe die LLMs aktuell auch eher als "Super"-Elizas. Nur halt heute mit x Größenordnungen größerer Kapaztät und Datenbasis und damit können sie mitunter ein "Gegenüber" weitaus besser simulieren als damals.
Aber damals wie heute steckt da höchstens (in die Software eingebrachtes) Knowhow von Menschen, aber keine Intelligenz drin
@ennopark Was könnte schon schiefgehen:
https://futurism.com/commitment-jail-chatgpt-psychosis
(Datenschutz ist da uU ein relativ geringes Problem, auch wenn es absolut ein großes ist.)
Bei der heutigen Therapeutenmangel Situation wird es wohl einer schwer leidenden Person egal sein, ob alles aufgezeichnet wird.
Ich finde nur die kostenlosen Angebote sind absolut noch nicht soweit. Das ist oberflächliches beruhigenes Gelaber. Da gibt's bei YT besseres.
Die kostenpflichtigen hab ich nicht ausprobiert. Hat jemand Erfahrung?
Ansonsten bin ich von KI auch noch nicht so überzeugt. Bei meinem Hobby wo ich gern tiefgründiger gehen würde gibt er mir völlig falsche Antworten.
Was ich absolut gefährlich finde, daß Suchmaschinen auf KI umstellen. Ist.mir nicht nur einmal passiert, daß mir angezeigt wird daß es keinen Fund dazu gibt.
Selbst bei Haushaltstipps kommt wenig brauchbares heraus.
Wenn ich vertrauenswürdige Antworten will, bleibe ich wohl bei Büchern. Die könnten für die Zukunft vielleicht mal eine Geldanlage sein 😉
@ennopark so schlimm dieser Teil ist, ich finde es viel schlimmer das *niemand* vorhersagen kann *was* das LLM im Gespräch tatsächlich "sagt".
Es gibt jetzt schon erste fälle an gerichten in denen die chat protokolle zeigen das das LLM einem jugendlichen Selbstverletzung nahegelegt hat.
Solche fälle sind *technologiebedingt* unvermeidbar.
@ennopark Wem solche Chats helfen, kann ein LLM auch lokal laufen lassen: https://www.theregister.com/2024/08/18/self_hosted_github_copilot/
Das Privatsphären-Problem ist IMHO von der Grundsatzfrage "GenAI ja oder nein?" entkoppelt.
@ennopark
Da es sich hier um eher spezialisierte KI-Modelle handeln dürfte, kann ein solcher chat-Bot durchaus auf einer lokalen Maschine laufen, wenn sie entsprechende Leistungsmerkmale hat.
Je nach Komplexität ist ein normaler PC da eher überfordert, aber allzuviel braucht es aber nicht.
Wenn das dann ein entsprechend zertifizierter Dienstanbieter ist, ist es nahe dem, was "auf der Couch" passiert.
Ich glaube, ELIZA ist immer noch verfügbar und mit wenig Aufwand lokal installierbar.
Für alle größeren Themen halte ich es für sinnvoller, mit lebenden Menschen zu sprechen.
@ennopark Ich finde alles daran gruselig.
Ich weiß nicht, wo ich anfangen und wo aufhören soll.
1. Datenschutz
2. Menschlichkeit
3. Empathie
4. Zwischentöne
5. Fachliche Kompetenz
6. Reaktion und Handlungsfähigkeit
….
Schreibt die KI dann auch den Bericht für die Rentenversicherung? Für die Krankenkasse?
Stellt sie dann auch Diagnosen?