Bitte helft mir mal noch mit einer Sache: ich recherchiere gerade zum Thema KI und medizinische Diagnosen, und ich brauche dringend einen Arzt/eine Ärztin, der/die mit mir darüber spricht, was sich verändert hat, seit viele Menschen mit ChatGPT & Co über ihre Leiden sprechen und wie Ärzt:innen damit umgehen. Gerne auch darüber, wie oft die KI falsch (oder richtig) liegt und wohin das führt.
@evawolfangel Brauchst du Allgemeinmediziner*innen?
@sarathai Am liebsten ja.
@evawolfangel Ok, ich frag mal meinen jungen, engagierten Hausarzt.
@sarathai cool danke!
@evawolfangel Hab dir den Kontakt via signal geschickt, er weiß bescheid!
@evawolfangel Er macht's! Hast du eine eMailadresse o. Ä. wo ich dir seine Privatemailadresse zukommen lassen kann? Steffi hat keine Adresse von dir...
@evawolfangel
Fyi: wird kaum diskutiert:
Ärzte im Gesundheitswesen sind keine Wissenschaftlicher (sowieso nicht ;)), sondern Ökonomen: "Häufige Krankheiten sind häufig". Ihr Interesse die korrekte Diagnose zu stellen ist also "gedeckelt"
... Dies und "recognition bias" führt dazu, dass in vielen Krankheitsbildern Ärzte schlechter performen als Raten. D.h. eine Roulette-Algorithmus würde treffendere Diagnosen produzieren. Eine KI im Internet hat also gute Chancen (i.e. Balken im Auge).
@quwm Oh das ist ein interessanter Punkt. "Häufiges häufig" höe ich immer wieder von Ärzten - und stimmt natürlich, allein mit dem Ansatz kommt man schon recht weit. Auch als KI und mit Raten. Hab allerdings einen Protagonisten mit einer seltenen und rätselhaften Krankheit, dem ChatGPT den entscheidenden Medikamententipp gegeben hat.
@evawolfangel
Glaub ich sofort.
Ich finde es richtig, dass Programme/KI in einer Diagnose nur unterstützten dürfen. Aber im recognition bias dürfte eine Maschine den Menschen zunehmend übertreffen. (Ich glaube nicht an baldige AGI, aber Diagnosealgorithmen sind ja keine Magie.).
Die Gefahren einer Selbstdiagnose, weil LLMs anders als Webseiten keine Gesetze und ethischen Grenzen (korrekt) verinnerlicht haben, ist vermutlich genau so groß wie das Potential: "frag lieber einen Arzt" sagt kein LLM
@quwm
„Frag lieber einen Arzt“ hatte ich bisher (als alter Hypochonder) durchaus immer mit bekommen, meist in der Form von „wann zum Arzt bei welcher Weiterentwicklung“ etc.
Die Gefahren sind natürlich trotzdem vorhanden.

@quwm @evawolfangel Das macht doch mathematisch keinen Sinn, im Gegenteil.

Angenommen du hast ein Krankheitsbild, was zu 90% (häufig) von Krankheit A stammt und zu 10% von Krankheit B. Dann wäre es vernünftig, Krankheit A als Hypothese anzunehmen und evtl weitere Tests zu machen um sicher zu gehen. Aber wenn jemand vereinfacht sagt "das ist A" und das behandelt, dann wird es immerhin in 90% der Fälle richtig sein. Wenn du "rätst" bzw Roulette spielst oder wie auch immer, was machst du dann? Wirfst du eine Münze? Diagnostizierst du bei 50% der Menschen A und bei 50% B? Dann hättest du von den 90% die Hälfte richtig und von den 10% auch, also insgesamt 50% richtig. Mit der anderen Methode hast du 90% richtig.

Also wie genau geht dein Argument?

@skaphle @evawolfangel
Symptome sind (oberflächlich betrachtet) i.d.R. ähnlich, auch wenn die Ursachen systematisch verschieden sind (zB Kopfschmerzen). Die "häufigste Ursache" (Verspannung) ist i.d.r. eine "Verallgemeinerung" (Verspannungen durch Insuffizienzen, Stress ...) die erst über das weitere Vorgehen legitimiert wird (Schmerz beobachten). Nach Persistenz gehts aber zum Neurologen. Und der macht (bestenfalls) multivariantes "Patternmatching" und identifiziert dann seine "goto" Pattern.
@skaphle @evawolfangel
Zur Mathe: angenommen die freq der häufigsten Krankheit sei 10%.
90% der Fälle sind es also andere Krankheiten. Die häufigste Krankheit ist also "sehr häufig" die falsche Diagnose.
(Btw, das Raten ist in den entsprechenden Studien eher nicht gleichverteilt, da apriori Annahmen über die Population bestehen. Der negative "recognition bias" führt aber (je nach Domäne) konsequent zu sub-Raten-perfomance.)
AI Mental Health Apps Are Now Assessing How Good A Job Human Therapists Are Doing

In today’s column, I examine a somewhat startling reversal of sorts, namely that AI mental health apps are beginning to be used to assess human therapists as to their prowess in dispensing psychological guidance. This alternative form of usage contrasts with AI being focused primarily on providing …

Forbes - Lance Eliot
@evawolfangel
Haste mal geschaut was das deutsche Ärzteblatt dazu an Fertigfutter auswirft?
@evawolfangel Ich habe im Urlaub von einer Ärztin in einem Krankenhaus gehört, deren Kollege ChatGPT gefragt hat und darauf basierend falsch behandelt hat. Um es gleich vorweg zu sagen: Leider keine Kontaktdaten.

@evawolfangel
Soweit mir bekannt, hilft KI inzwischen bei der Früherkennung von Brustkrebs (nicht ChatGPT natürlich).

https://www.nature.com/articles/s41591-024-03408-6

Die - letztendlich kommerzielle - Plattform scheint mir eher das Problem. Ähnlich wie bei SM. Es ist natürlich wichtig, genau darüber aufzuklären!

Ich fände die nützliche Anwendung dazu in Abgrenzung aber auch spannend. Wie nutzt KI uns und wie nicht?

Nationwide real-world implementation of AI for cancer detection in population-based mammography screening - Nature Medicine

In a large-scale prospective study run across 12 sites in Germany and involving 463,094 women and 119 radiologists, AI-supported screening increased breast cancer detection rates by a significant margin without affecting the recall rate.

Nature

@evawolfangel die App „Ada“ (1) ist vielleicht auch eine Schnittstelle mit dem Thema. Sie nutzt laut eigenen Angaben eine inhouse entwickelte KI für ihre Diagnosen und externe LLMs als zusätzlichen Abgleich. (2)

Ich persönlich nutze die App häufig für eine erste Übersicht. Es werden mir mehrere Diagnosen und deren Wahrscheinlichkeit passend zu meinen Beschwerden ausgegeben.

(1) https://ada.com/de/app/
(2) https://ada.com/us/terms-and-conditions/

Pass auf Dich auf – mit Ada

Hallo! Erfahre, wie Du mit Ada Deine Symptome überprüfen kannst. Und weshalb Ada die beliebteste Symptomanalyse-App ist und schon 250,000 5-Sterne-Bewertungen hat.🔍

Ada

@evawolfangel
Sogar Google's AI warnt explizit:
«It is critical to understand that AI cannot provide medical or judicial (legal) advice and should not be used as a substitute for a qualified, licensed professional.»

Die Änderung der Geschäftsbedingungen erfolgte per 29. Oktober und sorgte vor drei Wochen für einige Aufregung im Netz. Man darf davon ausgehen, dass es gute Gründe (drohende Klagen) für diese Änderung gab...

Quelle: https://mlq.ai/news/openai-bans-chatgpt-from-providing-medical-and-legal-advice/

@evawolfangel oh, ich dachte jetzt KI in der Diagnostik zB, nicht das Äquivalent von Symptomegooglen...
@evawolfangel das hier könnten mögliche Ansprechpartner sein https://arztgespraech.podigee.io/61-ki
#61 | Mit Künstlicher Intelligenz gegen die Systemkrise - Wie KI unser Gesundheitssystem effizienter machen kann

Künstliche Intelligenz verspricht, die Patientenversorgung effizienter und besser zu machen. Wir sprechen darüber, was es braucht, damit uns Künstliche Intelligenz wirklich entlastet, welche Tools es bereits gibt, und wie KI echte Probleme in der Patientenversorgung lösen kann.

DAS ARZTGESPRÄCH
@evawolfangel Melde Dich.
@mikka
Deine Posts zu dem Thema hatte ich gerade vorher in meiner Timeline und wollte schon einen davon an Eva weiterleiten. 😁
@evawolfangel

@evawolfangel

Klick Dir mal den @mikka, der macht gerade "KI in der Medizin".

@evawolfangel erinnert mich an die ärtzin mir gegenüber die selber chatgpt gefragt hat was sie mit meinen symptomen und selbstdiagnose anfangen soll :D
@evawolfangel Vielleicht ist ja Prof. Dr. med. Bernhard-Wilhelm Niebling der richtige Ansprechpartner https://www.ev-akademie-boll.de/mediathek/audio/hoerraeume/podcast/kuenstliche-intelligenz-in-der-medizin.html @Ev_Akademie_Boll 🙋🏻‍♂️
Künstliche Intelligenz in der Medizin

Ein Vortrag über Chancen und Herausforderungen