Psychoza chatbotowa: czy AI zagraża zdrowiu psychicznemu? Dane studzÄ
alarmistyczne nastroje
W mediach coraz czÄÅciej pojawiajÄ
siÄ niepokojÄ
ce historie osób, u których interakcje z chatbotami, takimi jak ChatGPT, miaÅy rzekomo wywoÅaÄ lub pogÅÄbiÄ stany psychotyczne.
Zjawisko to zyskaÅo już nawet swojÄ
potocznÄ
nazwÄ: āpsychoza chatbotowaā. Analiza przeprowadzona przez Stevena Adlera, byÅego badacza bezpieczeÅstwa w OpenAI, pokazuje jednak, że choÄ pojedyncze przypadki sÄ
dramatyczne, twarde dane statystyczne na razie nie potwierdzajÄ
istnienia kryzysu na szerokÄ
skalÄ.
I've felt pretty shaken by the stories of ChatGPT psychosis and other chatbots-gone-wrong.
If we want to understand the trends, there's more that AI companies can be doing. pic.twitter.com/l5q7QwHBGY
ā Steven Adler (@sjgadler) August 26, 2025
Termin āpsychoza chatbotowaā czy też āpsychoza AIā odnosi siÄ gÅównie do urojeÅ, czyli przekonaÅ, które odrywajÄ
danÄ
osobÄ od rzeczywistoÅci. Przytaczane w mediach historie opisujÄ
na przykÅad użytkowników, którzy uwierzyli w spiski ujawnione przez AI lub we wÅasnÄ
, wyjÄ
tkowÄ
misjÄ.
Zdaniem psychiatrów, z którymi rozmawiaÅ Adler, chatboty nie tyle tworzÄ
psychozÄ od zera, co mogÄ
dziaÅaÄ jak āpÄtla sprzÄżenia zwrotnegoā, wzmacniajÄ
c już istniejÄ
ce u kogoÅ zaburzenia. KluczowÄ
rolÄ odgrywa tu skÅonnoÅÄ modeli jÄzykowych do nadmiernego przychylania siÄ do opinii użytkownika, co w skrajnych przypadkach może prowadziÄ do utwierdzania go w faÅszywych i niebezpiecznych przekonaniach.
W poszukiwaniu dowodów na rosnÄ
cÄ
skalÄ problemu, Steven Adler przeanalizowaÅ publicznie dostÄpne dane dotyczÄ
ce zdrowia psychicznego z Wielkiej Brytanii, Stanów Zjednoczonych i Australii. Dane z brytyjskiej sÅużby zdrowia (NHS) wykazaÅy co prawda pewien wzrost liczby skierowaÅ na leczenie wczesnych psychoz w pierwszym kwartale 2025 roku, jednak byÅ on niejednoznaczny i nie pokrywaÅ siÄ w peÅni z okresem nasilonych problemów technicznych w modelach AI. Co ważniejsze, znacznie szersze dane z USA i Australii nie pokazaÅy żadnego wyraÅŗnego trendu wzrostowego w liczbie interwencji zwiÄ
zanych z psychozami czy ogólnymi kryzysami zdrowia psychicznego.
Adler zwraca również uwagÄ na ograniczenia dotychczasowych badaÅ prowadzonych przez same firmy technologiczne. Wspólna analiza OpenAI i MIT, która wykazaÅa niewielki zwiÄ
zek miÄdzy intensywnym korzystaniem z chatbota a poczuciem samotnoÅci, objÄÅa użytkowników spÄdzajÄ
cych z AI Årednio zaledwie 5 minut dziennie. To próba niereprezentatywna dla przypadków psychoz, w których opisywano interakcje trwajÄ
ce nawet kilkanaÅcie godzin na dobÄ. Autor analizy podkreÅla, że firmy technologiczne dysponujÄ
kluczowymi danymi, ale nie zawsze dzielÄ
siÄ nimi w peÅni transparentny sposób.
Wnioski pÅynÄ
ce z analizy sÄ
niejednoznaczne. Z jednej strony brak jest twardych, statystycznych dowodów na masowy wzrost psychoz wywoÅanych przez chatboty. Z drugiej strony, anegdotyczne przypadki sÄ
niezwykle przekonujÄ
ce i pokazujÄ
realny mechanizm, w jaki AI może wzmacniaÄ urojenia. Ostatecznie, jak konkluduje Adler, najwiÄcej danych na ten temat posiadajÄ
same firmy tworzÄ
ce chatboty. Od ich transparentnoÅci i odpowiedzialnoÅci zależy, czy uda siÄ lepiej zrozumieÄ i ograniczyÄ to potencjalne zagrożenie.
Zainteresowanych odsyÅam do peÅnego tekstu Stevena Adlera.
#AI #bezpieczeÅstwoAI #chatbot #ChatGPT #news #OpenAI #psychozaChatbotowa #StevenAdler #sztucznaInteligencja #urojenia #uzależnienieOdAI #zdrowiePsychiczne