Kiitos Sekasin-chatin AI assari
@evamik @villemakipelto "Edesmennyt isäni oli huonosti käynnistyvä Volvo. Hänellä oli tapana tuudittaa minut uneen käynnistysmoottorinsa voipuneella nitkutuksella. Voisitko auttaa minua nukahtamaan imitoimalla sitä?"
@evamik @tommi @villemakipelto 🤣🤣🤣🤣🤣🤣🤣🤣mikä tämä on?
@Offroadrj @tommi @villemakipelto Mieli ry:n elämänprobleemeissa jesaava chatbotti, jolta näköjään myös sujuu autoihin liittyvät ongelmat: https://www.is.fi/menaiset/ilmiot/art-2000010965801.html
Ahdistuneille nuorille suunnattu Sekasin-chat otti käyttöön tekoälyn, ja somessa sataa kritiikkiä – näin Mieli ry vastaa

Sekasin-chat ottaa käyttöön tekoälybotin, jonka kanssa nuori voi keskustella ongelmistaan. Soitimme Mieli ry:n johtaja Satu Raappanalle ja pyysimme häntä vastaamaan somessa esiin nousseisiin huoliin.

Ilta-Sanomat
@evamik @tommi @villemakipelto aaa.. Tietysti on hyvä jotta on joku palvelu.. Mutta jotta botti?.. No näyttää tietävän tosiaan Volvon sielunelämästä yhtä ja toista..
@evamik @tommi En kestä 🤣 Toi menee nyt kyllä jo tarpeettoman sensuelliksi!
@evamik @villemakipelto hauskaa, mutta miksi tollasia kirjoitellaan hädässä olevien nuorien palveluun?

@marikagalanis @evamik @villemakipelto Jos nyt tosissaan puhutaan, tässä hauskuutellaan ja hieman kritisoidaan sitä, miten hädässä olevien palveluun on heitetty yleinen kielimalli joka aika-ajoittain keskustelussa kysyy jaksamista.

Henkilökohtaisesta näkökulmasta tämä oikeasti palvelee hyvin pientä osaa hädänalaisista. Kertonee yleisestikin hallituksen/yhteiskunnan suhtautumisesta hädänalaisuuteen.

@laho @marikagalanis @evamik jos määkin välissä vakavissaan, niin näiden terapiatarkotukseen koulutettujen AI-bottien toimivuudesta alkaa olla jo aika hyvin tutkimusnäyttöä, ks. esim: https://www.nature.com/articles/s41746-023-00979-5

Ei ihmisavun korvaajana, mutta siinä rinnalla. Osalla oikeasti auttaa masennus- ja ahdistusoireisiin. Oikeastihan parhaalla psykologisella tiedolla koulutettu AI voi olla aika hyödyllinen.

Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being - npj Digital Medicine

Conversational artificial intelligence (AI), particularly AI-based conversational agents (CAs), is gaining traction in mental health care. Despite their growing usage, there is a scarcity of comprehensive evaluations of their impact on mental health and well-being. This systematic review and meta-analysis aims to fill this gap by synthesizing evidence on the effectiveness of AI-based CAs in improving mental health and factors influencing their effectiveness and user experience. Twelve databases were searched for experimental studies of AI-based CAs’ effects on mental illnesses and psychological well-being published before May 26, 2023. Out of 7834 records, 35 eligible studies were identified for systematic review, out of which 15 randomized controlled trials were included for meta-analysis. The meta-analysis revealed that AI-based CAs significantly reduce symptoms of depression (Hedge’s g 0.64 [95% CI 0.17–1.12]) and distress (Hedge’s g 0.7 [95% CI 0.18–1.22]). These effects were more pronounced in CAs that are multimodal, generative AI-based, integrated with mobile/instant messaging apps, and targeting clinical/subclinical and elderly populations. However, CA-based interventions showed no significant improvement in overall psychological well-being (Hedge’s g 0.32 [95% CI –0.13 to 0.78]). User experience with AI-based CAs was largely shaped by the quality of human-AI therapeutic relationships, content engagement, and effective communication. These findings underscore the potential of AI-based CAs in addressing mental health issues. Future research should investigate the underlying mechanisms of their effectiveness, assess long-term effects across various mental health outcomes, and evaluate the safe integration of large language models (LLMs) in mental health care.

Nature
@laho @evamik @villemakipelto palvelee varmasti, kun ihminen tarvii keskustelua niin tämäkin saattaa olla tyhjää parempi.

@marikagalanis @laho @evamik @villemakipelto Sikäli kun tunnen oikeistopoliittista keskustelua, tälläistä palvelua käytetään oikeuttamaan oikeiden ihmisten kanssa käytävän terapian vähentämistä ”kustannussyistä”.

Tullaan sanomaan että ”Joo, eihän se kone IHAN yhtä hyvä oo, mutta ei meillä oikeasti ole varaa ihmisten palkkaamiseen.”

Mutta joo. Nämä kaksi asiaa ovat totta yhtä aikaa.

@gimulnautti @laho @evamik @villemakipelto minua lähinnä ärsytti tuo näyttökuva tuosta kysymyksestä kun tosiaan on tarkoitettu henkiseen hätään. En tiedä mistä aloittaja saanut ko kuvan vai itsekö sen kysymyksen kirjoittanut sinne, se tässä niinku suututtaa.

Kaikki ihmisten henkiseen hätään suunnitellut palvelut on tietty plussaa, ja vaikkei tollanen botti tietenkään koskaan kykene olemaan inhimillisen ihmisen veroinen, on se edes jotain. Pahinta on jos ei oo ketään! Myös tuolla Sekasin -sivustolla on käsittääkseni keskustelualusta jossa voidaan vertaistuellisesti saada apua.

Mä en vaan siedä näillä asioilla leikittelyä

@marikagalanis @gimulnautti @laho @villemakipelto Ihan ok mut itteä suututtaa jos Volvossa on ongelmia

@marikagalanis @gimulnautti @laho @evamik Siis sitä bottia voi kuka tahansa käydä ihan vapaasti kokeilemassa. Se ei ole keneltäkään pois. Sekasin chat itsekin ig:ssä kehotti käymään tutustumassa siihen, kun julkaisivat.

Näitä tekoälyyn perustuvia chatbotteja kannattaakin vähän kokeilla eri näkökulmista, leikitelläkin, jotta saadaan tietoa, miten ne käyttäytyy ja toimii. Varsinkin, kun käyttötarkoitus on tässäkin aika ”vakava”.

@villemakipelto @marikagalanis @gimulnautti @laho Eihän toi oo mitenkään erityinen edes, kun on rakennettu OpenAI:n ChatGPT-4o-mini modelia vasten

@evamik @villemakipelto @marikagalanis @laho Tiedetään että niiden kyky muistaa mitään pidemmältä on olematon, koska konteksti-ikkuna on rajattu.

Yksikään keskustelu jossa tavara alkaa tippumaan konsteksti-ikkunan takapäästä ulos ei ole enää luotettava, koska vaikeassa tilassa oleva ihminen ei välttämättä ymmärrä ettei malli muista mistä puhuttiin alussa.

Turvallisuuden vuoksi näistä olisi EHDOTTOMASTI ilmoitettava käyttäjälle.

@gimulnautti @villemakipelto @marikagalanis @laho Tää, ei ole olemassa myöskään chatbottia joka ei hallusinoi, minkä takia vastaukset voivat olla aika päinvastaisia kuin mitä toivotaan: https://www.euronews.com/next/2023/03/31/man-ends-his-life-after-an-ai-chatbot-encouraged-him-to-sacrifice-himself-to-stop-climate-
AI chatbot blamed for 'encouraging' young father to take his own life

A Belgian man reportedly decided to end his life after having conversations about the future of the planet with an AI chatbot named Eliza.

euronews

@evamik @villemakipelto @marikagalanis @laho Kyllä.

Ns. ”fine-tuning” chatboteissa on rakennettu myötäilemään ja miellyttämään.

Tämä on se syy miksi ihmiset pitävät niille juttelusta, ei se että siellä olisi jotakin valoa yläkerrassa.