Chatbotterne kommer…

2023 har været et år, hvor kunstig intelligens har været på alles læber. Nu hvor året går på hæld, zoomer vi ind på, hvad den nyeste forskning siger om AI og psykoterapi.

I løbet af 2023 har kunstig intelligens været et dominerende tema på den offentlige dagsorden. Diskussionerne spænder fra fascinerende teknologiske fremskridt til etiske dilemmaer og rædselsprofetier om en udvikling, der er ude af kontrol.

Også i behandlingen af psykiske problemer og lidelser har kunstig intelligens gjort sit indtog. Automatiserede terapeutiske værktøjer og chatbotter kan gøre psykoterapi mere tilgængelig for flere mennesker, der ellers ikke har adgang til denne type hjælp. Dermed kan kunstig intelligens være med til at løse den krise i mental sundhed, som rammer befolkninger globalt.

Samtidig rejser brugen af kunstig intelligens i psykoterapi vigtige etiske spørgsmål. Hvordan påvirkes det enkelte menneske, når terapien leveres af et digitalt system? Kan en chatbot udvikles til at forstå og reagere på komplekse følelsesmæssige nuancer på samme måde som et menneske? Fortrolighed, databeskyttelse og sikkerhed er andre bekymringer, når følsomme oplysninger deles digitalt.

Og man kan lige så godt spænde hjelmen med det samme, for der er store forhåbninger til fordelene ved at anvende kunstig intelligens i sundhedsvæsenet, også til behandling af psykisk sygdom. For at blive klogere på den komplekse udvikling, dykker vi ned i, hvad fire udvalgte forskningsartikler fra det forgangne år siger om kunstig intelligens og psykoterapi.

Din chatbot lytter altid

En undersøgelse foretaget af Martinengo, Lum og Car og bragt i Journal of Affective Disorders har man gennemgået indholdet i samtalerne mellem ni chatbotter og en fiktiv bruger med depression, som blev udviklet til studiet. Chatbotterne var integreret i apps med fokus på mental sundhed. Undersøgelsen viser, at alle ni chatbotter mødte brugeren med empatiske, fordomsfrie og individualiserede svar, der svarede til god terapeutisk praksis og desuden kunne hjælpe brugeren igennem enkle terapeutiske øvelser. Studiet konkluderer, at de ni chatbotter er egnede til at understøtte behandling af depression og andre mentale lidelser, men at de ikke kan vurdere og håndtere selvmordsrisiko.

Et studie af Haque og Rubya, som blev bragt i JMIR mHealth and uHealth har undersøgt 10 populære apps, der har en indbygget chatbot og tilbyder støtte og behandling for psykiske problemer. Forfatterne Haque og Rubya finder, at de 10 apps kan give social og psykisk støtte i situationer, hvor menneskelig interaktion ikke er mulig eller ønsket af brugerne. Chatbotten er til rådighed hele tiden, og det giver brugerne mulighed for at få hjælp, når de har behov for det. Trods fordelene, er der også nogle begrænsninger – fx er der en risiko for yderligere isolation og mangelfuld hjælp i krisesituationer, hvis brugeren bliver afhængig af chatbotten, ligesom der er risiko for, at chatbotten anbefaler øvelser og handlinger, brugeren ikke kan udføre. Studiet konkluderer derfor, at der er behov for at styrke individualiseringen af chatbotterne, så de i højere grad kan tage hensyn til brugerens mentale tilstand, graden af lidelse og fysiske formåen.

Men hvad med den menneskelige kontakt?

I en gennemgang af forskningen om kunstig intelligens og chatbotter i psykoterapi i tidsskriftet The American Journal of Bioethics, peger forfatterne Sedlakova og Traschsel på, at kunstig intelligens kan nå sårbare grupper, der ellers ikke har adgang til terapi. Deres analyse peger på, at chatbotter kan anvende evidensbaserede teknikker og information og desuden fungerer godt i en samtale med begrænsede og veldefinerede mål, som er tydelige for brugerne. De påpeger samtidig, at samtalen mellem bruger og chatbot ikke kan være helt autentisk, fordi chatbotten er en efterligning af menneskelig samtale. Chatbotten er hverken rationel eller moralsk i sig selv. Hvis dette ikke er helt klart for brugeren, kan det have en negativ virkning på brugerens udbytte af interaktionen og oplevelse af egen automi, integritet og selvforståelse. Derfor er der behov for at skærpe offentlighedens opmærksomhed og forståelse af den nye teknologi, hvis det skal lade sig gøre at udbrede psykoterapi ved hjælp af kunstig intelligens.

Filosof Grodniewicz og psykolog Hohol peger ligeledes på potentialet for at anvende kunstig intelligens til at gøre psykoterapi tilgængelig for flere mennesker. På baggrund af en litteraturbaseret analyse, udgivet i Frontiers in Psychiatry, diskuterer de, hvad man skal være opmærksom på i udviklingen af samtalebaseret kunstig intelligens, som fx chatbotter. Forfatterne peger på tre vigtige forhold:

1) Vi er nødt til at vide mere om, hvad der gør psykoterapi effektiv,

2) Hvis den terapeutiske alliance mellem terapeut og klient påvirker resultatet af terapien, er det uklart, om kunstig intelligens overhovedet vil kunne udøve virkningsfuld terapi

og

3) Kunstig intelligens er bedst til klart afgrænsede opgaver, og udøvelsen af psykoterapi er muligvis for kompleks og varieret en opgave til at kunne håndteres af kunstig intelligens.

Artiklen konkluderer, at kunstig intelligens på nuværende tidspunkt ikke er tilstrækkeligt udviklet til at kunne levere egentlig psykoterapi, og at man bør adressere de tre ovenstående forhold i den videre udvikling af denne type terapi.

Mere viden, tak

På tværs af de fire studier er der både enighed om, at det giver god mening at bruge kunstig intelligens med et terapeutisk sigte, men der er enighed om, at vi i dag ikke har tilstrækkelig meget viden om, hvordan vi bedst kan anvende kunstig intelligens i psykoterapi. Der er også enighed om, at kunstig intelligens ikke kan stå alene i den behandling, der bør tilbydes mennesker med psykiske problemer. Der er brug for mere forskning, der kan sikre en systematisk og transparent udvikling af fx chatbotter og undersøge, hvornår, hvordan og til hvem denne form for psykoterapi kan gøre gavn.

Litteratur

Grodniewicz J.P, Hohol M. Waiting for a digital therapist: three challenges on the path to psychotherapy delivered by artificial intelligence. Frontiers in Psychiatry, 14, 2023.

Haque R, Sabirat, R: An Overview of Chatbot-Based Mobil Mental Health Apps: Insights from App Description and User Reviews. JMIR mHealth and uHealth, 11, 2023.

Martinengo L, Lum E, Josip C. Evaluation of chatbot-delivered interventions for self-management of depression: Content analysis. Journal of Affective Disorders, 319, 2022.

Sedlakova J, Trachsel M. Conversational Artificial Intelligence in Psychotherapy: A New Therapeutic Tool or Agent? The American Journal of Bioethics, 23,5, 4-13, 2023

 

Andre nyheder

Videnscenter for Psykoterapi har udviklet et univers med praksisnær viden om psykoterapi på hjemmesiden, som skal dele metoder og inspiration til arbejdet.
Efterspørgslen på psykologhjælp når nye højder, mens effektiviteten af behandlinger og gyldigheden af psykologiske teorier udfordres, skriver Weekendavisen.
Klientens tillid til både terapeuten og den terapeutiske metode er central for terapiresultater. Det viser nyt review og metaanalyse af en række studier.