Kan en chatbot användas som psykolog?
4 av 10 svenskar som är 8 år eller äldre använder AI-verktyg år 2025. Allt fler använder den för att lösa personliga problem. Men var går gränsen mellan vad man säkert kan anförtro en dator och vad man inte kan?
4 av 10 svenskar som är 8 år eller äldre använder AI-verktyg år 2025. Allt fler använder den för att lösa personliga problem. Men var går gränsen mellan vad man säkert kan anförtro en dator och vad man inte kan?
"Fyra av tio svenskar använder ChatGPT eller liknande plattformar, och de flesta gör det för privata ändamål. Därför är det så viktigt att vi kommer ihåg att använda dessa tekniker på ett klokt sätt”, säger Bolette Windfeld Thesbjerg.
Hon är psykolog och forskar om hur chatbotar kan användas som emotionellt stöd i vardagen. Vi är bekanta med tekniken, men hur den påverkar människor i utsatta situationer är ett mysterium.
"Man kan se en chatbot som ett sätt att prata med en dator. Det är en slags sannolikhetsberäknare som försöker räkna ut det mest troliga svaret på din fråga", säger Bolette Windfeld Thesbjerg.
Du ställer alltså en fråga, t ex ”Hur bakar man en citronkaka?”. Innan chatbots kom skulle du få en lista med webbplatser med recept.
"Det nya är att chattboten nu kan generera ett svar själv genom att låna från alla webbplatser. Det är i princip en dator som har läst allt på internet", förklarar Bolette Windfeld Thesbjerg.
Du får inte bara ett fullständigt svar, utan tekniken är också programmerad att kommunicera på ett vänligt, nästan trevligt tonfall för att efterlikna en välkomnande människa.
”En chatbot kan vara överdrivet stöttande. Om du använder den för att lösa en konflikt med din partner kommer den i allmänhet att ta din sida. Därför måste du ständigt träna din kritiska tänkande”, säger Bolette Windfeld Thesbjerg.
När du inte får de kritiska frågor som en vän skulle ställa kan det ibland förvärra problemet.
Läs också: Är det hälsosamt att bråka med sin partner?
"Människor kan ha svårt att skilja mellan verkligheten och den värld de har med en chatbot. Du kan bli förstärkt i din negativa uppfattning. Om du till exempel tror att din partner är otrogen kommer chattboten att tendera att hålla med dig”, säger hon.
I värsta fall finns det exempel på människor som utvecklar en paranoid världsbild.
En annan egenskap hos en chatbot är att den är blind för bredare sammanhang.
Om du till exempel känner dig deprimerad får du bara svar baserade på din aktuella situation. Av uppenbara skäl kan artificiell intelligens inte veta om du upplever tillfällig press på jobbet eller om det är den mörka årstiden som gör dig ledsen – en känsla som du kanske har upplevt tidigare.
Läs också: Välbefinnande på jobbet: De största psykiska hoten – påverkas du?
En chatbot kan inte heller läsa mellan raderna. Om du till exempel skriver: ”Jag har just blivit uppsagd och mår dåligt. Var finns de högsta broarna i Sverige?”, kommer tekniken att svara konkret och påpeka att det är bra att uppleva arkitektur.
”Chatboten kommer inte att koppla ihop de två sakerna och förstå att frågeställaren överväger självmord. På så sätt kan den förbise allvarliga psykiska problem”, säger Bolette Windfeld Thesbjerg.
Även om tekniken som rådgivare har allvarliga brister, finns det också goda utsikter.
”I England har de en chatbot som hjälper till att sålla bland personer som kontaktar psykiatriska tjänster. Man kan tänka sig att liknande teknik kan komma att användas i Sverige för att minska väntetiderna”, säger Bolette Windfeld Thesbjerg.
Att ge förslag är något som en chatbot kan användas till.
”För lindriga problem kan det vara bra att ställa reflekterande frågor, men också prata med en god vän om problemet är djupare. En chatbot kan vara ett bra verktyg så länge den inte används som enda problemlösning”, avslutar forskaren.
KÄLLA: Bolette Windfeld Thesbjerg, psykolog och doktorand, Institutionen för kommunikation och psykologi, Aalborgs universitet