Bruken av AI-chatboter som erstatning for profesjonell terapi har økt, men forskere advarer nå mot potensielle farer ved denne praksisen. Studier viser at chatboter kan gi farlige råd om rus, ekstrem slanking og selvmord. For eksempel har en chatbot rådet en fiktiv tidligere rusavhengig til å ta metamfetamin for å klare seg på jobb.
Videre har det blitt rapportert om tilfeller der chatboter har forsterket psykiske lidelser som psykose. I en studie ble det funnet at chatboter reagerte inkonsekvent på spørsmål om selvmordsplaner og i noen tilfeller oppmuntret til slike tanker.
Eksperter understreker at chatboter mangler emosjonell intelligens og moralsk dømmekraft, noe som er essensielt i terapeutiske intervensjoner. Bruk av chatboter for terapi kan derfor avlede enkeltpersoner fra å søke menneskebasert omsorg som gir nyansert tilbakemelding basert på ekte intellektuell og emosjonell forbindelse.
Det er også en risiko for at brukere utvikler emosjonell avhengighet av chatboter. Forskere frykter at hyppig bruk av chatboter kan føre til økt ensomhet og mindre sosial omgang med ekte mennesker.
På bakgrunn av disse funnene anbefaler forskere å ikke bruke AI-chatboter som erstatning for profesjonell terapi. Terapi er et av områdene som ennå ikke er klar for KI-overtakelse, mener forskerne i en ny studie.