En nylig studie har avdekket at kunstig intelligens (AI) har betydelige utfordringer med å forstå og tolke ungdomsspråk, spesielt slanguttrykk som "rizz". Dette kan føre til misforståelser og potensielle sikkerhetsrisikoer på digitale plattformer.
Forskningen, utført av Manisha Mehta og Fausto Giunchiglia, evaluerte hvordan ledende AI-modeller som GPT-4, Claude, Gemini og Llama 3 håndterer ungdommens digitale språk. Resultatene viste at disse systemene ofte misforstår eller overser skjult trakassering og manipulasjon i ungdommens kommunikasjon. Dette skyldes blant annet at ungdomsspråket er sterkt påvirket av gaming, memer og AI-drevne trender, noe som gjør det vanskelig for både menneskelige moderatorer og automatiserte systemer å fange opp skadelig innhold.
Et eksempel på dette er uttrykket "rizz", som er en forkortelse for "karisma" og brukes for å beskrive en persons evne til å sjarmere eller tiltrekke seg andre. Oxford University Press kåret "rizz" til årets ord i 2023, noe som understreker hvor utbredt og viktig slike slanguttrykk har blitt i ungdomskulturen.
Problemet forsterkes av at ungdom tilbringer stadig mer tid på digitale plattformer, hvor de utvikler unike kommunikasjonsformer. Dette skaper en økende avstand mellom deres språkbruk og de verktøyene som er designet for å beskytte dem. For eksempel viser forskning at Generasjon Z ofte har problemer med å skille mellom AI-generert og menneskeskapt tekst, noe som kan gjøre dem mer sårbare for feilinformasjon og manipulasjon.
For å adressere disse utfordringene er det nødvendig med et tett samarbeid mellom AI-utviklere, foreldre og ungdom selv. Ved å inkludere ungdom i utviklingsprosessen kan man sikre at AI-systemene bedre reflekterer og forstår deres unike språk og kommunikasjonsformer. Dette vil ikke bare forbedre modereringsverktøyene, men også bidra til en tryggere digital hverdag for ungdom.