OpenAI har nylig innrømmet at de overvåker brukersamtaler i ChatGPT og rapporterer til politiet dersom samtalene inneholder trusler om vold mot andre. Dette har utløst sterk kritikk fra brukere og personvernforkjempere som er bekymret for personvernet og potensialet for misbruk.
I en bloggpost forklarte OpenAI at de benytter en kombinasjon av automatiserte systemer og menneskelig gjennomgang for å identifisere innhold som kan være i strid med deres retningslinjer. Dersom en samtale vurderes som en umiddelbar trussel om alvorlig fysisk skade mot andre, kan den bli rapportert til politiet. Dette har reist spørsmål om hvordan OpenAI fastslår brukernes nøyaktige lokasjoner for å kunne varsle nødetatene.
Kritikere påpeker at involvering av politiet i slike situasjoner kan føre til eskalering, spesielt når det gjelder personer i mentale kriser. Det er også bekymring for at denne praksisen kan utvides til å omfatte andre typer innhold, noe som kan føre til økt overvåkning og redusert åpenhet.
OpenAI har foreløpig ikke gitt ytterligere kommentarer til kritikken. Selskapets retningslinjer for bruk og innholdsmoderering beskriver deres tilnærming til overvåkning og håndheving av retningslinjer, men detaljer om hvordan de håndterer rapportering til myndighetene er ikke spesifisert.