OpenAI kritiseres for å rapportere ChatGPT-samtaler til politiet

Hovedpunkter:

  • OpenAI innrømmer å overvåke og rapportere ChatGPT-samtaler til politiet ved trusler om vold.
  • Brukere og eksperter uttrykker bekymring for personvern og potensielle misbruk.
  • OpenAIs praksis reiser spørsmål om AI-systemers rolle i overvåkning og rapportering.
  • Kritikken inkluderer frykt for utvidet overvåkning og manglende åpenhet.
  • OpenAI har ikke gitt ytterligere kommentarer til kritikken.

OpenAI har nylig innrømmet at de overvåker brukersamtaler i ChatGPT og rapporterer til politiet dersom samtalene inneholder trusler om vold mot andre. Dette har utløst sterk kritikk fra brukere og personvernforkjempere som er bekymret for personvernet og potensialet for misbruk.

I en bloggpost forklarte OpenAI at de benytter en kombinasjon av automatiserte systemer og menneskelig gjennomgang for å identifisere innhold som kan være i strid med deres retningslinjer. Dersom en samtale vurderes som en umiddelbar trussel om alvorlig fysisk skade mot andre, kan den bli rapportert til politiet. Dette har reist spørsmål om hvordan OpenAI fastslår brukernes nøyaktige lokasjoner for å kunne varsle nødetatene.

Kritikere påpeker at involvering av politiet i slike situasjoner kan føre til eskalering, spesielt når det gjelder personer i mentale kriser. Det er også bekymring for at denne praksisen kan utvides til å omfatte andre typer innhold, noe som kan føre til økt overvåkning og redusert åpenhet.

OpenAI har foreløpig ikke gitt ytterligere kommentarer til kritikken. Selskapets retningslinjer for bruk og innholdsmoderering beskriver deres tilnærming til overvåkning og håndheving av retningslinjer, men detaljer om hvordan de håndterer rapportering til myndighetene er ikke spesifisert.