OpenAI overvåker ChatGPT-samtaler og varsler politiet ved trusler

Hovedpunkter:

  • OpenAI overvåker ChatGPT-samtaler for å oppdage trusler mot andre.
  • Alvorlige tilfeller rapporteres til politiet.
  • Selskapet hevder å respektere brukernes personvern ved ikke å rapportere selvskading.
  • Tiltaket har vekket bekymring om personvern og overvåking.
  • OpenAI har tidligere vært involvert i kontroverser rundt brukernes mentale helse.

OpenAI har nylig annonsert at de overvåker brukernes ChatGPT-samtaler for å identifisere potensielle trusler mot andre personer. I tilfeller der det oppdages en umiddelbar fare for alvorlig fysisk skade, kan selskapet rapportere samtalene til politiet.

I en bloggpost forklarer OpenAI at når de oppdager brukere som planlegger å skade andre, blir samtalene sendt til et spesialisert team for gjennomgang. Dette teamet har myndighet til å iverksette tiltak, inkludert å utestenge kontoer. Hvis det vurderes at det foreligger en overhengende trussel om alvorlig fysisk skade, kan saken henvises til rettshåndhevende myndigheter.

Samtidig understreker OpenAI at de for øyeblikket ikke rapporterer tilfeller av selvskading til politiet, med hensyn til brukernes personvern og den unike private naturen til ChatGPT-interaksjoner.

Dette tiltaket har vekket bekymring blant personvernforkjempere og brukere, som stiller spørsmål ved omfanget av overvåkingen og potensielle konsekvenser for brukernes tillit til plattformen. Det er også usikkerhet rundt hvilke typer samtaler som kan føre til menneskelig gjennomgang og eventuell rapportering til myndighetene.

OpenAI har tidligere vært involvert i kontroverser knyttet til brukernes mentale helse, og dette nye tiltaket ser ut til å være et forsøk på å adressere disse problemene. Likevel gjenstår det å se hvordan dette vil påvirke brukernes oppfatning av personvern og tillit til selskapets tjenester.