Bruken av ansiktsgjenkjenningsteknologi har økt betydelig de siste årene, både i offentlig og privat sektor. Teknologien benyttes til alt fra sikkerhetstiltak og betalingsløsninger til overvåking og identifikasjon. Denne utviklingen har imidlertid reist alvorlige spørsmål om personvern og behovet for regulering.
I Europa har EU-kommisjonen foreslått en ny lovgivning, kjent som Artificial Intelligence Act (AI Act), som blant annet tar sikte på å regulere bruken av ansiktsgjenkjenning. Forslaget inkluderer et mulig forbud mot bruk av teknologien i sanntid på offentlige steder, med visse unntak som søk etter savnede barn eller etterforskning av alvorlige forbrytelser. Loven er under forhandling og forventes å bli ferdigstilt i løpet av 2023.
I USA har flere selskaper møtt juridiske utfordringer knyttet til bruken av ansiktsgjenkjenning. For eksempel inngikk Meta, selskapet bak Facebook, et forlik på 1,4 milliarder dollar med delstaten Texas etter anklager om ulovlig bruk av ansiktsgjenkjenning uten brukernes samtykke.
I Storbritannia har politiet i London tatt i bruk ansiktsgjenkjenningsteknologi for å identifisere og pågripe mistenkte. Dette har resultert i over 500 pågripelser, inkludert alvorlige saker som vold mot kvinner og voldtekt. Bruken av teknologien har imidlertid møtt kritikk fra borgerrettsorganisasjoner som mener den kan føre til masseovervåking og krenkelse av personvernet.
I Norge har Teknologirådet påpekt at ansiktsgjenkjenning åpner for masseovervåking fordi kapasiteten blir enorm, det kan gjøres på avstand og uten samtykke. Personvernforordningen GDPR regulerer bruken i Norge, men forbyr den ikke. For eksempel har svensk politi fått grønt lys for å ta teknologien i bruk.
Det er en pågående debatt om hvordan man best kan balansere fordelene med ansiktsgjenkjenningsteknologi mot potensielle trusler mot personvernet. Mens teknologien kan bidra til økt sikkerhet og effektivitet, er det viktig å sikre at den brukes på en måte som respekterer individets rettigheter og friheter.