Kommentar af 
Johan Busse

Ansigtsgenkendelse i politiet kræver grundige debatter om værdier, etik og hensyn

Ansigtsgenkendelse er en kraftfuld teknologi med mange nyttige formål. Men den bringer også komplekse dilemmaer med sig. Derfor bør de juridiske rammer for politiets brug af ansigtsgenkendelse fastlægges på baggrund af grundige dataetiske overvejelser, skriver Johan Busse.

Der er endnu ikke foretaget en fyldestgørende afvejning af værdier, fordele og ulemper ved at bruge ansigtsgenkendelse, skriver Johan Busse.
Der er endnu ikke foretaget en fyldestgørende afvejning af værdier, fordele og ulemper ved at bruge ansigtsgenkendelse, skriver Johan Busse.Foto: Claus Bonnerup/Ritzau Scanpix
Johan Busse
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Dataetisk Råd har tidligere udtalt sig om brug af ansigtsgenkendelse i det offentlige rum og alment tilgængelige steder.

Men justitsministerens beslutning om at lade politiet anvende teknologisk ansigtsgenkendelse i efterforskningen af alvorlig personfarlig kriminalitet kræver nye dataetiske overvejelser og vurderinger.

Jeg kan konstatere, at der endnu ikke er foretaget en fyldestgørende afvejning af værdier, fordele og ulemper ved at bruge ansigtsgenkendelse.

Det er ærgerligt, for ansigtsgenkendelse er ikke bare endnu et digitalt værktøj, men en teknologi, der fundamentalt kan ændre vores samfund – fra hvordan vi oplever det offentlige rum, til vores tillid til ordensmagten og samfundets institutioner som helhed.

Læs også

Etikken spiller en central rolle i vores samfund både i de store politiske beslutninger og i de små daglige valg.

Uden etiske og dataetiske overvejelser risikerer vi at overse væsentlige konsekvenser, som vi senere må håndtere. Det oplever vi også nu med sociale medier.

Dataetik handler netop om, hvordan vi bør agere, når digitalisering og teknologi bliver en integreret del af vores hverdag. Dataetikken anviser ikke ufravigelige rammer, men fører os til mere informerede og bæredygtige beslutninger.

Dataetik fordrer, at vi afvejer centrale værdier og hensyn for en teknologi.

På den ene side kan ansigtsgenkendelse hjælpe med at opklare forbrydelser og forhindre ny kriminalitet.

Det kan altså øge vores sikkerhed og oplevelse af tryghed i samfundet. Enten ved at afskrække forbrydere direkte, fordi de bliver overvåget, eller ved at hjælpe med at opklare forbrydelser mere effektivt og spærre forbrydere inde, således at de afskæres fra at begå ny kriminalitet.

Teknologien kan fejle og udsætte uskyldige for ubegrundet mistanke, gener og utryghed.

Johan Busse
Rådsformand, Dataetisk Råd

Men øget brug af ansigtsgenkendelse har også en indvirkning på vores privatliv. Og teknologien kan fejle og udsætte uskyldige for ubegrundet mistanke, gener og utryghed.

Endelig giver det anledning til at overveje, hvad øget overvågning betyder for tilliden, friheden og værdigheden i vores samfund.

Spørgsmålet er, hvordan vi tilgodeser disse hensyn – og hvem, der skal sætte grænserne?

Vi ved på nuværende tidspunkt ikke, hvor effektiv teknologisk ansigtsgenkendelse er.

Beslutningen om at tillade brugen af teknologien hviler på en formodning om, at det vil hjælpe med at opklare og forhindre alvorlig kriminalitet.

Men vi har endnu ikke konkrete svar på, hvor meget kriminalitet ansigtsgenkendelse reelt kan forhindre.

Uden denne viden er det svært at vurdere, hvor meget vi har at vinde ved øget brug af ansigtsgenkendelse.

Omvendt er det også uklart, hvordan denne nye brug af ansigtsgenkendelse vil påvirke vores privatliv – ikke kun for kriminelle, men for os alle. Det afhænger blandt andet af, hvordan teknologien anvendes.

Læs også

Herunder om der indsamles nyt datamateriale, eller om de øgede muligheder for at bruge ansigtsgenkendelse motiverer til yderligere overvågning af offentlige rum.

Samtidig afhænger det af, om der med ansigtsgenkendelse søges efter at identificere bestemte personer, eller om alle personer i materialet skal identificeres.

Ligeledes påvirkes privatlivet også af, om de registrerede ansigtsdata gemmes eller slettes.

Vi ved heller ikke præcist, hvor godt politiets nye værktøj fungerer.

Ansigtsgenkendelse er langt fra fejlfri – teknologien kan overse de personer, man leder efter, eller fejlidentificere uskyldige. Begge typer fejl kan have alvorlige konsekvenser.

Teknologien har ofte bias på tværs af køn og etnicitet.

Johan Busse
Rådsformand, Dataetisk Råd

Jo flere gange teknologien overser de eftersøgte, desto mindre kriminalitet kan den forhindre. Og omvendt kan uskyldige blive udsat for potentielt meget ubehagelige mistanker og indsatser.

Det er derfor afgørende at vurdere, om teknologien rent faktisk leverer det, den lover.

Den dataetiske vurdering bør derfor også se på, om teknologien rent faktisk kan det, som den skal – nemlig at identificere personer, der begår personfarlig kriminalitet.

Det er især essentielt, fordi teknologien ofte har bias på tværs af køn og etnicitet, og vi skal derfor opstille kriterier for datakvaliteten.

Her bør der samtidig stilles specifikke krav til teknologiens præcision, robusthed og sikkerhed, samt overvejelser om, hvilken model og hvilke data teknologien er baseret og trænet på.

Alternativerne spiller også en central rolle. Hvis alternativet er, at man slet ikke anvender billedmateriale, så er dette naturligvis mere privatlivsbeskyttende.

Men hvis alternativet i stedet er, at politibetjente, som indtil nu, manuelt skal gennemse materialet, så kan ansigtsgenkendelse paradoksalt nok være bedre for privatlivet.

Det skyldes, at teknologien kan afgrænses til kun at søge efter konkrete individer i modsætning til manuel gennemgang udført af mennesker, som ikke kan undlade at identificere genkendelige personer.

Læs også

Effekten på hensynet til privatliv vil altså være afhængig af både kriterier for anvendelse og vurderingen i forhold til flere alternativer.

Samlet set ved vi ikke, hvor meget ansigtsgenkendelse vil øge sikkerheden, ligesom vi heller ikke er sikre på, hvor meget det vil påvirke vores privatliv. Det gør det svært at afveje indgrebets proportionalitet.

Der er bred enighed om, at de institutionelle rammer for brugen af ansigtsgenkendelse skal på plads. Indtil videre er disse rammer dog kun vagt definerede.

Politiet har fået grønt lys til at implementere en digital løsning med objekt- og mønstergenkendelsesteknologi, herunder ansigtsgenkendelsesteknologi, til brug i efterforskningen af alvorlig personfarlig kriminalitet og i særlige operative situationer.

I pressemeddelelsen fra Justitsministeriet kan man desuden læse, at der er blevet lovet en evaluering af indsatsen. Her er det selvfølgelig relevant at overveje, hvem der skal evaluere.

Om det skal være politiet, som anvender teknologien, politikerne, som har tilladt den, de borgere, som bliver ramt af den, eller en fjerde og mere uafhængig instans.

Teknologien er i sig selv hverken god eller dårlig, men den har gode og dårlige anvendelsesmuligheder.  

Johan Busse
Rådsformand, Dataetisk Råd

For at evalueringen kan blive meningsfuld, er det nødvendigt at afklare, hvilke værdier der skal afvejes, hvilke risici der er på spil, og hvilken effekt de forskellige institutionelle tiltag vil have.

De dataetiske overvejelser handler også om de langsigtede konsekvenser af at indføre ansigtsgenkendelse i samfundet.

Erfaringen viser, at teknologier ofte bliver brugt mere frit, når først de er introduceret. I dag er politiets brug af ansigtsgenkendelsesteknologi begrænset, og den må ikke anvendes i realtid.

Men hvordan vil vi gerne have, at denne teknologi skal, eller ikke skal, anvendes i fremtiden? Hvilke værdier bør vi tage udgangspunkt i, når vi skal forme den offentlige debat om det?

Regeringen har udtalt et ønske om en mere demokratisk diskussion af brugen af teknologier og AI. Den diskussion er vi stadig ikke kommet i gang med. Men det er ikke for sent.

Det er afgørende, at vi får grundige dataetiske overvejelser med i debatten om politiets brug af ansigtsgenkendelse, og her vil Dataetisk Råd gerne bidrage.

De dataetiske udfordringer kan både reduceres og forstærkes afhængigt af, hvilke specifikke juridiske og tekniske løsninger, vi vælger.

Dataetiske vurderinger kan derfor være en vigtig del af både evalueringen af den nuværende ordning og fremtidige beslutninger på området.

Teknologien er i sig selv hverken god eller dårlig, men den har gode og dårlige anvendelsesmuligheder.

Vores bedste chance for at bruge den til noget godt for hele samfundet er, hvis vi gør det med fælles omtanke og debat.

Læs også

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion

Omtalte personer

Johan Busse

Formand, Dataetisk Råd, borgerrådgiver, Københavns Kommune
cand.jur. (Københavns Uni. 1999), Master of Public Governance (CBS 2015)

Altinget logo
København | Stockholm | Oslo | Bruxelles
Politik har aldrig været vigtigere
AdresseNy Kongensgade 101472 København KTlf. 33 34 35 40[email protected]CVR nr.: 29624453ISSN: 2597-0127
Ansv. chefredaktørJakob NielsenDirektørAnne Marie KindbergCFOAnders JørningKommerciel direktørMichael ThomsenFormand og udgiverRasmus Nielsen
Copyright © Altinget, 2024