Kommentar af 
Birgitte Arent Eiriksson

Sårbare borgere skal ikke være velfærdsstatens forsøgskaniner for kunstig intelligens

Kunstig intelligens er i vækst i den offentlige sektor, og det kommer ikke uden udfordringer. Velfærdsstaten er ikke stedet at eksperimentere og slet ikke, når det kommer til sårbare borgere, hvis retssikkerhed er på spil, skriver Birgitte Arent Eiriksson.

I to jyske kommuner var kunstig intelligens med til at give en forkert risikovurdering af omsorgssvigtede børn.
I to jyske kommuner var kunstig intelligens med til at give en forkert risikovurdering af omsorgssvigtede børn.Foto: Nikolai Linares/Ritzau Scanpix
Birgitte Arent Eiriksson
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Den offentlige sektor er blevet mere og mere digital og automatiseret, og de seneste år er også kunstig intelligens blevet mere udbredt. Kunstig intelligens kan træffe beslutninger på baggrund af enorme datamængder og give store effektiviseringer, men det kan også have store omkostninger for borgerne, når velfærdsstaten eksperimenterer med ny teknologi.

At kunstig intelligens er i vækst i den offentlige sektor, blev tydeligt i forbindelse med aftalen om kommunernes og regionernes økonomi for 2020, hvor der blev aftalt 15 signaturprojekter, der skal afprøve teknologien. Det gælder for eksempel algoritmer, der anvendes som beslutningsstøtte, når der skal træffes afgørelse om sanktioner over for ledige, når der skal tildeles rengøringshjælp, og når det skal vurderes, hvilke borgere der vil have størst gavn af rehabiliterende træning.

Afprøvning af kunstig intelligens giver god mening. Men teknologien skaber også en række udfordringer, som kan have alvorlige konsekvenser for vores grundlæggende rettigheder og retssikkerhed. Det gælder særligt, når kunstig intelligens anvendes til profilering og i nogle tilfælde også forudsigelser af borgernes adfærd, eller når kunstig intelligens anvendes til at træffe afgørelser, der er vanskelige at forklare og efterprøve.

Et eksempel, der illustrerer sidstnævnte problematik, er det værktøj, som er ved at blive udviklet til brug for sagsbehandleres vurdering af underretninger om omsorgssvigtede børn. Ifølge en artikel i Zetland den 2. februar 2021 blev algoritmen fodret med en lang række tidligere sager og testet i to jyske kommuner. En studerende, der undersøgte sagsbehandlernes opfattelse af at anvende algoritmen, undrede sig over en underretning om et toårigt barn, som algoritmen havde givet en lav risikoscore på niveau 1, mens socialrådgiveren var kommet frem til en høj risikoscore på niveau 9. En anden studerende undersøgte matematikken bag algoritmen og kom frem til, at barnets alder havde en uforholdsmæssig stor indflydelse på risikoscoren.

Selvom vi alle kan blive klogere af de mange forsøg med kunstig intelligens, savner jeg en overordnet strategi, der kan sikre en betryggende samfundsmæssig udvikling med kunstig intelligens.

Birgitte Arent Eiriksson
Kommentarskribent

Det viste sig, at algoritmen på grund af det anvendte datainput havde udviklet en aldersbias, hvor lav alder førte til lavere risikovurdering. I den konkrete sag gav algoritmen ikke anledning til, at sagsbehandleren ændrede sin risikovurdering, men det skete i flere andre tilfælde og samlet set i 21 procent af sagerne. Lignende eksempler på bias i algoritmer kendes fra udlandet, ikke mindst i profileringsværktøjer, som skal forudsige kriminalitet på individniveau, hvor mænd med mørk hudfarve har været stærkt overrepræsenterede.

Eksemplerne viser med al tydelighed, at der er behov for meget mere fokus på, hvordan vi udvikler og løbende kontrollerer kunstig intelligens. Der er dog også behov for at drøfte, under hvilke forudsætninger vi anvender teknologien. Forskellen mellem kunstig intelligens, der anvendes som beslutningsstøtte eller til at træffe afgørelse direkte over for borgeren, kan i praksis blive meget lille. Det kræver stor faglig ballast og opmærksomhed at spotte fejlvurderinger i algoritmer, som for eksempel skyldes bias eller udeladelse af en vigtig information, ligesom det vil kræve stor tillid til egne evner at tilsidesætte algoritmens vurdering efter forsøgsstadiet.

Selvom vi alle kan blive klogere af de mange forsøg med kunstig intelligens, savner jeg en overordnet strategi, der kan sikre en betryggende samfundsmæssig udvikling med kunstig intelligens. Velfærdsstaten er måske ikke det bedste sted at eksperimentere. Sårbare borgere bør ikke gøres til ufrivillige forsøgskaniner, og det må under alle omstændigheder sikres, at deres retssikkerhed og grundlæggende rettigheder ikke sættes over styr, når kunstig intelligens afprøves og udbredes.

Dette års signaturprojekter har fokus på klima og hospitalsbehandlinger. Det bliver sikkert spændende, men pas nu godt på de syge borgere.

Dokumentation



Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion


Altinget logo
København | Stockholm | Oslo | Bruxelles
Politik har aldrig været vigtigere
AdresseNy Kongensgade 101472 København KTlf. 33 34 35 40[email protected]CVR nr.: 29624453ISSN: 2597-0127
Ansv. chefredaktørJakob NielsenDirektørAnne Marie KindbergCFOAnders JørningKommerciel direktørMichael ThomsenFormand og udgiverRasmus Nielsen
Copyright © Altinget, 2024