Debat

Medlemmer i Dataetisk Råd: Myndighederne har ikke taget stilling til centrale spørgsmål om kunstig intelligens

De offentlige myndigheder har følsom information om os alle sammen og kan træffe beslutninger, der har stor betydning for vores liv. Så der er mange dataetiske spørgsmål at være opmærksom på, når det kommer til brugen af kunstig intelligens, skriver otte medlemmer af Dataetisk Råd. 

Der er en stor risiko for, at AI-Systemer reproducerer eller skaber bias i forhold til for eksempel forskellige køn og etniciteter, skriver otte medlemmer af Dataetisk Råd.
Der er en stor risiko for, at AI-Systemer reproducerer eller skaber bias i forhold til for eksempel forskellige køn og etniciteter, skriver otte medlemmer af Dataetisk Råd.Foto: Ólafur Steinar Gestsson/Ritzau Scanpix
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Over en million danskere bruger Chat-GPT, eller andre former for såkaldt generativ AI, en speciel slags kunstig intelligens, der selv kan generere tekst og billeder.

Mange kommuner, regioner og statslige myndigheder er allerede i gang med at bruge den nye teknologi, og det kan give fine muligheder, men også problemer.

Derfor må vi have godt fat om, hvornår det er fornuftigt at bruge de nye AI-systemer, og hvordan det gøres sikkert.

Selv om generativ AI er en ny teknologi, så minder det på mange måder om andre slags kunstig intelligens, som der findes erfaringer med fra de seneste ti år.

Noget af det allervigtigste, når en myndighed begynder at bruge AI-systemer, er at lave en risikovurdering.

otte medlemmer af Dataetisk Råd

Inden for medicinsk forskning er der mange gode eksempler på brugen af kunstig intelligens til at finde mønstre i store data-sæt og hjælpe læger og forskere med at diagnosticere sygdomme.

Omvendt har vi indenfor socialområdet set dårlige eksempler fra for eksempel England, hvor mennesker med flygtningebaggrund blev uretmæssigt overvåget, og i Holland hvor et AI-system uberettiget fratog socialt udsatte deres ydelser.

I Dataetisk Råd arbejder vi aktuelt med, hvordan offentlige myndigheder bruger generativ AI. Det gør vi, fordi blandt andet kommuner og regioner har følsom information om os alle sammen og kan træffe beslutninger, der har stor betydning for vores liv. Så der er mange dataetiske spørgsmål at være opmærksom på.

Lav en risikovurdering

Noget af det allervigtigste, når en myndighed begynder at bruge AI-systemer, er at lave en risikovurdering. Den skal kortlægge om der er negativ indvirkning på mennesker, miljø og samfund.

Ved høj risiko er der brug for at reducere mulige skadevirkninger. En dataetisk risikovurdering kan tage afsæt i de risikovurderinger, der følger af GDPR-lovgivningen og EU’s nye AI-lovgivning, og suppleres med vurderinger af konsekvenserne for vores velfærd, værdighed, lighed, selvbestemmelse og retssikkerhed.

Læs også

Det er vores opfordring, at offentlige myndigheder hurtigst muligt bør indføre den praksis. Både for at leve op til den nye lovgivning, men også for at sikre at borgere og medarbejdere får den bedst mulige hjælp og behandling.

Risikovurderinger viser ofte også, om der skal tages særlige forholdsregler for at beskytte borgernes rettigheder og data.

Den såkaldte Gladsaxe-model var et eksempel på samkøring af data, der ikke levede op til GDPR og dataetiske hensyn og fik meget kritik.

Inddrag relevante aktører

Over sommeren har kørt en debat, hvor digitaliseringsminister, Marie Bjerre (V), har peget på, at kunstig intelligens som udgangspunkt kan anvendes på alle områder; således også ved tvangsanbringelser af børn.

På den anden side mener blandt andet Dansk Socialrådgiverforening, at det er så indgribende en afgørelse, at kunstig intelligens ikke skal bruges her.

Det er en interessant politisk diskussion, men fra et data-etisk perspektiv er den væsentligste pointe, at relevante aktører skal inddrages i beslutninger om, hvornår der kan bruges AI.

Faglige organisationer, borgere, medarbejdere, patientorganisationer med mere skal være med til at vurdere, hvornår det er forsvarligt at bruge systemerne.

Vores håb er derfor også, at den snart kommende AI Taskforce vil være inddragende, og sammensat med relevante aktører og dataetiske profiler.

Bias og risiko for monopol

Systemer der bygger på generativ AI, for eksempel Chat GPT, kan ikke vurdere om informationer er sande eller falske, og kan derfor producere indhold, som er faktuelt forkert, såkaldte hallucinationer.

Systemer der bygger på generativ AI, for eksempel Chat GPT, kan ikke vurdere om informationer er sande eller falske. 

otte medlemmer af Dataetisk Råd

Derfor skal indhold altid kvalitetssikres af fagpersoner og tilpasses den konkrete kontekst og kultur.

Der er også en stor risiko for at AI-Systemer reproducerer eller skaber bias i forhold til for eksempel forskellige køn, etniciteter og professioner, eller indhold til bestemte grupper af borgere. Det skaber risiko for diskrimination.

Derfor er det vigtigt at implementere processer til kontrol mod bias både i datainput, det vil sige datakilder, datasæt og variable i algoritmen, og i dataoutput, for eksempel information, analyser, profileringer og forslag.

Det læner sig igen ind i føromtalte vurdering af, hvornår en risiko er unødvendig stor. Og understreger, at der fortsat er brug for faglige medarbejdere, der kan sikre kvaliteten, og at dataanvendelsen sker korrekt.

Det kræver store investeringer at udvikle de mest avancerede modeller for generativ AI, og markedet er præget af store spillere, de såkaldte tech-giganter.

Vi har allerede set en række eksempler, senest Chromebook-sagen, hvor det giver problemer at lægge vores digitale infrastruktur i hænderne på en enkelt virksomhed.

Derfor bør lovgivere og offentlige indkøbere fremtidssikre vores systemer bredere mod monopoldannelse, så den offentlige sektors AI-systemer og data ikke kun bliver kontrolleret af de allerstørste og hurtigste leverandører.

Det er ikke en let opgave, men en væsentlig udfordring at være opmærksom på. Og uanset om det er store, små eller offentlige leverandører, skal hensynet til sikkerhed og dataetik altid stå centralt.

Afsendere af indlægget (alle medlemmer i Dataetisk Råd):
  • Johan Busse
  • Birgitte Arent Eiriksson
  • Anette Høyrup, Eik Møller
  • Eik Møller
  • Birgitte Kofod Olsen
  • Christiane Vejlø
  • Rikke Frank Jørgensen
  • Eva Flyvholm 

Hvor meget kan og skal der spares? 

Der er allerede lavet mange konsulentrapporter om, hvor mange millioner og årsværk det offentlige kan spare på at bruge AI-systemer. Og når kommunerne kæmper med nedskæringer og mangel på medarbejdere, øger det interessen for kunstig intelligens.

Nogle af de forkromede analyser bør nok tages med et gran salt, erfaringer fra blandt andet Skat viser, at det er klogt at få systemerne op og køre, før man regner med at opgaven kan løses med færre medarbejdere.

Men naturligvis er det interessant at spare tid ved for eksempel at skrive referater og standard mails med generativ AI. Men det store spørgsmål er så; åbner det for mere kontakt, rådgivning og behandling til borgerne, eller forsvinder AI-gevinster i sparerunderne så færre mennesker skal gøre det samme?

Det er politiske og ledelsesmæssige beslutninger, men konteksten har betydning for, hvordan systemer med kunstig intelligens bliver brugt og modtaget. At sparekravene fylder hos både kommunalpolitikere og sundhedspersonale fremgik tydeligt af debatterne på årets Folkemøde.

Centralt bør det altid være, at offentlige myndigheder overvejer hvilke opgaver, der egner sig til at bruge AI-systemer og hvilke, der løses bedre af medarbejdere, og hvordan en AI-løsning påvirker borgeren i den konkrete situation.

Det er også et godt afsæt for, at borgere og medarbejdere bliver glade for kunstig intelligens, at det er en udvikling, vi selv beslutter og er trygge ved.

Læs også

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion

Omtalte personer

Birgitte Arent Eiriksson

Direktør, Justitia, advokat, medlem, Dataetisk Råd, Etisk Råd, Borgerretsfonden og SIRI-Kommissionen 4.0
cand.jur. (Københavns Uni. 1996), Master of Public Governance (CBS)

Johan Busse

Formand, Dataetisk Råd, borgerrådgiver, Københavns Kommune
cand.jur. (Københavns Uni. 1999), Master of Public Governance (CBS 2015)

Anette Høyrup

Senior Manager Consultant, Implement Consulting Group, afdelingen Digital Transformation og Cyberinformationssikkerhed, medlem, Dataetisk Råd.
cand.jur. (Københavns Uni. 2000)

Altinget logo
København | Stockholm | Oslo | Bruxelles
Politik har aldrig været vigtigere
AdresseNy Kongensgade 101472 København KTlf. 33 34 35 40[email protected]CVR nr.: 29624453ISSN: 2597-0127
Ansv. chefredaktørJakob NielsenDirektørAnne Marie KindbergCFOAnders JørningKommerciel direktørMichael ThomsenFormand og udgiverRasmus Nielsen
Copyright © Altinget, 2024