Debat

Digitalt Ansvar: Lovgivningen skal stille krav til tech-virksomheder om moderation på sociale medier

Moderation på sociale medier strider grundlæggende imod platformenes forretningsmodel. Derfor er det ikke underligt, at de ikke i tilstrækkelig grad fjerner voldvideoer, overgrebsindhold og desinformation, skriver Ask Hesby Holm. 

Hvis vi skal gøre os forhåbninger om, at sociale medier i fremtiden bliver et tryggere sted, er der behov for, at sociale medier bruger en større del af deres milliardomsætning på moderation, skriver&nbsp;Ask Hesby Holm.<br>
Hvis vi skal gøre os forhåbninger om, at sociale medier i fremtiden bliver et tryggere sted, er der behov for, at sociale medier bruger en større del af deres milliardomsætning på moderation, skriver Ask Hesby Holm.
Foto: Anthon Unger/Ritzau Scanpix
Ask Hesby Holm
Dette indlæg er alene udtryk for skribentens egen holdning. Alle indlæg hos Altinget skal overholde de presseetiske regler.

Sociale medier er lykkes med at skabe en fortælling om, at det er en umulig opgave at fjerne mere ulovligt indhold på deres platforme, uanset hvor mange penge de bruger på moderation.

Samtidig beretter platformene om, at de fjerner massive mængder indhold hver dag og hele tiden forbedrer sig.

Som brugere har vi ikke før haft adgang til platformenes såkaldte black box og har derfor ikke, udover fornemmelser og beretninger fra brugere, kunne afvise, om der var reel handling bag ordene.

Det ved vi nu. At der ikke er.

Lavt størrelsesforhold mellem moderatorer og brugere

Kulturministeriets Center for Sociale Medier, Tech & Demokrati har nemlig for nyligt opgjort antallet af dansktalende indholdsmoderatorer i en ny undersøgelse.

Tallene stammer fra de sociale platformes gennemsigtighedsrapporter fra 2024, der følger af krav i EUs forordning om digitale tjenester.

Læs også

Derfor ved vi nu præcist, hvor mange moderatorer tech-virksomheder såsom Meta, TikTok og Snapchat har ansat i Danmark og på europæisk plan til at fjerne ulovligt indhold såsom deling af intime billeder uden samtykke, overgrebsvideoer og desinformation.

Ikke overraskende, er størrelsesforholdet mellem moderatorer og brugere latterligt lavt.

Meta har således kun ansat seks dansktalende moderatorer til at moderere indhold fra Instagram og Facebooks tilsammen over otte millioner månedlige aktive brugere i Danmark.

LinkedIn og X har ingen dansktalende moderatorer. Til sammenligning fremstår TikTok, med sine 27 dansktalende moderatorer til 1.400.000 månedlige aktive, danske brugere, som den pæne dreng i klassen.

Sprogforståelse er vigtig for at kunne moderere blandt andet hadefuld og manipuleret tekst.

Ask Hesby Holm
Direktør, Digitalt Ansvar

Men TikTok har selvfølgelig også store udfordringer med ulovligt og skadeligt indhold.

Vi har blandt andet tidligere dokumenteret, at sårbare unge brugere hurtigt kan ende med kun at blive præsenteret for selvmords- og selvskadeindhold.

Sprogforståelse er essentiel

Sprogforståelse er vigtig for at kunne moderere blandt andet hadefuld og manipuleret tekst, mens voldelige videoer godt kan afkodes af ikke-dansktalende moderatorer og billedgenkendelsesværktøjer.

Men der er heller ikke en hær af udenlandske moderatorer. På europæisk plan har Meta nemlig kun 1.278 moderatorer i alt til at moderere indhold fra Instagram og Facebooks tilsammen 525 millioner månedlige aktive brugere.

Det kan derfor næppe komme bag på nogen, at det flyder med ulovligt og skadeligt indhold på sociale medier.

Konsekvenser er der til gengæld nok af.

Læs også

Det er for eksempel i mange tilfælde svært for ofre for deling af intime billeder eller manipulerede nøgenbilleder uden samtykke at få fjernet deres billeder helt fra sociale medier, børn og unge eksponeres for skadeligt indhold med afledte psykiske konsekvenser, og kriminelle svindelnetværk får nærmest lov til at operere frit på platformene. Bare for at nævne et par.

Moderation giver ikke penge i kassen

Moderation er ikke en dårlig forretning alene, fordi det koster at have moderatorer ansat. En højere grad af moderation harmonerer nemlig grundlæggende ikke med sociale mediers forretningsmodel.

For sociale medier tjener deres penge på, at vi fastholdes på deres platforme. Og vi ved, at netop voldsomt, forargende og misvisende indhold engagerer og fastholder.

EU skal derfor stille konkrete krav om en minimumsgrænse på moderatorer baseret på antal brugere.

Ask Hesby Holm
Direktør, Digitalt Ansvar

Samtidig ligger sociale medier i intens konkurrence med hinanden. Flere moderatorer, der fjerner mere indhold kan betyde, at sociale medier mister brugere, fastholdelseskraft og dermed penge.

Det taler for lovgivning, der skaber ensartede konkurrencevilkår med specifikke krav til, hvor hurtigt ulovligt indhold for eksempel skal fjernes fra platformene og krav til antallet af moderatorer i de lande, platformene opererer i.

Som lovgivningen er nu, skal sociale medier, som EU’s forordning for digitale tjenester formulerer det, “straks tage skridt” til at fjerne det ulovlige indhold eller hindre adgangen til det, når de bliver opmærksomme på det.

Udover at det er uklart præcist, hvor hurtigt de sociale platforme skal agere, er der heller ikke krav til antallet af moderatorer.

EU skal derfor stille konkrete krav om en minimumsgrænse på moderatorer baseret på antal brugere i hvert enkelt land.

For hvis vi skal gøre os forhåbninger om, at sociale medier i fremtiden bliver et tryggere sted, er der behov for, at sociale medier bruger en større del af deres milliardomsætning på moderation.

Læs også

Politik har aldrig været vigtigere

Få GRATIS nyheder fra Danmarks største politiske redaktion

Omtalte personer

Ask Hesby Holm

Direktør, Digitalt Ansvar
cand.soc, CBS

0:000:00

Altinget logo
København | Stockholm | Oslo | Bruxelles
Politik har aldrig været vigtigere
AdresseNy Kongensgade 101472 København KTlf. 33 34 35 40[email protected]CVR nr.: 29624453ISSN: 2597-0127
Ansv. chefredaktørJakob NielsenDirektørAnne Marie KindbergCFOAnders JørningKommerciel direktørMichael ThomsenFormand og udgiverRasmus Nielsen
Copyright © Altinget, 2024