Samtidig som kunstig intelligens kommer med utallige fordeler når det gjelder effektivitet og nyskapning i arbeidslivet, må vi også være bevisst på hvilke farer det kan bringe med seg. For eksempel noen regulatoriske risikoer knyttet til diskriminering – en sentral risiko som må adresseres og overvåkes.
Sørg for å handle i tråd med lover og regler
Det er viktig å vurdere hvordan – og i hvilken grad – bruken av AI kan bidra til diskriminering som står i strid med lover som likestillings- og diskrimineringsloven, Grunnloven, Den europeiske menneskerettskonvensjonen og AI Act.
En viktig veileder
Det finnes heldigvis gode råd for hvordan du kan kartlegge og håndtere risikoene. Likestillings- og diskrimineringsombudet (LDO) har en veileder de kaller «innebygd diskrimineringsvern». Denne retter seg mot alle som enten utvikler, anskaffer eller bruker AI, og kan hjelpe deg å sørge for at du handler i tråd med diskrimineringsregelverket. I veilederen finner du også konkrete eksempler på ulike typer diskriminering, som blant annet retter seg mot etnisk opprinnelse, legning, kjønn, funksjonsnedsettelser og alder.
Hovedutfordringene
AI-systemer kan knyttes til både direkte og indirekte diskriminering. Direkte diskriminering handler om forskjellsbehandling på bakgrunn av eksplisitte faktorer som kjønn, etnisitet, funksjonsnedsettelse m.m. Den indirekte diskrimineringen kan være vanskeligere å oppdage. Det kan for eksempel handle om at AI-systemet forutser eller anbefaler en person i en ansettelsesprosess basert på diskriminerende faktorer.
Selv om hensikten kan være å behandle alt og alle på likt grunnlag, baserer kunstig intelligens seg på etablerte mønstre og adopsjon. Derfor kan resultatet allikevel bli diskriminerende. Et eksempel er når AI i en ansettelsesprosess velger ut kandidater basert på tidligere ansatte profiler, fremfor å kun forholde seg til de nye kandidatenes kvalifikasjoner.
Diskriminering og forskjellsbehandling er ikke alltid det samme
Lovverket er teknologinøytralt, som betyr at diskrimineringsforbudet gjelder uavhengig om det er et menneske eller et AI-system som diskriminerer.
Det er viktig å understreke at noen former for forskjellsbehandling kan være både saklig og nødvendig – for eksempel der noe tilpasses fordi mennesker har ulike forutsetninger. Diskriminering, derimot, er verken saklig eller nødvendig.
Ifølge veilederen er det tre spørsmål du bør ta en avsjekk rundt for å vurdere om et AI-system diskriminerer:
- Fører bruken av systemet til at noen stilles dårligere enn andre?
- Gjøres forskjellsbehandling på grunn av forhold som kan knyttes til et diskrimineringsgrunnlag (direkte eller indirekte)?
- Er forskjellsbehandlingen usaklig, unødvendig eller uproporsjonal?
Fem trinn for å håndtere risiko
Veilederen gir råd til hvordan virksomheter kan etablere et innebygget diskrimineringsvern. Den anbefaler fem trinn for å systematisk forebygge og måle diskriminering over tid:
- Planlegging: Definer formål og planlagt bruk av AI-systemet. Konteksten systemet skal operere i er avgjørende for hvilken betydning det kan ha for enkeltpersoner og samfunnet.
- Treningsdata: Datagrunnlaget modellen er trent på må være representativt ut fra modellens formål og historiske skjevheter må kartlegges og korrigeres.
- Modellutvikling: Hva systemet skal brukes til må være i tråd med formålet for utviklingen og bruken av den. Du må kunne bevise saklig formål, nødvendighet og at det tjener formålet for utvikling og bruk i arbeidsprosessene.
- Testing: Sjekk at systemet fungerer like godt for alle grupper og brukere. Selv om personopplysninger fjernes kan systemet finne mønstre i dataene, og gjennom det vektlegge opplysninger som faller inn under diskrimineringsparaplyen.
- Implementering og tilsyn: Finn ut av om skjevheter i systemet kan jevnes ut ved å få på plass kompenserende tiltak. Du må sikre menneskelig kontroll av systemet, og alle som skal bruke eller kan bli berørt av det må kjenne til hvordan det fungerer, hvorfor og til hva. På den måten sørger du for at alle berørte kan ivareta sine rettigheter.
Kommer ikke unna gode styringsmekanismer
Skal du bruke kunstig intelligens på en god og forsvarlig måte, må du ha gode styringsmekanismer på plass. Det innebærer å styre og kontrollere bruken av AI på en helhetlig og systematisk måte. Rettferdig bruk av AI, som verken direkte eller indirekte diskriminerer er en sentral del av god styring. Ansvarlige for «Aktivitets- og redegjørelsesplikten» (ARP) i virksomheten bør være oppdatert på risikoer rundt AI og diskriminering og virksomheten bør ha utviklet tiltak for å motvirke dette.
Virksomheter som har etablerte systemer og prosesser som løpende sikrer kartlegging og kontroll av risiko vil i stor grad unngå et lappeteppe av «ad hoc»-tiltak. Den nye veilederen kan være et hjelpsomt verktøy i arbeidet med å bygge opp god virksomhetsstyring.
Slik sikrer du deg mot å diskriminere
Virksomheten kan sikre seg mot å diskriminere, enten direkte eller indirekte, gjennom å identifisere og kartlegge hvilket potensial som finnes for diskriminering, og fastsette hva som kjennetegner rettferdig behandling for ulike personer og grupper. Loven bestemmer hva virksomheten må forholde seg til, men selskapets verdier vil fortelle deg om det er viktig å strekke seg enda lengre.
Ikke minst bør det utarbeides klare prinsipper for hva AI-modellene ikke skal kunne bidra til, som for eksempel øke kunders betalingsvillighet. Skjevheter i data og resultater fra AI-modellene må overvåkes gjennom hele livssyklusen, og brukerne må ha god nok kompetanse om disse. Slike skjevheter kan også komme av manglende data fra ansatte eller interessenter, og det må brukerne være klar over.
Relevante tjenester
Gransking, compliance og økonomisk kriminalitet
Få relevant innsikt i nyheter, trender og beste praksis innen gransking, compliance og bekjempelse av økonomisk kriminalitet.