Hva er AI Act? En kort guide til EUs nye regler for bruk av kunstig intelligens på arbeidsplassen

<span id="hs_cos_wrapper_name" class="hs_cos_wrapper hs_cos_wrapper_meta_field hs_cos_wrapper_type_text" style="" data-hs-cos-general-type="meta_field" data-hs-cos-type="text" >Hva er AI Act? En kort guide til EUs nye regler for bruk av kunstig intelligens på arbeidsplassen</span>

Kunstig intelligens som skanner CV-er, analyserer ansattes prestasjoner og foreslår hvem som bør forfremmes. Smidig? Ja, det er det. Risikofritt? Ikke helt. Med AI-loven følger det klare regler for hvordan teknologien kan brukes. Her er en oversikt over hva loven betyr for HR-medarbeidere - og fem konkrete tips for ansvarlig bruk av AI.

Hva er AI Act, og hvem berøres?

AI Act er EUs første omfattende regelverk for kunstig intelligens. Den har som mål å skape et felles rammeverk og retningslinjer for utvikling og bruk av kunstig intelligens, med særlig fokus på systemer som kan påvirke menneskers rettigheter og muligheter.

AI Act omfatter alle aktører som utvikler, selger, leverer eller bruker AI-systemer i EU, dvs. ikke bare teknologileverandører, men også arbeidsgivere som bruker AI i sin virksomhet, for eksempel innen HR, rekruttering eller personaladministrasjon.

Når gjelder AI Act?

AI Act trådte i kraft 1. august 2024 og vil bli anvendt trinnvis. Noen deler, som forbudet mot visse former for AI-bruk, begynte å gjelde allerede i februar 2025. I august 2026 begynner de fleste reglene å gjelde, mens noen krav til spesifikke høyrisikosystemer ikke vil gjelde før i august 2027.

Samtidig pågår det i Norge et arbeid med å avklare hvordan AI-forordningen skal følges opp i praksis nasjonalt. Dette omfatter blant annet spørsmål om hvilke myndigheter som skal ha ansvar for tilsyn og etterlevelse, samt hvordan eventuelle sanksjoner og andre supplerende bestemmelser skal håndteres. 

Hvorfor er AI Act spesielt relevant for HR?

AI Act kan virke som en stor og ganske teknisk lovtekst. Men i bunn og grunn er den basert på et enkelt prinsipp: Jo større innvirkning et AI-system kan ha på mennesker, desto strengere krav stilles det.

Det er derfor AI Act kategoriserer AI-systemer i ulike risikonivåer. Kort sagt skiller regelverket mellom forbudt bruk av AI, AI med høy risiko og AI med begrenset eller minimal risiko.

Så hvordan vet du om dette gjelder HR? En god tommelfingerregel er at hvis AI brukes til å påvirke beslutninger om mennesker, er det ofte høyrisiko. KI kan for eksempel brukes i rekruttering og utvelgelse, vurdering av ansattes prestasjoner eller forfremmelsesbeslutninger. I disse tilfellene krever loven blant annet åpenhet, dokumentasjon og at mennesker alltid har det siste ordet.

Kort sagt, hvis du bruker AI til å påvirke hvem som får jobben, blir forfremmet eller får nye muligheter, er AI Act høyst relevant.

Hva betyr kravene i AI Act mer konkret?

For arbeidsgivere og HR-avdelingen gir AI Act klare regler for hvordan AI kan brukes, men hva betyr den egentlig mer konkret? Her er noen viktige prinsipper:

  • AI-systemer må ikke være basert på forutinntatte, irrelevante eller diskriminerende faktorer.

  • Det må være tydelig når et AI-system brukes, og hvilken rolle det spiller i en bestemt prosess.

  • Avgjørelser som påvirker enkeltpersoner, må ikke tas automatisk - det må alltid være mulighet for overprøving og anke.

  • De som jobber med KI-støttede prosesser, må ha tilstrekkelig kunnskap om hvordan systemene fungerer og hvilke forpliktelser de har.

Les mer om hvordan vi bruker AI i Flex HRM

Sjekkliste: fem trinn til ansvarlig bruk av AI på jobben

1. Finn ut hvor AI brukes i dag
Kan du og kollegene dine ærlig si hvor mange AI-applikasjoner dere bruker i dag? Hvis ikke, er dere langt fra alene.

Det første trinnet er å få et overordnet bilde av hvilke AI-baserte verktøy som brukes i organisasjonen. Det kan være rekrutteringssystemer, analyseverktøy, beslutningsstøtte eller interne plattformer som påvirker hvordan arbeidet fordeles, overvåkes eller prioriteres. Med denne oversikten blir det lettere å avgjøre om systemene faller inn under høyrisikokategorien.

2. Mennesket i loopen - sørg for at AI aldri tar beslutninger om mennesker på egen hånd
Kunstig intelligens skal fungere som en støtte, ikke som en beslutningstaker alene. Dette gjelder i alle sammenhenger der kunstig intelligens påvirker enkeltmenneskers muligheter, arbeidsforhold eller utvikling.

Bygg derfor inn et tydelig sjekkpunkt i prosessen. Beslutninger basert på kunstig intelligens bør alltid gjennomgås og godkjennes av en ansvarlig person før de iverksettes.

3. Vær oppmerksom på skjevheter og feilaktige konklusjoner
AI er basert på data - og data kan inneholde historiske mønstre eller skjevheter. Derfor er det en risiko for at AI-støtte i for eksempel rekruttering kan gjenskape ulikheter. Den kan sile ut kandidater som tilfeldigvis har et hull i CV-en sin. Eller den kan rangere menn høyest basert på lederpotensial, bare fordi det historisk sett har vært flere menn i lederstillinger - for å nevne noen eksempler.

Derfor må utfallet av AI-avgjørelser granskes med jevne mellomrom. Å kombinere teknisk støtte med menneskelig dømmekraft er nøkkelen til å bruke AI på en ansvarlig måte.

4. Sørg for at ledere og nøkkelroller har riktig kunnskap
Hvor godt vet egentlig lederne dine hvordan AI-støtten i systemene dine fungerer? Og vet de når det er på tide å stille spørsmål ved et automatisert forslag?

AI-ekspertise er ikke lenger forbeholdt IT-avdelingen. Når AI begynner å påvirke beslutninger om mennesker (for eksempel lønn, utvelgelse eller tilbakemeldinger), må ledere og andre nøkkelpersoner forstå både muligheter og begrensninger. Hva baserer systemet anbefalingene sine på? Når kan det gå galt? Og hvem har ansvaret når det gjør det?

HR har en viktig rolle å spille her. Ved å støtte dem med riktig kunnskap, diskusjonsmateriell og praktiske eksempler skaper vi de beste forutsetningene for å bruke teknologien på en gjennomtenkt måte.

5. Utvikle en AI-policy
En AI-policy er ikke alltid et formelt krav, men det er en klok investering for organisasjoner som ønsker å bruke AI på en trygg måte, skape et felles rammeverk og redusere risikoen for misbruk. Retningslinjene kan for eksempel dekke spørsmål som

  • Hvilke bruksområder er tillatt og hvilke er ikke tillatt?

  • Hvilke prinsipper skal alltid gjelde (for eksempel åpenhet og menneskelig kontroll)?

  • Hvilke data kan deles i KI-verktøy, og hva er forbudt?

  • Hvem er ansvarlig for hva?

Hvordan vi jobber med ansvarlig AI i Flex

Hvordan jobber vi i Flex med AI Act i praksis, og hvordan sikrer vi at du som bruker kan føle deg trygg ved å bruke AI-løsningene våre i Flex HRM? Vi har tatt en prat med Emanuel Niska, leder for utviklingsteamet her i Flex.
emanuelN

- Det hele koker ned til å skape åpenhet og tydelighet i hvordan AI brukes i våre løsninger overfor våre brukere, noe som i utgangspunktet er prinsipper vi har hatt med oss helt fra starten. Men med AI Act kan du si at vi har fått et enda tydeligere rammeverk for hvordan vi skal strukturere og dokumentere dette, sier han.

Et viktig utgangspunkt er lovens inndeling i ulike risikonivåer:

- Vi jobber kontinuerlig med å gjøre interne vurderinger og risikoklassifiseringer knyttet til AI Act. Vi ser blant annet på hvilken innvirkning en funksjon kan ha, hvordan den brukes i praksis i løsningene våre og hvilke sikkerhetstiltak som er på plass. På denne måten kan vi tilpasse arbeidsmetodene og kontrollene våre ut fra risikonivået.

Etter hvert som AI utvikler seg og nye typer mer autonome funksjoner, som for eksempel AI-agenter, dukker opp, blir det også viktigere å avklare hvor ansvaret ligger, understreker han.

- "I våre grensesnitt er det alltid tydelig når en funksjon er basert på AI, hvilken rolle den spiller i prosessen, og at det er et forslag eller en respons som krever menneskelig vurdering. Dette prinsippet - mennesket i loopen - er det samme enten det dreier seg om en enkel assistent eller en mer avansert agent: Det skal alltid være et menneske som har siste ordet før noe skjer i systemet.

Til slutt understreker Emanuel at beskyttelse av personopplysninger er en viktig del av ansvarlig AI.
- "Sikker håndtering av data er en naturlig del av hvordan vi jobber med AI. Derfor tar vi hensyn til GDPR når vi utformer AI-løsningene våre, og sørger for at all databehandling skjer innenfor EU/EØS.

For deg som vil vite mer

Vil du vite mer om hvordan vi jobber med AI og hvilke prinsipper som gjelder for våre AI-funksjoner? Du kan lese retningslinjene våre her.

Har du spørsmål eller bekymringer? Du er alltid velkommen til å kontakte oss!

Relaterte innlegg