AI som skannar CV:n, analyserar hur medarbetarna presterar och föreslår vem som ska befordras. Smidigt? Ja. Riskfritt? Inte riktigt. Med AI Act kommer tydliga spelregler för hur tekniken får användas. Här får du koll på vad lagen innebär för dig som jobbar med HR – plus fem konkreta tips för en ansvarsfull AI-användning.
Vad är AI Act och vilka berörs?
AI Act är EU:s första heltäckande regelverk för artificiell intelligens. Syftet är att skapa gemensamma ramar och riktlinjer för hur AI får utvecklas och användas, med särskilt fokus på system som kan påverka människors rättigheter och möjligheter.
AI Act omfattar alla aktörer som utvecklar, säljer, tillhandahåller eller använder AI-system inom EU. Med andra ord är det inte bara teknikleverantörer som berörs, utan också arbetsgivare som använder AI i sin verksamhet, till exempel inom HR, rekrytering eller personaladministration.
När börjar AI Act gälla?
AI Act trädde i kraft den 1 augusti 2024 och börjar tillämpas stegvis. Vissa delar, som förbud mot vissa AI-användningar, började gälla redan i februari 2025. I augusti 2026 börjar merparten av reglerna att gälla, medan vissa krav för särskilda högrisksystem börjar gälla först i augusti 2027.
Här i Sverige pågår samtidigt arbetet med att ta fram kompletterande nationella regler för hur AI Act ska genomföras i praktiken. I det svenska lagförslaget handlar det bland annat om vilka myndigheter som ska ansvara för tillsyn och efterlevnad, samt hur sanktioner och andra kompletterande bestämmelser ska hanteras.
Läs mer: 6 starka skäl att använda AI i lönehanteringen.
Varför är AI Act extra relevant för HR?
AI Act kan kännas som ett stort och ganska tekniskt regelverk. Men i grunden bygger det på en enkel princip: ju större påverkan ett AI-system kan ha på människor, desto striktare är kraven som ställs.
Därför delar AI Act in AI-system i olika risknivåer. Kort förklarat skiljer regelverket mellan förbjuden AI-användning, högrisk-AI samt AI med begränsad eller minimal risk.
Så hur vet du om det här gäller HR? En bra tumregel är: om AI används för att påverka beslut om människor är det ofta högrisk. Exempelvis kan det handla om AI i rekrytering och urval, bedömning av medarbetarnas prestationer eller beslut om befordran. I de här fallen kräver lagen bland annat transparens, dokumentation och att människor alltid har sista ordet.
Kort sagt: använder ni AI som påverkar vem som får jobbet, utvecklas eller får nya möjligheter, då är AI Act högst relevant.
Vad innebär kraven i AI Act mer konkret?
För arbetsgivare och HR innebär AI Act alltså tydliga spelregler för hur AI får användas, men vad innebär det egentligen mer konkret? Här är några huvudprinciper:
- AI-system får inte bygga på snedvridna, irrelevanta eller diskriminerande faktorer.
- Det ska framgå när ett AI-system används och vilken roll det spelar i en viss process.
- Beslut som rör individer får inte fattas helt automatiskt – det ska alltid finnas möjlighet till granskning och överprövning.
- Personer som arbetar med AI-stödda processer ska ha tillräcklig kunskap om hur systemen fungerar och vilka skyldigheter som gäller.
Läs mer om hur vi använder AI i Flex HRM
Checklista: fem steg mot en ansvarsfull AI-användning på jobbet
1. Få koll på var AI används idag
Kan du och dina kollegor på rak arm säga hur många AI-applikationer ni använder idag? Om inte, är ni långt ifrån ensamma.
Det första steget är att få en samlad bild av vilka AI-baserade verktyg som används i organisationen. Det kan handla om rekryteringssystem, analysverktyg, beslutsstöd eller interna plattformar som påverkar hur arbete fördelas, följs upp eller prioriteras. Med den här översikten blir det lättare att avgöra om systemen faller inom högrisk-kategorin.
2. Human in the loop – se till att AI aldrig fattar beslut om människor på egen hand
AI ska fungera som ett stöd, inte som en ensam beslutsfattare. Det gäller i alla sammanhang där AI påverkar individers möjligheter, arbetsvillkor eller utveckling.
Lägg därför in en tydlig kontrollpunkt i processen. Beslut som grundas på AI ska alltid kunna granskas och godkännas av en person med ansvar innan de verkställs.
3. Var uppmärksam på snedvridning och felaktiga slutsatser
AI bygger på data – och data kan bära på historiska mönster eller skevheter. Därför finns risken att AI-stöd inom exempelvis rekrytering återskapar ojämlikhet. Kanske sållar det bort kandidater som råkar ha en lucka i CV:t. Eller så rankar det män högst utifrån ledarpotential, bara för att det historiskt varit fler män på chefsposterna – för att nämna några exempel.
Därför behöver utfallet av AI-beslut granskas regelbundet. Att kombinera tekniskt stöd med mänskligt omdöme är A och O för att använda AI på ett ansvarsfullt sätt.
4. Säkra rätt kunskap hos chefer och nyckelroller
Hur bra koll har era chefer egentligen på hur AI-stödet i systemen fungerar? Och vet de när det är dags att ifrågasätta ett automatiskt förslag?
AI-kompetens är inte längre något som bara rör IT-avdelningen. När AI börjar påverka beslut om människor (som lön, urval eller feedback) behöver chefer och andra nyckelpersoner förstå både möjligheter och begränsningar. Vad bygger systemet sina rekommendationer på? När kan det bli fel? Och vem har ansvar när det sker?
Här har HR en viktig roll att spela. Genom att stötta med rätt kunskap, diskussionsunderlag och praktiska exempel skapas de bästa förutsättningarna för att använda tekniken på ett genomtänkt sätt.
5. Ta fram en AI-policy
En AI-policy är inte alltid ett formellt måste, men det är en klok investering för verksamheter som vill använda AI på ett tryggt sätt, skapa gemensamma ramar och minska risken för felanvändning. Policyn kan till exempel omfatta frågor som:
- Vilka användningsområden är tillåtna och vilka är det inte?
- Vilka principer ska alltid gälla (till exempel transparens och mänsklig kontroll)?
- Vilken data får delas i AI-verktyg, och vad är förbjudet?
- Vem ansvarar för vad?
Så jobbar vi med ansvarsfull AI på Flex
Hur arbetar vi på Flex med AI Act i praktiken och hur ser vi till att du som användare kan känna dig trygg i att använda våra AI-lösningar i Flex HRM? Vi tog en pratstund med Emanuel Niska, Development Team Leader här på Flex.
– Vad det hela kokar ner till är att skapa transparens och tydlighet i hur AI används i våra lösningar gentemot våra användare, vilket i grunden är principer vi har haft med oss redan från start. Men med AI Act kan man säga att vi har fått ett ännu tydligare ramverk för hur vi ska strukturera och dokumentera det här, säger han.
En viktig utgångspunkt är lagens indelning i olika risknivåer:
– Vi jobbar löpande med att göra interna bedömningar och riskklassificeringar kopplade till AI Act. Där tittar vi bland annat på vilken påverkan en funktion kan ha, hur den används rent konkret i våra lösningar och vilka skyddsmekanismer som finns på plats. Det gör att vi kan anpassa våra arbetssätt och kontroller utifrån risknivå.
I takt med att AI utvecklas och nya typer av mer självgående funktioner, som AI-agenter, växer fram, blir det också viktigare att tydliggöra var ansvaret ligger, betonar han.
– I våra gränssnitt är det alltid tydligt när en funktion bygger på AI, vilken roll den spelar i processen och att det handlar om ett förslag eller svar som kräver mänsklig bedömning. Den här principen – human in the loop - är densamma oavsett om det är en enklare assistent eller mer avancerad agent: det ska alltid vara en människa som har sista ordet innan något händer i systemet.
Avslutningsvis lyfter Emanuel fram skyddet av personuppgifter som en viktig del av ansvarsfull AI.
– Trygg hantering av data är en självklar del av hur vi arbetar med AI. Därför utgår vi från GDPR när vi utformar våra AI-lösningar och säkerställer att all databehandling sker inom EU/EES.
För dig som vill veta mer
Vill du veta mer om hur vi arbetar med AI och vilka principer som gäller för våra AI-funktioner? Här kan du ta del av vår policy.
Frågor eller funderingar? Du är alltid varmt välkommen att kontakta oss!