Del 2 av 4 i Ledarskap i krisernas tid

AI Act kräver inte AI-kompetens. Det kräver mod.

AI Act kräver inte AI-kompetens. Det kräver mod.

Sedan den 2 februari 2025 kräver EU:s AI-förordning att alla som använder AI i en organisation har tillräcklig kompetens att göra det ansvarsfullt. Artikel 4 — “AI literacy” — har alltså gällt i över ett år. Inte bara för utvecklare. För alla. Inklusive ledningsgruppen.

Sanktionerna? Upp till 35 miljoner euro eller sju procent av global omsättning. Det är inte symbolpolitik.

Men jag tror att vi fokuserar på fel sak. Problemet är inte att ledningsgrupper saknar AI-kompetens. Problemet är att de fattar beslut om AI utan att förstå vad de beslutar om — och att ingen runt bordet vågar säga det.

Mötet jag har sett för många gånger

Jag har sett varianter av det mötet många gånger. Någon presenterar en AI-lösning. Ord som “effektivisering”, “automatisering” och “konkurrenskraft” flyger genom rummet. Alla nickar. Ingen frågar: vilken data tränas modellen på? Vem ansvarar om den ger fel svar? Vilka beslut låter vi den fatta — och vilka borde vi inte?

Det är inte för att frågorna är dumma. Det är för att ingen vill vara den som avslöjar att de inte förstår.

Ödmjukhet som ledarskapskompetens

Här rör vi vid något djupare. AI-förordningen kräver tekniskt sett “AI literacy” — tillräcklig kunskap om AI:s möjligheter, begränsningar och risker. Men vad det egentligen kräver är en ledningskultur där det är tillåtet att inte veta.

Det är en paradox. Ledarrollen har traditionellt handlat om att ha svar, fatta beslut, visa riktning. Men AI är ett område där utvecklingen går snabbare än någon enskild person kan hänga med. Ingen i din ledningsgrupp förstår fullt ut vad den senaste modellen kan och inte kan. Och det är okej — om ni vågar erkänna det.

Forskning om ledarskap visar att de mest effektiva ledarna i komplexa, osäkra situationer inte är de som har flest svar. Det är de som skapar utrymme för frågor. Som bjuder in expertis istället för att bluffa. Som ställer “bör vi?” lika ofta som “kan vi?”.

Tre sorters ledningsgrupper

Jag har sett tre mönster i hur ledningsgrupper hanterar AI-frågan.

Den första typen delegerar. “Det där sköter IT.” De uppfyller inte lagen och de vet det knappt. De kommer att bli överraskade.

Den andra typen köper in. De anlitar konsulter, går kurser, implementerar verktyg. De bockar av compliance-kraven. Men de ställer sällan de etiska frågorna: borde vi använda AI i den här processen? Vilka konsekvenser får det för våra medarbetare? Vilka fördomar riskerar vi att bygga in?

Den tredje typen — och den är sällsynt — tar sig tid att inte veta. De skapar forum för diskussion. De bjuder in perspektiv inifrån organisationen, inte bara uppifrån. De diskuterar risker och möjligheter parallellt. De ser AI som en kulturfråga, inte bara en teknikfråga.

Det är den tredje typen som kommer att klara sig bäst. Inte för att de har mest kompetens, utan för att de har mod att erkänna vad de inte vet — och nyfikenhet att ta reda på det tillsammans.

Det handlar om mer än AI

Precis som jag skrev i förra delen om NIS2, avslöjar den nya regleringen en djupare brist. Vi har byggt ledningskulturer där det förväntas att man har koll. Där osäkerhet tolkas som svaghet. Där “jag vet inte” uppfattas som inkompetens.

Men världen vi leder i nu — med AI, cyberhot, klimatomställning, generationsväxlingar — kräver motsatsen. Den kräver ledare som kan stå i osäkerheten. Som kan fatta beslut utan fullständig information. Som bygger team där kollektiv intelligens ersätter individuell kontroll.

AI-förordningen är bara det senaste exemplet. Men det är ett bra ställe att börja.

En fråga att ta med dig

Nästa gång AI kommer upp i din ledningsgrupp — lägg märke till dynamiken. Är det någon som ställer frågor som avslöjar osäkerhet? Eller nickar alla och går vidare?

Det svåraste med AI-förordningen är inte att förstå tekniken. Det är att skapa en kultur där det är okej att inte förstå den — ännu.

Det här är del 2 i serien “Ledarskap i krisernas tid”. I del 1 skrev jag om varför NIS2 egentligen är en tillitsfråga. Nästa del handlar om psykisk ohälsa — och varför 9,9 miljarder i sjukskrivningskostnader börjar med ledarskapet. Vill du prata om hur din ledningsgrupp hanterar de här frågorna? Hör av dig.