EU:s AI-förordning börjar gälla. Har ni ett ledningssystem för AI?
Använder ni AI i era produkter eller tjänster? Då behöver ni dokumenterad riskhantering, mänsklig tillsyn och transparens. AmpliFlow ger er strukturen - med ISO 42001 som ramverk.
Fyra risknivåer - olika krav
EU AI Act klassificerar AI-system efter potentiell skada. Ju högre risk, desto hårdare krav. De flesta företag som använder AI i verksamhetskritiska processer hamnar i kategorin "hög risk".
Social poängsättning, realtidsbiometri på allmän plats, manipulativ AI. Dessa system får inte användas.
Biometri, kritisk infrastruktur, utbildning, anställning, rättsväsende. Kräver ledningssystem, riskbedömning och mänsklig tillsyn.
Chatbottar och AI som interagerar med människor. Användaren ska veta att de pratar med AI.
Spamfilter, AI i spel och liknande. Inga särskilda krav, frivilliga uppförandekoder.
AI-ledningsstandarden som ger er försprång
ISO/IEC 42001 är den internationella standarden för AI-ledningssystem (AIMS). Den ger er ramverket för att styra AI-utveckling och -användning ansvarsfullt - och visar att ni tar EU AI Act på allvar.
AmpliFlow stödjer ISO 42001 med samma beprövade ledningssystemstruktur som för ISO 27001 och ISO 9001. Joakim på AmpliFlow deltog i ISO-arbetsgruppen som tog fram standarden.
Riskhanteringssystem
Identifiera och bedöm risker genom hela AI-systemets livscykel. Dokumentera åtgärder och restrisker.
Datastyrning
Säkerställ att träningsdata är relevant, representativ och fri från bias. Dokumentera dataursprung.
Transparens och information
Ge användare tydlig information om AI-systemets kapacitet, begränsningar och avsedda användning.
Mänsklig tillsyn
Designa system så att människor kan övervaka och vid behov ingripa. Dokumentera tillsynsprocesser.
Stegvis ikraftträdande
Förordningen rullas ut i etapper. Högrisk-kraven i bilaga III - de som berör flest företag - gäller från augusti 2026.
Förbud mot AI-system med oacceptabel risk
Regler för AI-modeller för allmänna ändamål (GPAI)
Krav på högrisk-AI i bilaga III träder i kraft
Krav på högrisk-AI enligt artikel 6(1) - bilaga I (produktsäkerhetslagstiftning)
Så bygger ni ert AI-ledningssystem
Befintliga ledningssystemverktyg - samma struktur som ni redan känner från ISO 27001 och ISO 9001.
Riskbedömning
Klassificera AI-system enligt förordningens risknivåer. Dokumentera riskanalyser med beprövad metodik och koppla dem till åtgärder.
Sidor (wiki)
Samla AI-policyer, teknisk dokumentation och användarinstruktioner i AmpliFlows wiki-funktion. Tillgängligt för alla som behöver informationen.
Processledning
Kartlägg AI-utvecklingslivscykeln och AI-påverkade processer. Koppla AI-verktyg till era processsteg för full överblick.
Revisionshantering
Planera och genomför bedömningar av överensstämmelse. Dokumentera revisionsresultat och följ upp avvikelser systematiskt.
Mål och uppföljning
Sätt mål för AI-prestanda och följ upp resultat. Övervaka att AI-system fungerar som avsett över tid.
Lagkravsregister
Lägg till EU AI Act i ert manuella lagkravsregister. Sätt måldatum och koppla krav till processer och kontroller.
Vad ni kan förvänta er
Konkreta fördelar med strukturerad AI-styrning.
AI-styrning
Samlad överblick över era AI-system, risker och åtgärder i ett ledningssystem.
riskbedömningar
Systematisk riskklassificering enligt EU AI Acts risknivåer med spårbar dokumentation.
AI-livscykel
Dokumenterad utveckling, driftsättning och övervakning genom hela livscykeln.
efterlevnad
Tidsplanerade åtgärder för att uppfylla kraven innan varje delmål träder i kraft.
Frågor om EU AI Act
Vad är EU AI Act?
EU AI Act (förordning (EU) 2024/1689) är världens första heltäckande lagstiftning för artificiell intelligens. Den trädde i kraft den 1 augusti 2024 och gäller alla organisationer som utvecklar, tillhandahåller eller använder AI-system inom EU. Förordningen använder en riskbaserad ansats där kraven beror på AI-systemets risknivå.
Vad räknas som högrisk-AI-system?
Högrisk-AI-system definieras i bilaga III till förordningen och omfattar bland annat biometrisk identifiering, AI i kritisk infrastruktur, AI som påverkar utbildning och anställning, AI inom rättsväsende och migration, samt AI som används av brottsbekämpande myndigheter. Dessa system måste uppfylla strikta krav på riskhantering, datastyrning, dokumentation, transparens, mänsklig tillsyn och cybersäkerhet.
Vilka är sanktionerna vid överträdelse?
Sanktionerna är betydande: upp till 35 miljoner euro eller 7 % av global årsomsättning för förbjudna AI-metoder, upp till 15 miljoner euro eller 3 % för andra överträdelser, och upp till 7,5 miljoner euro eller 1 % för felaktig information till myndigheter. Det högre beloppet gäller.
Hur hjälper ISO 42001 med EU AI Act-efterlevnad?
ISO/IEC 42001 ger ett ramverk för att bygga ett AI-ledningssystem (AIMS) som stödjer efterlevnad av EU AI Act. Standarden täcker riskbedömning, styrning, dokumentation och kontinuerlig förbättring - precis det som krävs för att visa att ni hanterar AI ansvarsfullt.
Gäller EU AI Act företag utanför EU?
Ja. EU AI Act gäller alla organisationer som tillhandahåller eller använder AI-system vars output används inom EU, oavsett var organisationen har sitt säte. Om ert AI-system påverkar personer inom EU omfattas ni av förordningen.
Hur stödjer AmpliFlow arbetet med EU AI Act?
AmpliFlow har inbyggda ISO 42001-kontroller med AI-stöd för att generera innehåll per kontroll, automatisk SoA och uppgiftshantering per kontroll. Utöver kontrollregistret: riskanalys för att klassificera AI-system, sidor (wiki) för policyer och teknisk dokumentation, processhantering för att kartlägga AI-påverkade processer, lagkravsregister för att spåra EU AI Act, och åtgärdshantering för att följa upp anpassningar.
Redo att förbereda er för EU AI Act?
Boka en demo så visar vi hur AmpliFlow kan hjälpa er strukturera AI-styrning och bygga ert ledningssystem med ISO 42001 som grund.