AI föreslår. Ni beslutar.
AI i AmpliFlow använder er data för att ge er resultat som faktiskt är relevanta - inte generiska förslag som vem som helst kan få från ChatGPT. Här förklarar vi hur det fungerar och vilka skyddsmekanismer som finns.
Senast uppdaterad: 2026-02-14
Er data gör AI användbart
AI i AmpliFlow använder er data för att ge förslag som är grundade i er verklighet - era risker, era processer, er organisation.
Vi ger inte AI fri tillgång till allt. Varje AI-funktion skickar riktad, relevant kontext för den specifika uppgiften. När ni aktiverar AI-funktioner väljer ni att skicka data till AI-leverantörer. Det är alltid opt-in, per funktion.
Våra AI-principer
Principer som styr hur vi bygger och använder AI i AmpliFlow - i linje med EU:s AI-förordning.
Människan bestämmer
AI skapar utkast, ni granskar och publicerar. AI kan skapa och ändra poster i ert system, men dessa markeras som AI-genererade. Inget AI-innehåll är avsett att gälla som godkänt förrän en människa har granskat det.
Transparent
Ni initierar AI-förslag själva och väljer aktivt att spara dem. Vi designar våra system för att markera AI-genererat innehåll, men eftersom stora språkmodeller är probabilistiska kan vi inte garantera att markeringen fungerar i 100% av fallen. Vi övervakar och förbättrar kontinuerligt.¹
Opt-in och riktad kontext
AI-funktioner är opt-in. När ni aktiverar en AI-funktion skickar AmpliFlow relevant data från ert konto till AI-leverantören för att ge kontextuella resultat.
Bättre AI genom er branschdata
Vi tränar idag inga egna modeller på kunddata. I framtiden planerar vi att träna egna modeller på avidentifierad data för att ge er ännu bättre, branschanpassade AI-förslag. Avidentifierad innebär att data inte kan kopplas tillbaka till enskilda organisationer.
Säker
Data skickas krypterat till AI-leverantörer. AmpliFlow skickar bara den data som är relevant för den specifika uppgiften - inte hela er databas.
AI-funktioner i AmpliFlow
Varje AI-funktion är designad med mänsklig översyn som krav. Så här fungerar det:
Operativ riskanalys
AI assisterar genom tre fält i riskbedömningen, där varje steg bygger på det föregående. Först föreslår den ett riskscenario baserat på er bransch, organisation och era befintliga risker. Sedan föreslår den potentiella konsekvenser utifrån scenariot. Slutligen föreslår den riskreducerande åtgärder utifrån scenario, konsekvenser och era befintliga åtgärder. Ni kan redigera, skriva om eller generera nytt i varje steg.
Kompetenser
AI genererar beskrivningar på svenska och engelska utifrån kompetensens namn och er organisationskontext. Redan har ni text kan AI omformulera den. Resultatet fylls i i båda språkfälten samtidigt.
Befattningar
AI genererar en strukturerad befattningsbeskrivning med ansvarsområden, befogenheter och förväntat beteende, på svenska och engelska. Beskrivningen utgår från befattningens titel och er organisationskontext.
ISO-kontroller (27001 och 42001)
AI genererar innehåll per kontroll: kravförklaring, intern implementeringsbeskrivning, SoA-text, fördjupningsinformation och verktygsrekommendationer. Varje fält bygger vidare på det föregående. Batch-generering kör igenom alla kontroller i en standard med möjlighet att pausa och återuppta.
Nytt från Labs: af-cli
Vi utforskar hur AI-agenter kan arbeta direkt i ert ledningssystem. af-cli ger agenter tillgång till projekt, risker, avvikelser, mål och checklistor via terminalen. Det är en forskningsförhandsvisning, inte en färdig produkt.
Läs mer om af-cli →Saknar du AI-assistans i någon annan del av AmpliFlow? Se alla Labs-projekt →
EU AI Act
EU:s AI-förordning (EU AI Act) trädde i kraft 2024 och ställer krav på hur AI-system får användas. Förordningen klassificerar AI-system efter risk och kräver särskilda åtgärder för högrisksystem.
AmpliFlows AI-funktioner klassificeras som begränsad risk eftersom de:
- Används som stödverktyg, inte för automatiserade beslut
- Inte påverkar grundläggande rättigheter
- Kräver mänsklig granskning för alla utdata
- Är transparenta om att AI används
Vi följer förordningens krav på transparens (Artikel 50) och arbetar för att användare informeras när de interagerar med AI-genererat innehåll.³ Läs mer om EU AI Act och vad det innebär för er organisation.
AI-riskbedömning
Vi bedömer riskerna med våra egna AI-funktioner enligt samma principer som vi hjälper våra kunder att tillämpa. Det innebär att vi systematiskt identifierar och värderar risker kopplade till hur AI används i AmpliFlow.
De riskkriterier vi fokuserar på inkluderar:
- Felaktiga förslag som kan leda kunden i fel riktning
- Hallucinationer - att AI presenterar påhittad information som fakta
- Dataintegritet - att rätt data skickas till rätt AI-funktion och inget mer
- Tillgänglighet och beroende av tredjepartsleverantörer
AmpliFlow bygger verktyg för riskhantering och använder dem internt också. Läs mer om hur vi hanterar risker i vårt säkerhetsarbete.
Konsekvensbedömning för AI-system
Vi utför konsekvensbedömningar för att förstå hur våra AI-funktioner påverkar både enskilda användare (de medarbetare som arbetar i systemet) och organisationer (de kunder som förlitar sig på AI-genererade förslag).
Våra viktigaste skyddsåtgärder:
- AI kan skapa utkast och förslag som markeras som AI-genererade. Mänsklig granskning krävs innan de gäller som godkända
- AI-funktioner är opt-in. Inget aktiveras utan ert medvetna val
- AI är ett stödverktyg. Vi designar systemet så att AI inte fattar beslut åt er, men vi kan inte garantera att en språkmodell aldrig beter sig oväntat²
- Vi har processer för att upptäcka och hantera fall där AI inte följer våra regler, och vi förbättrar dessa processer kontinuerligt
Dessa åtgärder syftar till att AI förblir ett stödverktyg som inte ersätter den mänskliga bedömningen i ert ledningssystem.
Incidenthantering
Om du upptäcker ett oväntat eller felaktigt AI-beteende, kontakta oss på info@ampliflow.com. Vi behandlar AI-relaterade incidenter med samma allvar som säkerhetsincidenter.
Internt har vi en etablerad process för att rapportera och hantera AI-incidenter. Alla medarbetare kan rapportera avvikelser i AI-beteende, och dessa utreds som en del av vårt ordinarie avvikelsehanteringssystem.
Vid allvarliga incidenter följer vi samma notifieringsprocess som för säkerhetsincidenter, inklusive att underrätta berörda kunder inom 24 timmar. Läs mer om vår incidenthantering och säkerhetsarbete.
Leverantörsstyrning
Vi använder idag OpenAI och Anthropic som AI-leverantörer, uteslutande via API-anrop. Enligt leverantörernas API-villkor (per februari 2026) exkluderas data som skickas via API från träning av deras modeller.
Vår leverantörsstyrning omfattar:
- API-only-åtkomst - ingen direkt åtkomst till modellerna utanför våra kontrollerade anrop
- Databehandlingsavtal (DPA) med OpenAI. Anthropics DPA ingår i deras kommersiella tjänstevillkor
- Krypterad överföring av all data
Vi utvärderar regelbundet våra AI-leverantörer utifrån säkerhet, prestanda och regelefterlevnad. Läs mer om hur AmpliFlow kan hjälpa er med ISO 42001-certifiering.
AI-livscykel och övervakning
Vi hanterar AI-funktionernas livscykel genom konfiguration och testning:
- Varje AI-funktion har en definierad modellkonfiguration - vi styr vilken modell som används för varje uppgift
- Automatisk felövervakning fångar upp problem i drift
När AI-leverantörer uppdaterar sina modeller testar vi de nya versionerna innan de aktiveras i produktion. Det inkluderar prompt-testning och validering av utdatakvalitet. Utfasning av äldre modeller sker kontrollerat med tillräcklig övergångstid.
Läs mer om våra AI-verktyg i AmpliFlow.
Ledningens genomgång
AI-användning är en del av vår regelbundna ledningsgenomgång. Det innebär att ledningen regelbundet utvärderar hur AI-funktioner presterar, vilka risker som finns och om våra AI-principer efterlevs.
Denna transparenssida är versionshanterad - senaste uppdateringen gjordes 2026-02-14. Vår AI-policy granskas och uppdateras som en del av den normala ledningssystemcykeln, i linje med hur vi arbetar med alla andra delar av vårt ledningssystem.
Vanliga frågor
Tränas AI-modeller på vår data?
Vi tränar idag inga egna modeller på kunddata, men vi planerar att göra det i framtiden. Målet är att bygga modeller som ger bättre, mer relevanta förslag för er bransch och er typ av organisation. All träningsdata avidentifieras, vilket innebär att den inte kan kopplas tillbaka till er organisation. Vi lämnar inte ut identifierbar kunddata till tredjepartsleverantörer för deras modellträning.
Vilken data har AI tillgång till?
När ni använder en AI-funktion skickar AmpliFlow relevant kontext för just den uppgiften till AI-leverantören. Till exempel: när ni genererar riskscenarier får AI information om er bransch, befintliga risker och organisationskontext. AI får inte tillgång till hela er databas. AI-agenter som bygger vår webbplats har aldrig tillgång till kunddata.
Var bearbetas data?
Data bearbetas av AI-leverantörer (som OpenAI och Anthropic) via krypterade API:er. När ni aktiverar en AI-funktion väljer ni att skicka relevant data till dessa leverantörer för bearbetning.
Vad skiljer detta från att använda ChatGPT?
Skillnaden är kontext. En VD som frågar ChatGPT får generiska svar. AmpliFlows AI är grundad i er faktiska data - era risker, era processer, er organisation - vilket ger relevanta och handlingsbara förslag istället för allmänna råd.
Kan AI fatta beslut åt oss?
AI i AmpliFlow är designat som ett stödverktyg. AI kan skapa och ändra poster, men dessa markeras som AI-genererade och är avsedda att granskas av en människa innan de gäller som godkända. Vi designar våra system med det målet, men stora språkmodeller är probabilistiska och vi kan inte garantera att de alltid följer varje regel i varje situation. Därför har vi övervakningsprocesser och förbättrar kontinuerligt.
Hur uppfyller ni EU AI Act?
AmpliFlows AI-funktioner klassificeras som låg eller begränsad risk enligt EU AI Act (Artikel 50). Vi arbetar för mänsklig översyn och transparens om AI-användning, och dokumenterar våra AI-system enligt förordningens krav. Vi bevakar aktivt hur lagen tillämpas i praktiken och anpassar våra processer efter hand.
Kan vi stänga av AI-funktionerna?
Ja. AI-assistans är helt valfri och opt-in. Ni kan använda AmpliFlow utan AI-funktioner, och varje enskild AI-funktion kan aktiveras eller stängas av separat.
Noter och juridisk bakgrund
- Om AI-markering och probabilistiska system. Stora språkmodeller (LLM) är probabilistiska: de genererar svar baserat på sannolikheter, inte deterministiska regler. Det innebär att vi kan designa system och ge instruktioner som säger "markera alltid AI-genererat innehåll", men vi kan inte garantera att modellen följer den instruktionen i 100% av fallen. Volymen AI-genererat innehåll gör det också opraktiskt att manuellt granska varje enskild output. Vi har processer och arbetsflöden som syftar till att fånga avvikelser, och vi förbättrar dessa kontinuerligt. EU:s AI-förordning (Artikel 50.2) erkänner denna verklighet med formuleringen "i den mån det är tekniskt möjligt".
- Om AI som stödverktyg vs. garantier. Vi designar AmpliFlows AI-funktioner som stödverktyg där människan granskar och godkänner. Men att påstå att AI "aldrig" kan göra något specifikt vore oärligt givet hur språkmodeller fungerar. Vi väljer att vara transparenta om denna begränsning istället för att göra löften vi inte kan hålla. Våra skyddsmekanismer (opt-in per funktion, AI-markering, granskningsflöden) är designade för att minimera risken, inte eliminera den.
- Om EU AI Act och transparenskrav. EU:s AI-förordning (Artikel 50.4) kräver att AI-genererad text som publiceras i allmänhetens intresse ska märkas som AI-genererad. Undantag gäller när innehållet har genomgått mänsklig granskning eller redaktionell kontroll och en person eller organisation har redaktionellt ansvar. AmpliFlows modell (AI skapar utkast, människor granskar och publicerar) faller inom detta undantag. Förordningens transparenskrav (Kapitel IV) trädde i kraft 2 augusti 2025 med full tillämpning från 2 augusti 2026. Vi bevakar aktivt hur lagen tillämpas och tolkas i praktiken, inklusive vägledning från EU:s AI-kontor och nationella tillsynsmyndigheter, och uppdaterar våra processer efter hand.
Frågor om AI?
Har du frågor om hur AmpliFlow använder AI, eller vill diskutera AI-användning för er organisation? Kontakta oss.
E-post: info@ampliflow.com