Shadow AI: chefer bygger egna verktyg utan IT:s vetskap

Shadow AI 2026: anställda bygger AI-verktyg utan IT:s kontroll. Förstå GDPR-konsekvenserna, varför det händer och vad er AI-policy bör innehålla.

Shadow AI: chefer bygger egna verktyg utan IT:s vetskap

Det som kallas Shadow IT brukade vara enkelt. Några anställda installerar Dropbox utan lov. IT-avdelningen hittar det, stänger av det, alla går vidare. Problemet var lätt att se och lätt att stoppa.

Shadow AI 2026 fungerar annorlunda.

En ekonomiassistent med ett konto på ChatGPT eller Claude kan bygga ett fungerande verktyg på en eftermiddag. Ingen IT-ticket. Inget godkännande. Inga inloggningsuppgifter att spara. Sex månader senare finns verktyget i produktion, kopplat mot riktiga system, med kunddata, och utan att någon på IT vet om det.

Och den person som byggde det är ofta inte praktikanten. Enligt en undersökning från leverantören Retool, som frågade hundratals programmerare och verksamhetsutvecklare om deras AI-vanor, hade 60 procent av de som byggt något med AI gjort det utanför IT-avdelningens kontroll.1 64 procent av dem var chefer eller högre.

Det är inte teknologin som är problemet. Det är att den blivit så lätt att använda att styrningen inte hänger med.

Varför händer det?

Svaret är inte att anställda är slarviga eller illvilliga. Det är att de gör rationella val.

Skälen är tydliga: 31 procent gick runt IT för att det gick snabbare, 25 procent för att de befintliga verktygen inte räcker till, 18 procent för att IT-processen upplevdes för långsam, och 10 procent för att IT saknade kapacitet alls.1

Det är inte sabotage. Det är någon på marknadsavdelningen som behöver analysera kunddata till fredag och vet att en IT-begäran tar tre veckor. Så de öppnar Claude.com, laddar upp sin Excel-fil, och gör analysen.

Rationellt. Och det är det som är problemet.

Vad gör Shadow AI farligare än gammal Shadow IT?

Gammal Shadow IT var passiv. En anställd installerade ett program och använde det. Det var ett verktyg med ett fast syfte, skapat av ett företag med en integritetspolicy.

Shadow AI är aktiv. Verktyget kan generera kod, koppla mot API:er, behandla data autonomt och producera nya leveranser. Den anställde bygger inte bara ett verktyg för sig själv. De bygger ett system som andra på företaget kan börja använda, som kopplas mot kunddata, och som ingen planerade för.

Samsung har säkerhetsexperter som de flesta svenska SME-företag aldrig kommer anställa. I april 2023 klistrade några av dem in konfidentiell källkod i ChatGPT under felsökningsarbete.2 Inga onda avsikter. Data gick till OpenAIs servrar ändå. Samsungs svar var inte utbildning. Det var att stänga av AI-verktyg på alla enheter.

Det är poängen: kompetens skyddar inte. Styrning gör det.

GDPR-konsekvensen ingen talar om

När en anställd använder ett privat AI-konto för att behandla företagets data uppstår ett juridiskt problem.

Med ett företagskonto hos Claude eller ChatGPT finns ett personuppgiftsbiträdesavtal. Ni är personuppgiftsansvarig. Leverantören behandlar data på era villkor, ni kan granska och kräva radering.

Med ett privat $20-konto är det leverantören som bestämmer. Anthropics integritetspolicy är tydlig: för privata konsumentkonton är Anthropic personuppgiftsansvarig, inte er organisation.3 Ni är inte part i avtalet. Ni kan inte granska. Ni vet inte vilket land servern står i.

Er organisation är troligtvis ändå ansvarig för den kunddata som passerade sessionen. Men ni har inget avtal med den som behandlade den.

Observera att avsaknaden av ett personuppgiftsbiträdesavtal inte innebär att er organisation slipper ansvar. Det innebär att ni har tappat kontrollen. GDPR:s krav på lämpliga tekniska och organisatoriska åtgärder (artiklarna 5 och 24) gäller er som personuppgiftsansvarig oavsett om era anställda använder godkända eller ogodkända verktyg. Skillnaden är att ni med ett företagskonto kan visa att ni lever upp till kraven. Med ett privat konto kan ni inte det.

Vi har skrivit en fördjupning om exakt det här — GDPR och AI-verktyg: vad händer när anställda använder privata konton.

Personen som byggde det har kanske slutat

Det finns ytterligare en risk som inte syns förrän det är för sent.

Det verktyg som byggdes på en eftermiddag kanske används dagligen av sex personer på företaget. De vet att det fungerar. De vet inte hur.

Personen som byggde det har kanske slutat.

Nästa gång det går sönder, när en extern integration uppdateras, när dataformatet ändras, när någon undrar hur kunddata hanteras, är det ingen som kan fixa det. IT kan inte hjälpa, de känner inte till att det finns. Den ursprungliga byggaren är borta.

Det är inte ett hypotetiskt scenario. Det är vad som händer när infrastruktur byggs av en person utan att någon annan dokumenterar, är med, eller godkänner.

Hur ni sätter en AI-policy och tar kontroll

Förbjuda AI är fel svar. Det fungerar inte och det skapar konkurrensproblem. De som använder AI-verktyg effektivt får ett försprång.

Tre saker är rimliga att börja med:

  1. Inventera vad som finns. Fråga systematiskt vilka AI-verktyg som används i verksamheten och i vilket syfte. Inte som ett polisförhör utan som ett faktaunderlag. Ni kan inte styra det ni inte känner till.

  2. Ge IT-processen ett snabbspår. Om den vanliga vägen tar tre veckor bygger någon runt den. En enkel godkännandeprocess för AI-verktyg med låg risk, där svaret kommer på en eller två dagar, tar bort det starkaste skälet för att gå runt systemet.

  3. Bestäm vem som äger frågan. När något går snett med ett Shadow AI-system, vem ansvarar? Det måste bestämmas i förväg, inte i krisen.

ISO 42001 är en standard för AI-styrning som hanterar precis de här frågorna: vad används, av vem, med vilka data, och vem ansvarar om något går fel. Den ger er ett ramverk för att ställa de rätta frågorna systematiskt.

Om ni vill se hur AmpliFlow hanterar de här frågorna i praktiken: boka en genomgång.


Den här artikeln är en spinoff från Varför betalar vi för mjukvara som AI kan bygga gratis?. Den moderartikeln går djupare in på kalkylerna kring att bygga kontra köpa programvara, och på det finansiella kaos AI-demos utlöst på börsen.

Footnotes

  1. Retool, “The build vs. buy shift: how vibe coding and shadow IT have reshaped enterprise software”, februari 2026. Undersökning med 817 respondenter, Retool-kunder och builders; sampelbias mot de som redan bygger egna system. Källa. 2

  2. Kate Park, “Samsung bans use of generative AI tools like ChatGPT after April internal data leak”, TechCrunch, 2 maj 2023. Källa.

  3. Anthropic, Privacy Policy (gäller från 12 januari 2026). För privata konsumentkonton agerar Anthropic som personuppgiftsansvarig. Källa.

Relaterade artiklar

AI-agenter och ledningssystem: hype, verklighet och vad vi faktiskt byggt

AI-agenter och ledningssystem: hype, verklighet och vad vi faktiskt byggt

Vad forskningen faktiskt säger om AI:s hallucinationer - och vad det betyder för HSEQ

Vad forskningen faktiskt säger om AI:s hallucinationer - och vad det betyder för HSEQ

GDPR och AI-verktyg: det är lättare än du tror att bryta mot reglerna

GDPR och AI-verktyg: det är lättare än du tror att bryta mot reglerna