Shadow AI: chefer bygger egna verktyg utan IT:s vetskap

Shadow AI 2026: anställda bygger AI-verktyg utan IT:s kontroll. Förstå GDPR-konsekvenserna, varför det händer och vad er AI-policy bör innehålla.

Shadow AI: chefer bygger egna verktyg utan IT:s vetskap

Det som kallas Shadow IT brukade vara enkelt. Några anställda installerar Dropbox utan lov. IT-avdelningen hittar det, stänger av det, alla går vidare. Problemet var lätt att se och lätt att stoppa.

Shadow AI 2026 fungerar annorlunda.

En ekonomiassistent med ett konto på ChatGPT eller Claude kan bygga ett fungerande verktyg på en eftermiddag. Ingen IT-ticket. Inget godkännande. Inga inloggningsuppgifter att spara. Sex månader senare finns verktyget i produktion, kopplat mot riktiga system, med kunddata, och utan att någon på IT vet om det.

Och den person som byggde det är ofta inte praktikanten. Enligt en undersökning från leverantören Retool, som frågade hundratals programmerare och verksamhetsutvecklare om deras AI-vanor, hade 60 procent av dem byggt något utanför IT-avdelningens kontroll det senaste året.1 I samma undersökning var 64 procent av respondenterna seniora chefer eller högre.1

Det är inte teknologin som är problemet. Det är att den blivit så lätt att använda att styrningen inte hänger med.

Varför händer det?

Svaret är inte att anställda är slarviga eller illvilliga. Det är att de gör rationella val.

Skälen är tydliga: 31 procent gick runt IT för att det gick snabbare, 25 procent för att de befintliga verktygen inte räcker till, 18 procent för att IT-processen upplevdes för långsam, och 10 procent för att IT saknade kapacitet alls.1

Det är inte sabotage. Det är någon på marknadsavdelningen som behöver analysera kunddata till fredag och vet att en IT-begäran tar tre veckor. Så de öppnar Claude.com, laddar upp sin Excel-fil, och gör analysen.

Rationellt. Och det är det som är problemet.

Vad gör Shadow AI farligare än gammal Shadow IT?

Gammal Shadow IT var passiv. En anställd installerade ett program och använde det. Det var ett verktyg med ett fast syfte, skapat av ett företag med en integritetspolicy.

Shadow AI är aktiv. Verktyget kan generera kod, koppla mot API:er, behandla data autonomt och producera nya leveranser. Den anställde bygger inte bara ett verktyg för sig själv. De bygger ett system som andra på företaget kan börja använda, som kopplas mot kunddata, och som ingen planerade för.

Samsung har säkerhetsexperter som de flesta svenska SME-företag aldrig kommer anställa. I april 2023 klistrade anställda in konfidentiell källkod i ChatGPT under felsökningsarbete.2 TechCrunch rapporterade att Samsung svarade med att tillfälligt begränsa generativa AI-verktyg på företagsägda enheter och interna nätverk medan bolaget tog fram säkerhetsåtgärder.2

Det är poängen: kompetens skyddar inte. Styrning gör det.

GDPR-konsekvensen ingen talar om

När en anställd använder ett privat AI-konto för att behandla företagets data uppstår ett juridiskt problem.

Med ett organisationshanterat företagskonto hos Claude eller ChatGPT kan leverantörens verksamhetsvillkor och DPA gälla för arbetsytan. Anthropics Commercial Terms säger att deras DPA är en del av avtalet för kommersiella tjänster.34 OpenAI säger samma sak i sin Services Agreement och DPA för ChatGPT Business, ChatGPT Enterprise och andra verksamhetstjänster.56

Med ett privat konsumentkonto är läget ett annat. Anthropics integritetspolicy gäller när någon använder Claude som konsument, och den gäller inte när arbetsgivaren har provisionerat ett Claude for Work-konto.7 Er organisation är då normalt inte kunden i avtalet, kan inte ge dokumenterade instruktioner enligt artikel 28, och har sämre möjlighet att granska underbiträden, radering och incidenthantering.

Er organisation är troligtvis ändå ansvarig för den kunddata som passerade sessionen. Men ni har inget avtal med den som behandlade den.

Observera att avsaknaden av ett personuppgiftsbiträdesavtal inte innebär att er organisation slipper ansvar. Det innebär att ni har tappat kontrollen. GDPR:s krav på lämpliga tekniska och organisatoriska åtgärder (artiklarna 5 och 24) gäller er som personuppgiftsansvarig oavsett om era anställda använder godkända eller ogodkända verktyg. Skillnaden är att ni med ett företagskonto kan visa att ni lever upp till kraven. Med ett privat konto kan ni inte det.

Vi har skrivit en fördjupning om exakt det här — GDPR och AI-verktyg: vad händer när anställda använder privata konton.

Personen som byggde det har kanske slutat

Det finns ytterligare en risk som inte syns förrän det är för sent.

Det verktyg som byggdes på en eftermiddag kanske används dagligen av sex personer på företaget. De vet att det fungerar. De vet inte hur.

Personen som byggde det har kanske slutat.

Nästa gång det går sönder, när en extern integration uppdateras, när dataformatet ändras, när någon undrar hur kunddata hanteras, är det ingen som kan fixa det. IT kan inte hjälpa, de känner inte till att det finns. Den ursprungliga byggaren är borta.

Det är inte ett hypotetiskt scenario. Det är vad som händer när infrastruktur byggs av en person utan att någon annan dokumenterar, är med, eller godkänner.

Hur ni sätter en AI-policy och tar kontroll

Förbjuda AI är fel svar. Det fungerar inte och det skapar konkurrensproblem. De som använder AI-verktyg effektivt får ett försprång.

Tre saker är rimliga att börja med:

  1. Inventera vad som finns. Fråga systematiskt vilka AI-verktyg som används i verksamheten och i vilket syfte. Inte som ett polisförhör utan som ett faktaunderlag. Ni kan inte styra det ni inte känner till.

  2. Ge IT-processen ett snabbspår. Om den vanliga vägen tar tre veckor bygger någon runt den. En enkel godkännandeprocess för AI-verktyg med låg risk, där svaret kommer på en eller två dagar, tar bort det starkaste skälet för att gå runt systemet.

  3. Bestäm vem som äger frågan. När något går snett med ett Shadow AI-system, vem ansvarar? Det måste bestämmas i förväg, inte i krisen.

ISO 42001 är en standard för AI-styrning som hanterar precis de här frågorna: vad används, av vem, med vilka data, och vem ansvarar om något går fel. Den ger er ett ramverk för att ställa de rätta frågorna systematiskt.

Om ni vill se hur AmpliFlow hanterar de här frågorna i praktiken: boka en genomgång.


Den här artikeln är en spinoff från Varför betalar vi för mjukvara som AI kan bygga gratis?. Den moderartikeln går djupare in på kalkylerna kring att bygga kontra köpa programvara, och på det finansiella kaos AI-demos utlöst på börsen.

Footnotes

  1. Retool, “The build vs. buy shift: how vibe coding and shadow IT have reshaped enterprise software”, februari 2026. Undersökning med 817 respondenter, Retool-kunder och builders; sampelbias mot de som redan bygger egna system. Källa. 2 3

  2. Kate Park, “Samsung bans use of generative AI tools like ChatGPT after April internal data leak”, TechCrunch, 2 maj 2023. Källa. 2

  3. Anthropic, Commercial Terms of Service (gäller från 17 juni 2025). Kommersiella tjänster styrs av separata verksamhetsvillkor. Källa.

  4. Anthropic, Data Processing Addendum (gäller från 24 februari 2025). DPA:n är en del av Anthropic Commercial Terms. Källa.

  5. OpenAI, OpenAI Services Agreement (gäller från 1 januari 2026). Avtalet gäller bland annat ChatGPT Business och ChatGPT Enterprise. Källa.

  6. OpenAI, OpenAI Data Processing Addendum (gäller från 1 januari 2026). DPA:n är inarbetad i OpenAI Services Agreement. Källa.

  7. Anthropic, Privacy Policy (gäller från 12 januari 2026). Policyn gäller när Anthropic är personuppgiftsansvarig, till exempel vid konsumentanvändning, och den gäller inte när arbetsgivaren har provisionerat ett Claude for Work-konto. Källa.

Relaterade artiklar

Sparade lösenord i webbläsaren, en större risk än många tror

Sparade lösenord i webbläsaren, en större risk än många tror

AI-bias i rekrytering: er rekryterings-AI kan gallra fram sig själv

AI-bias i rekrytering: er rekryterings-AI kan gallra fram sig själv

Ju räddare folk är för AI, desto mer använder de det

Ju räddare folk är för AI, desto mer använder de det