Varför betalar vi för mjukvara som AI kan bygga gratis?

CFOn har sett demo där en person bygger ett CRM på 20 minuter och Claude Cowork stämmer av bokföringen. Dollartecken i ögonen. Men frågan borde vara en annan.

Varför betalar vi för mjukvara som AI kan bygga gratis?

Er ekonomichef har sett demonstrationerna. Microsofts Copilot som skapar finansiella dashboards i Excel utan att någon skriver en formel. Anthropics Claude Cowork som frågar “Let’s knock something off your list” och sedan sorterar filer, bygger kalkylark från kvitton, eller skriver rapporter medan ni gör annat. Någon på LinkedIn som byggde ett CRM på en eftermiddag (se ordlista: vibe coding). Det ser ut som att all programvara ni betalar för kan ersättas av AI, gratis, på en eftermiddag.

Claude Cowork startsida: "Let's knock something off your list" med knappar för att skapa filer, analysera data, bygga prototyper och organisera mappar. Bild: Anthropics Claude Cowork (claude.com/product/cowork). Det här är vad era anställda ser när de öppnar verktyget.

Microsoft Copilot Agent Mode i Excel: AI skapar automatiskt en finansiell dashboard med insiktsanalys, trender och diagram. Bild: Microsofts Copilot Agent Mode i Excel (microsoft.com/microsoft-365-copilot). AI:n bygger en komplett finansiell rapport med diagram och analys.

Marknaden tog det bokstavligt. I februari 2026 rasade globala teknikaktier och aktiehandlare på Wall Street döpte det till “SaaSpocalypse”.1

Utlösaren var att Anthropic släppte elva plugins för Claude Cowork. Inte vaga kategorier, utan färdiga arbetsflöden.2

Juridik-pluginen granskar avtal klausul för klausul mot företagets egna regler och flaggar avvikelser som gröna, gula eller röda. Ekonomi-pluginen konterar, stämmer av bankkonton och genererar underlag för SOX-revisioner. Sälj-pluginen sammanfattar kundsamtal och bygger prognoser från pipeline-data. Kundsupport-pluginen triagerar ärenden och omvandlar lösta problem till artiklar i kunskapsbanken.

Alla elva är gratis, öppen källkod, och kopplar direkt till system företag redan har: Salesforce, HubSpot, Jira, Slack, Snowflake, Excel. Inte en chatbot som svarar på frågor. En AI som producerar färdiga leveranser.

Och det är vad Anthropic vill att ni ska tro att det är. Läser man deras egna hjälpsidor lite längre är budskapet ett annat: undvik att ge Cowork tillgång till känsliga filer.3 I sin säkerhetsdokumentation är de ännu tydligare: verktyget passar inte för reglerade branscher.4 Inte HIPAA. Inte FedRAMP. Inte för medicinsk data, finansiell data, eller känslig verksamhetsinformation. Det är tillverkaren som skriver det, i den officiella dokumentationen, om det verktyg som just utlöste en börskris.

Investerarna såg demos och räknade: om en AI kan göra det som Thomson Reuters juridiska verktyg gör, varför betala för Thomson Reuters? Aktien tappade 16 procent på en dag. LegalZoom föll 20 procent. Salesforce, världens största CRM-leverantör, var ner 29 procent. Atlassian, som gör projektverktygen Jira och Confluence, hade fallit 50 procent sedan årsskiftet.5 Totalt försvann ungefär 285 miljarder dollar ur mjukvarubörsen på några dagar.

Två veckor senare steg Thomson Reuters 7 procent igen. De hade slagit analytikernas förväntningar, höjt utdelningen med 10 procent, och annonserat att de satsar på egna AI-lösningar.6 Marknaden sålde först och ställde frågor efteråt.

Och sedan kom nästa våg. Den 20 februari 2026 lanserade Anthropic Claude Code Security, ett verktyg som skannar källkod och hittar säkerhetshål med en språkmodell istället för fasta regler.7

CrowdStrike och Cloudflare föll 8 till 10 procent vardera. Global X Cybersecurity ETF tappade nära 9 procent. Dennis Dick på Triple D Trading kallade det en “mini-flash-crash” i Bloomberg.

Marknaden är inte rädd för AI i allmänhet. Den prisar in något specifikt: att företag kommer bygga egna verktyg med AI istället för att betala licensavgifter. Varför betala Atlassian för Jira om ett team kan vibe-coda sin egen projekthantering på en vecka? Varför betala Salesforce om en AI bygger ett CRM på en eftermiddag? Det är kalkylen Wall Street gör. Inte om AI fungerar, utan om kunderna försvinner.

Frågan som hamnar på ert bord nu: varför betalar vi tiotusentals kronor per år för program när AI kan göra dem gratis och börsen redan prisat in det?

Det korta svaret är att för vissa program stämmer det. Bygga (med AI) är rätt val. För andra program är det en feltänkt kalkyl. Och sedan finns det en tredje fråga som de flesta missar helt.

När bygga faktiskt är rätt svar

AI kan bygga fungerande program snabbt. Det är inte hype.

Gergely Orosz, redaktör för ett av teknikvärldens mest lästa nyhetsbrev, ersatte ett verktyg han betalat 1 200 kronor om året för. Det tog 20 minuter.8 Det fungerade. Ett teknikföretag (med många egna utvecklare) i Australien byggde ett eget CRM-liknande system på tio dagar med AI och det sparade dem tiotusentals kronor i månaden.9

För enkla, fristående verktyg utan känslig data och utan compliance-krav kan det vara rätt beslut att bygga. En intern rapport som annars körs manuellt. En kalkyl som lever i Excel och ingen äger. Här är kostnaden för att bygga lägre än kostnaden för att köpa, och komplexiteten tillräckligt låg för att hantera utan ett dedikerat teknikteam. Här är det som att ge enskilda medarbetare eller team superkrafter.

När kalkylen ser bättre ut än den är

Problemet är att det ser likadant ut i alla demos oavsett vad som faktiskt byggs.

En grundare som dokumenterade sju månaders AI-assisterad programutveckling beskriver det:

“Pure AI coding gets you maybe 60% there.”10

De 40 procenten som återstår är databasproblem som dyker upp med fler användare, säkerhetsluckor som inte syns förrän de utnyttjas, och integrationer som slutar fungera när ett externt API ändras (se ordlista: API).

Tidig forskning pekar åt samma håll. En granskning av sju AI-byggda prototyper fann 970 säkerhetsproblem (se ordlista: säkerhetsluckor), varav 801 allvarliga.11 Veracode fann att nära hälften av all AI-genererad kod innehöll sårbarheter.12

Forskarna rekommenderar att behandla AI-genererad kod som ett första utkast som måste granskas av kunniga personer innan det körs i produktion.13

Det är råd till programmerare. Men den som bygger är inte alltid en programmerare.

Problemet är inte kostnaden för ett system. Det är vad som händer när ni har fem, eller 50.

Varje AI-byggt verktyg som når produktion behöver någon som förstår det, felsöker det, och uppdaterar det när en integration ändras. Det är inte ett heltidsjobb för ett verktyg. Men för fem stycken börjar det likna det.

Och den personen är troligtvis samma person som byggde allt. En junior systemutvecklare kostar ungefär 750 000 kronor om året.14 Men kostnaden är inte det värsta. Det värsta är att när tre saker går sönder samtidigt, och det gör de, hittar den personen snabbt ett nytt jobb.

Anish Acharya på riskkapitalfirman Andreessen Horowitz skriver om det: “Software value compounds; content value decays.”15 Det är en bra formulering av varför ett etablerat system är svårt att kopiera.

Den fråga ni inte ställde

Här är det som de flesta CFO:er inte tänker på när de ser demon.

En branschundersökning från en ledande no-code-leverantör, med tydlig bias i resultaten, frågade hundratals programmerare och verksamhetsutvecklare om deras AI-vanor i början av 2026. 60 procent av de som byggt något med AI hade gjort det utanför IT-avdelningens kontroll.16 35 procent av organisationerna hade redan ersatt minst ett köpt program med ett eget bygge.

Det är inte praktikanter som experimenterar. 64 procent av de som byggt utanför officiella kanaler var chefer eller högre. De gick runt IT för att det gick snabbare (31 procent), för att befintliga program inte räckte till (25 procent), för att IT-processen var för långsam (18 procent), för att verktygen inte integrerade med varandra (10 procent), eller för att IT saknade kapacitet (10 procent).

Frågan er CFO ställer är “ska vi bygga istället för att köpa?” Den frågan förutsätter att ni kontrollerar vad som byggs. Det gör ni kanske inte. Någon på ekonomiavdelningen kanske redan byggt något med kunddata som ingen annan vet om. Det kallas shadow IT (se ordlista). Det är inte nytt. Det är bara mycket lättare att skapa nu.

Sex månader efter att verktyget byggts finns det i produktion, kopplat mot riktiga system, med kunddata, och utan att någon på IT vet om det. Personen som byggde det har kanske slutat. IT kan inte stoppa program de inte känner till.

Och så är det säkerheten

Det finns fler problem än att IT inte vet vad som körs.

Exfiltrering - hur enkelt AI hackas att läcka data

Säkerhetsforskare visade i januari 2026 att Claude Cowork kunde luras att skicka alla filer i en mapp till en angripare utan att användaren märkte något.17 Det hände med exakt det verktyg vars tillverkare, som vi sett, redan avrått från att använda med känsliga filer.

Privata konton vs företagskonton

Och er anställde med en privat $20-prenumeration kopplar inte upp sin privata Claude-session skyddad via ert dataskyddsavtal. De kopplar upp den mot Anthropics servrar. Det är inte bara en formulering. Det är ett juridiskt skifte.

Det blir värre. Med ett privat konto tränar Anthropic sina modeller på det den anställde skriver, om inte användaren själv stänger av det.18 Data lagras i USA. Överföringen sker via standardavtalsklausuler, inte via EU-US Data Privacy Framework som Anthropic inte är certifierade under.19

Anthropic har SOC 2 Type II, ISO 27001 och årliga säkerhetsrevisioner. Men med ett privat konto har ni ingen avtalsrätt att se rapporterna eller kräva något. Certifieringarna skyddar företagskunder som har DPA. Inte den anställde som betalade med sitt privata kort.

GDPR är fortfarande en lag

Det är ett GDPR-problem. Inte teoretiskt, utan konkret. Er organisation är sannolikt fortfarande personuppgiftsansvarig för den kunddata eller affärsdata som passerar genom sessionen, det är er data, era register, era kunder. Men ni har inget biträdesavtal med den som behandlar den.20 Ni kan inte granska. Ni kan inte stoppa vidaredelning. Och datan tränar modellen om ingen stängt av det.

ISO 42001 - ledningssystem för AI

ISO 42001 är en internationell standard för ledningssystem för AI, publicerad 2023. Den finns till exakt för det här scenariot. Inte för att stoppa anställda från att använda AI, utan för att ge organisationen kontroll: vad används, av vem, med vilka data, och vem ansvarar om något går fel?

Standardens kontroller träffar shadow AI direkt:21

  • En dokumenterad policy för hur AI-system får användas (A.2.2)
  • Definierade roller: vem äger frågan när något går fel (A.3.2)
  • Konsekvensbedömning: vem påverkas om verktyget behandlar kunddata och det uppstår ett fel (A.5.2)
  • Godkännandeprocesser för ansvarsfull användning (A.9.2)
  • Leverantörsbedömning, för OpenAI och Anthropic är era leverantörer när era anställda använder deras verktyg med er data (A.10.3)

Det är samma logik som ISO 9001 för kvalitet eller ISO 27001 för informationssäkerhet. Inte byråkrati för byråkratins skull.

EU AI Act gäller redan

Det juridiska skälet är större än de flesta tror.

EU:s AI-förordning, artikel 4, kräver att alla organisationer som använder AI-system ser till att berörd personal har tillräcklig AI-kompetens. Det gäller sedan 2 februari 2025. Men artikel 4 är bara den första bestämmelsen. Den 2 augusti 2026 börjar resten gälla.22

Om en anställd vibe-codar ett verktyg som prioriterar jobbansökningar, poängsätter kunder för kreditvärdighet, eller automatiserar beslut om vilka ärenden som ska eskaleras? Då har er organisation satt ett högrisk-AI-system i drift. Förordningens bilaga III listar områdena: anställning, kreditbedömning, tillgång till samhällstjänster. Det spelar ingen roll att verktyget byggdes på en eftermiddag.

Med det följer skyldigheter. Artikel 26: mänsklig tillsyn, informera anställda, konsekvensbedömning enligt GDPR.

Artikel 25 går längre. Tar ni ett generellt AI-system som ChatGPT och ändrar dess användningsområde så att det blir högrisk, blir ni leverantör i förordningens mening. Teknisk dokumentation, CE-märkning, kvalitetsledning.

Och om en anställd publicerar AI-genererad text externt utan att redovisa att den är AI-genererad? Artikel 50 kräver transparens för AI-genererad text som publiceras i allmänhetens intresse, om inte en människa har granskat och tagit redaktionellt ansvar. Shadow IT gör den granskningen omöjlig.

Böterna följer samma skala som GDPR: upp till 15 miljoner euro eller 3 procent av global omsättning för brott mot leverantörs- och användarskyldigheter. För SME-företag gäller det lägre av belopp eller procent.

ISO 42001 är frivillig, EU AI Act är bindande. Inte samma sak. Men ISO 42001 täcker varje skyldighet som just listades: konsekvensbedömning (A.5.2) mappar mot artikel 26, avsedd användning (A.9.4) mot instruktionskraven, information till användare (A.8.2) mot transparenskraven i artikel 50.

Standarden ger er ett strukturerat sätt att möta regler som börjar gälla om sex månader.

Ska ni bygga eget med AI eller köpa? Det beror på vad det är. Men börja med att ta reda på vad folk redan har byggt utan att ni vet om det. Det är den frågan som borde hålla er CFO vaken.

Om ni vill se hur AmpliFlow hanterar det i ett ledningssystem: boka en genomgång.


Ordlista

Vibe coding: Att beskriva vad man vill ha i vanlig text till ett AI-verktyg, som sedan skriver koden. Ingen programmeringskunskap krävs för att komma igång, men det räcker inte för att hålla igång det som byggs.

API (Application Programming Interface): Det som låter två program prata med varandra. När ert bokföringsprogram hämtar betalningar från er bank gör det det via ett API. Om API:et ändras och ingen uppdaterar koden slutar det fungera.

Shadow IT: Program eller verktyg som används inom ett företag utan att IT-avdelningen vet om det eller har godkänt det. Problemet är gammalt. Vad som är nytt är hur lite ansträngning det kräver att skapa sådana verktyg idag.

Säkerhetsluckor: Svagheter i koden som gör det möjligt för utomstående att komma åt data de inte ska ha tillgång till. Uppstår ofta utan att den som byggt verktyget vet om det, och syns inte förrän de utnyttjas.

ISO 42001: En internationell standard för hur företag ska styra och kontrollera sin användning av AI. Publicerad av ISO 2023. Ger ett ramverk för vem som ansvarar för vad när AI används i verksamheten.


Den här artikeln skrevs i februari 2026, mitt i ett av de snabbaste teknologiskiftena på länge. Mycket av det vi skriver om här kan se annorlunda ut om ett år. Vi är nyfikna på hur det håller.

Footnotes

  1. Jonathan Barrett, “Is the share market headed toward a ‘SaaS-pocalypse’?”, The Guardian, 20 februari 2026. Termen “SaaSpocalypse” myntades av analytiker på investmentbanken Jefferies. Källa.

  2. Anthropic, “Cowork plugins”, 30 januari 2026. Elva plugins publicerade som öppen källkod. Källa. Källkod: GitHub.

  3. Anthropic, “Use Cowork safely”, Claude Help Center (2026). Verbatim: “Avoid granting access to local files with sensitive information, like financial documents.” Källa.

  4. Anthropic, “Use Cowork safely”, Claude Help Center (2026). Verbatim: “Cowork activity is not captured in audit logs, Compliance API, or data exports. Do not use Cowork for regulated workloads.” Källa. Se även: Using Agents According to Our Usage Policy.

  5. John Furrier, “The SaaSpocalypse mispricing: Why markets are getting the AI-software shakeout wrong”, SiliconAngle, 10 februari 2026. Thomson Reuters -16%, RELX -13%, LegalZoom -20% på plugindagen. Källa.

  6. Tim Bohen, “TRI Stock Surges Amid AI Growth and Strategic Upgrades”, StocksToTrade, 24 februari 2026. TRI +6,97% efter kvartalsrapport som slog förväntningarna (EPS $1,07, intäkter $2,01 miljarder), $1 miljard i aktieåterköp, 10% utdelningshöjning, RBC Capital höjde till “Outperform”. Källa.

  7. Jakob Steinschaden, “Anthropic’s Claude Code Security Triggers Flash Crash in Cybersecurity Stocks”, Trending Topics, 23 februari 2026. CrowdStrike -8 till 10%, Cloudflare -8 till 10%, Global X Cybersecurity ETF -9%. Dennis Dick (Triple D Trading) citerad i Bloomberg: “mini-flash-crash.” Verktyget lanserades 20 februari 2026 och är i begränsad förhandsvisning för Enterprise- och Team-kunder samt underhållare av öppen källkod. Källa.

  8. Gergely Orosz, “I replaced a $120/year micro-SaaS in 20 minutes with LLM-generated code”, The Pragmatic Engineer, 2026. Källa.

  9. Hypergen, “SaaS: The Build vs Buy Equation Just Changed”, 2025. Källa.

  10. Reddit, r/EntrepreneurRideAlong, “7 months of vibe coding a SaaS and here’s what I learned”, 2025. Källa.

  11. M Waseem, A Ahmad, KK Kemell, J Rasku, “Vibe Coding in Practice: Flow, Technical Debt, and Guidelines for Sustainable Use”, arXiv:2512.11922 (preprint, inlämnad till IEEE Software), december 2025. Säkerhetssiffrorna baseras på scanning av 7 egna MVPs, illustrativt urval. Källa.

  12. Veracode, citerat i Waseem et al. arXiv:2512.11922. Originalrapporten: Veracode State of Software Security Report.

  13. M Waseem et al., arXiv:2512.11922. Verbatim: “Based on our experience, we recommend treating AI-generated code as a first draft that must pass strict automated gates such as linting, type checks, and tests before merging.” Erfarenhetsbaserad rekommendation, inte ett mätresultat.

  14. Unionen marknadslöner 2024, systemutvecklare, ingångslön 36 000–45 000 kr/mån. Källa. Totalkostnad 750 000 kr/år: Unionens lönesiffra plus arbetsgivaravgifter (31,42%) plus uppskattade kringkostnader (semester, pension, utrustning). Beräkning baserad på Unionens publicerade data.

  15. Anish Acharya, “Software’s YouTube moment is happening now”, Andreessen Horowitz, 2026. Källa.

  16. Retool, “The build vs. buy shift: how vibe coding and shadow IT have reshaped enterprise software”, februari 2026. Undersökning med 817 respondenter, Retool-kunder och builders, sampelbias mot de som redan bygger egna system. Källa.

  17. Prompt Armor, “Claude Cowork Exfiltrates Files”, 14 januari 2026. Källa. Se även: Simon Willison, simonwillison.net/2026/Jan/14/claude-cowork-exfiltrates-files/.

  18. Anthropic, Privacy Policy (gäller från 12 januari 2026), §2: konsumentkonton (Free/Pro) används för modellträning som standard. Användare kan stänga av det i kontoinställningarna. Företagskonton (API, Team, Enterprise) tränas aldrig på kunddata per Commercial Terms §B. Källa.

  19. Anthropic, Data Processing Addendum (gäller från 24 februari 2025). SOC 2 Type II, ISO/IEC 27001, ISO/IEC 27017, ISO/IEC 27018, CSA STAR. Årlig oberoende säkerhetsrevision (DPA Schedule 2, §D.2). Årlig penetrationstest av externa assessorer (DPA Schedule 2, §G.2). Granskningsrätt för kunder med DPA (DPA §F). Källa. Certifieringar listade på claude.com/regional-compliance.

  20. Europaparlamentets och rådets förordning (EU) 2016/679 (GDPR), artikel 28: behandling av ett biträde ska regleras av ett avtal eller en annan rättsakt. Utan ett sådant avtal saknas den rättsliga grunden för att en tredje part behandlar personuppgifter på den personuppgiftsansvariges vägnar.

  21. ISO/IEC 42001:2023, Annex A (normative), kontroller A.2.2 (AI policy), A.3.2 (roller och ansvar), A.5.2 (konsekvensbedömning), A.8.2 (information till användare), A.9.2 (ansvarsfull användning), A.9.4 (avsedd användning) och A.10.3 (leverantörer).

  22. Europaparlamentets och rådets förordning (EU) 2024/1689 om artificiell intelligens (EU AI Act). Artiklar som citeras i texten: 4 (AI-kompetens, gäller sedan 2 feb 2025), 25(1)(c) (ändrad användning gör dig till leverantör), 26 (skyldigheter vid högrisk: mänsklig tillsyn, informera anställda, DPIA), 50(4) (transparens för AI-genererad text), 99(4)(6) (böter upp till 15M EUR / 3% av omsättning, lägre för SME). Bilaga III listar högriskområden: anställning, kreditbedömning, samhällstjänster. Artiklarna 25, 26, 50 gäller från 2 aug 2026. Fulltext, OJ L 2024/1689.

Relaterade artiklar

De flesta företag har ett ledningssystem. Problemet är att det inte leder någonting.

De flesta företag har ett ledningssystem. Problemet är att det inte leder någonting.

EU AI Act och ISO 42001: så hänger de ihop

EU AI Act och ISO 42001: så hänger de ihop

Ledningens genomgång inom ISO-standarder: Så gör ni det rätt

Ledningens genomgång inom ISO-standarder: Så gör ni det rätt