Hva skjedde mellom Anthropic og Pentagon?
I februar 2026 utstedte Trump-administrasjonen en eksekutivordre som forbyr alle føderale etater å bruke Anthropics produkter og tjenester. Bakgrunnen var en langvarig konflikt mellom Anthropic og det amerikanske forsvarsdepartementet.
Pentagon ønsket å bruke Claude, Anthropics språkmodell, til to formål som Anthropic vurderte som uforenlige med selskapets retningslinjer for ansvarlig bruk: masseovervåkning av kommunikasjon og integrasjon i autonome våpensystemer.
Anthropic nektet. Selskapet viste til sin «Acceptable Use Policy» og argumenterte for at slik bruk ville undergrave tilliten til AI-systemer globalt. Pentagon eskalerte. Anthropic holdt fast.
Resultatet? En presidentordre som effektivt stenger Anthropic ute fra hele det amerikanske offentlige markedet.
OpenAI fikk kontrakten, med samme vilkår
Her blir historien ironisk. OpenAI fikk den samme forsvarskontrakten som Anthropic tapte. Men kontrakten inkluderer de nøyaktig samme restriksjonene som Anthropic kjempet for: ingen masseovervåkning, ingen autonome våpen.
Det betyr at konflikten aldri egentlig handlet om hva AI-modellene skulle brukes til. Den handlet om hvem som fikk definere vilkårene, og hvem som havnet i unåde hos en administrasjon som oppfatter motstand som illojalitet.
For Anthropic er konsekvensen konkret: tap av et enormt marked og potensiell signaleffekt til andre lands myndigheter. For OpenAI er det en kommersiell gevinst, men med vilkår som viser at Anthropics prinsipielle posisjon var faglig begrunnet.
Hva betyr dette for norske virksomheter?
Det kan virke som en fjern, amerikansk politisk konflikt. Det er det ikke. Norske bedrifter som bruker AI-tjenester fra amerikanske leverandører, er allerede eksponert for tilsvarende risiko. Her er tre konkrete grunner.
1. Leverandørtilgang kan endre seg over natten
Anthropic leverer Claude til bedrifter i hele verden. Hvis selskapet mister inntekter fra det amerikanske markedet, kan det påvirke prising, tjenestekvalitet eller til og med langsiktig levedyktighet. Det handler ikke om at Claude plutselig slutter å fungere, men om at forretningsgrunnlaget til leverandøren din endres av krefter du ikke kontrollerer.
Tilsvarende kan eksportkontroll, sanksjoner eller nye regulatoriske krav endre hvilke modeller som er tilgjengelige i Europa. Det har allerede skjedd med kinesiske teknologileverandører.
2. AI-regulering er geopolitikk
EU AI Act handler om forbrukervern og risikoklassifisering. Amerikanske presidentordrer handler om maktpolitikk. Kinesiske reguleringer handler om statskontroll. Norske virksomheter opererer i skjæringspunktet mellom disse tre regimene.
Å velge AI-leverandør er ikke lenger bare en teknisk beslutning. Det er en geopolitisk posisjonering, selv om du bare bruker ChatGPT til å skrive e-poster.
3. Intern kompetanse er forsikring
Bedrifter som har investert i å forstå hvordan språkmodeller fungerer, som har bygd egne workflows og tilpasset prosesser, er langt bedre rustet til å bytte leverandør enn bedrifter som bare har kjøpt en lisens og håpet på det beste.
Kompetanse er portabel. En leverandøravtale er det ikke.
Tre konkrete tiltak for norske bedrifter
Bygg leverandøruavhengige arkitekturer
Ikke lås deg til én AI-leverandørs API. Bruk abstraksjonssjikt som gjør det mulig å bytte mellom modeller uten å skrive om hele løsningen. Verktøy som LiteLLM, LangChain eller egne API-gateways gir deg denne fleksibiliteten.
Det betyr ikke at du må bruke alle modeller samtidig. Det betyr at du bør kunne bytte på uker, ikke måneder.
Lag en konkret overgangsplan
Hva skjer hvis din primære AI-leverandør blir utilgjengelig? Ikke som et teoretisk scenario, men som en operativ plan med navngitte alternativer, testede integrasjoner og definerte tidsrammer.
For kritiske arbeidsflyter bør du allerede ha testet minst én alternativ modell. For mindre kritiske oppgaver holder det å vite hvilke alternativer som finnes.
Invester i teamkompetanse
Den viktigste forsikringen mot leverandørrisiko er ikke teknisk redundans. Det er mennesker som forstår hva de jobber med. Når teamet ditt forstår prompt engineering, modellstyrker og arbeidsflytdesign, kan de tilpasse seg uansett hvilken modell som er tilgjengelig.
Lærdommen
Anthropic-saken viser noe mange i bransjen har visst lenge, men få har tatt konsekvensen av: AI-leverandørtilgang er ikke garantert. Den styres av politiske beslutninger, geopolitiske spenninger og kommersielle interesser som ligger langt utenfor din kontroll.
For norske virksomheter er svaret verken panikk eller passivitet. Det er pragmatisk risikohåndtering: diversifiser, bygg kompetanse, og sørg for at ingen enkeltleverandør kan lamme virksomheten din.



