Trump-administrationen stoppar Anthropic och välkomnar OpenAI till Pentagon

Trump-administrationen fattade på fredagen beslutet att förbjuda federala myndigheter att använda produkter från AI-företaget Anthropic. Detta förvärrar en konflikt om hur privata AI-tillverkare kan styra användningen av sina system av den amerikanska militären. Kort efteråt tillkännagav OpenAI:s vd, Sam Altman, att hans företag ingått ett avtal om att förse Pentagon med sin teknik, på uppenbarligen samma villkor som den amerikanska militären hade avvisat för Anthropic.

President Donald Trump kritiserade Anthropic som ”vänstergalningar” och beordrade i ett inlägg på Truth Social att ”ALLA federala myndigheter” omedelbart skulle sluta använda deras teknik. Samtidigt förberedde sig Pentagon för att klassificera företaget som en ”risk för leveranskedjan”, vilket ofta associeras med utländska motståndares tekniska produkter, som telekomutrustning från kinesiska Huawei.

Detta beslut följer på en offentlig dispyt mellan Anthropic och försvarsminister Pete Hegseth angående ett krav på ”alla lagliga ändamål”. Det innebär att när militären licensierar en AI-modell, måste den vara fri att användas för alla lagliga uppdrag utan begränsningar från leverantörens säkerhetspolicyer.

På sociala medier upprepade Hegseth Trumps kritik och anklagade Anthropic och dess vd Dario Amodei för att försöka underkuva den amerikanska militären. Han kallade det en feg handling av företagsmässig dygdssignalering som sätter Silicon Valley-ideologin före amerikanska liv. Hegseth menade att deras verkliga mål är att ta veto över militära beslut, vilket han ansåg vara oacceptabelt.

I ett uttalande svarade Anthropic sent på kvällen att de ännu inte mottagit någon direkt kommunikation från krigsdepartementet eller Vita huset angående statusen för deras förhandlingar. Företaget ifrågasatte även beteckningen ”risk i leveranskedjan”, som de menade skulle vara juridiskt osund och skapa ett farligt prejudikat för amerikanska företag som förhandlar med regeringen.

Enligt Axios planerar försvarsdepartementet att säga upp ett kontrakt med Anthropic värt upp till 200 miljoner dollar och kräva att försvarsentreprenörer och andra leverantörer intygar att de inte använder Anthropics Claude-modell i arbete kopplat till Pentagon. Myndigheter och entreprenörer ges sex månader på sig att övergå till alternativ.

Övergången kan bli problematisk, eftersom Claude har använts i hemliga militära system som stödjer några av Pentagons mest känsliga underrättelseoperationer, vapenutveckling och operativ planering. Försvarstjänstemän har beskrivit Claude som mycket kapabel och erkänt att det skulle vara svårt att skilja den från befintliga arbetsflöden.

Anthropic hävdar att vissa användningsområden, särskilt massövervakning och helt autonoma vapen, bör förbli förbjudna. Amodei uttryckte i en essä att företaget inte kan ta bort dessa skyddsåtgärder ”med gott samvete” och varnade för att dagens AI-system inte är tillräckligt pålitliga för att fatta helt autonoma dödliga beslut.

Pentagon å sin sida hävdar att militären redan arbetar enligt sina egna regler och att dess uppdrag inte kan begränsas av en leverantörs användarvillkor. På kort sikt tvingar administrationens beslut Pentagon att hantera en känslig övergång: att ta bort Anthropics modell från klassificerade miljöer samtidigt som de upprätthåller kontinuitet i underrättelseanalys och planeringsuppgifter som har börjat integrera generativ AI.

De långsiktiga konsekvenserna av förbudet är mer omfattande. Det signalerar att tillgången till den federala marknaden, särskilt försvarsmarknaden, kan bero på att man accepterar villkoren för ”all laglig användning”. Detta kan potentiellt minska inflytandet för AI-företag som försöker införa strikta begränsningar för vissa nationella säkerhetsapplikationer.

Det väcker också praktiska frågor för AI-företag som leverantörer till den amerikanska regeringen. Om regeringen tvingar bort en ledande AI-leverantör från känsliga system, kan myndigheter och entreprenörer konsolidera sig kring färre alternativ, vilket ökar beroendet av de företag som fortfarande är villiga och kapabla att arbeta i hemliga miljöer.

Det finns farhågor om att dessa störningar i kritisk militär infrastruktur kan utgöra ett ytterligare hot mot den nationella säkerheten. Den amerikanske demokratiske senatorn Mark R. Warner uttryckte att Trumps och Hegseths insatser utgör en risk för nationell säkerhet. Han påpekade att presidentens direktiv om att stoppa användningen av ett ledande amerikanskt AI-företag inom den federala regeringen, tillsammans med uppviglande retorik mot företaget, väcker allvarliga farhågor om huruvida beslut om nationell säkerhet drivs av noggranna analyser eller politiska överväganden.

Beslutet kan förändra konkurrenslandskapet. Elon Musk:s xAI har redan undertecknat ett avtal om att införa sin Grok-modell i klassificerade militära system, vilket positionerar xAI som en potentiell ersättare om Anthropics relation med Pentagon skulle bryta samman. Det finns dock betydande farhågor om Groks säkerhet och tillförlitlighet, även om Pentagon har godkänt den för klassificerade miljöer.

Samtidigt har Pentagon fört diskussioner med OpenAI och Google om att utvidga tillgången för deras modeller från oklassificerade system till mer känsliga miljöer. Diskussionerna med OpenAI bar frukt, då Altman meddelade på sociala medier att de nått en överenskommelse med krigsdepartementet om att använda sina modeller i deras hemliga nätverk.

Det verkar som att Pentagon accepterade samma villkor från OpenAI som man avvisade för Anthropic. Altman framhöll att två av deras viktigaste säkerhetsprinciper är förbud mot inhemsk massövervakning och mänskligt ansvar för användning av våld, inklusive för autonoma vapensystem. Försvarsdepartementet instämmer i dessa principer och de återspeglas i lagar och policyer.

Även bland konkurrenterna väckte konflikten med Anthropic sympati. Hundratals anställda på Google och OpenAI stöttade Anthropic i ett upprop, vilket tydliggör de interna spänningarna inom AI-branschen kring militära tillämpningar. En enad avståndstagande från AI-sektorn kan potentiellt omintetgöra förbudet mot Anthropic.

Anthropic har meddelat att de kommer att samarbeta med övergången för att undvika störningar i pågående uppdrag och att de avser att bestrida beteckningen ”risk i leveranskedjan” i domstol. Administrationens beslut skapar flera omedelbara testfall för hur djup integrationen av Anthropics verktyg är i verksamheterna och hur snabbt de kan migrera utan att påverka prestanda eller säkerhet.

För konkurrenterna uppstår också en balansgång: hur man tillgodoser Pentagons krav på ”all laglig användning” eller, i fallet med OpenAI, hur de kan balansera sina säkerhetsprinciper samtidigt som de hanterar intern och extern granskning av övervakning och autonomi.

Förbudet väcker en grundläggande politisk fråga som går bortom Anthropic: I kapplöpningen om att implementera banbrytande AI för nationell säkerhet, vem sätter gränserna – regeringen, som behöver operativ flexibilitet, eller de privata företag som bygger och kontrollerar tillgången till tekniken?