Pentagon klassar Anthropic som nationell säkerhetsrisk

Pentagon har officiellt klassat Anthropic som en nationell säkerhetsrisk. Detta beslut har sin grund i en konflikt mellan Trump-administrationen och Anthropic angående användningen av företagets AI-teknologi. Anthropic strävar efter att införa restriktioner som hindrar deras AI, benämnd Claude, från att användas för inhemsk övervakning och i autonoma vapen.

Senaste nyheterna indikerar att Anthropic planerar att överklaga beslutet i domstol. Enligt Dario Amodei, vd och grundare av företaget, är detta ett viktigt steg för att skydda företagets intressen och säkerhet. I ett blogginlägg skriver han att ”Anthropic har mycket mer gemensamt med krigsdepartementet än vi har oenigheter. Vi är båda engagerade i att främja USA:s nationella säkerhet och försvara det amerikanska folket.”

Det är för närvarande oklart vilken domstol som överklagan kommer att lämnas in till, men enligt uppgifter från Techcrunch kan det bli en federal domstol i Washington D.C.

Denna situation har väckt stor uppmärksamhet i teknik- och säkerhetskretsar, särskilt med tanke på den växande debatten om användningen av AI i känsliga sammanhang. Konflikten mellan säkerhet och innovation är en central fråga i den nuvarande diskussionen kring AI-teknologi och dess potentiella risker.