AI-principer utmanar makten: Anthropics vägran mot Trump och Pentagon

AI-principer
AI-principer står i centrum när Anthropic vägrar ge efter för Trump och Pentagon. Läs om konflikten och vad som står på spel för AI-branschen.. Foto: ChatGPT
Publicerad:
Uppdaterad:

AI-principer utmanar makten: Anthropics vägran mot Trump och Pentagon

AI-företaget Anthropic har hamnat i centrum för en stormig konflikt med USA:s politiska och militära ledning. Med “AI-principer” som ledstjärna har bolaget valt att stå emot krav från både president Donald Trump och försvarsminister Pete Hegseth – krav som skulle innebära att Anthropics teknik används för massövervakning och autonoma vapen.

Bakgrund: AI-principer och Anthropics profil

Anthropic grundades 2021 och har snabbt blivit en tung aktör inom artificiell intelligens. Företaget utvecklar avancerade språkmodeller och är mest känt för chatboten Claude, en direkt konkurrent till OpenAI:s ChatGPT. Med samarbeten med teknikjättar som Nvidia och Microsoft och en värdering på 380 miljarder dollar, är Anthropic ett av världens mest värdefulla AI-bolag.

Bolaget har profilerat sig genom att kombinera teknisk innovation med tydliga etiska riktlinjer. Två av deras viktigaste AI-principer är att förhindra massövervakning av civila och att aldrig tillåta att deras teknik används för autonoma vapen utan mänsklig kontroll. Dessa principer är i linje med Principer och tillvägagångssätt för ansvarsfull AI, som betonar rättvisa och lika behandling av alla människor.

Konflikten med Pentagon och Trump

Anthropic har ett tvåårigt kontrakt med Pentagon värt cirka 200 miljoner dollar, där de ska bidra till utvecklingen av avancerade försvarssystem. Men när Pentagon krävde att bolaget skulle ta bort sina restriktioner kring massövervakning och autonoma vapen, vägrade Anthropics vd Dario Amodei att kompromissa:

– Vår starka preferens är att fortsätta tjänstgöra departementet och våra soldater med våra två säkerhetsprinciper på plats. Vi är redo att fortsätta jobba för att stötta nationell säkerhet, sa Dario Amodei enligt The Guardian.

Detta ledde till att försvarsminister Pete Hegseth hotade att säga upp kontraktet. Donald Trump gick ännu längre och beordrade att alla statliga avtal med Anthropic skulle brytas. På sin plattform Truth Social skrev han i versaler: “USA kommer aldrig tillåta att ett radikalt vänster, woke företag dikterar hur vår stolta militär strider och vinner.” Han kallade även Anthropics ledning för “left wing nut jobs”.

Anthropic svarar med rättsliga åtgärder

Anthropic svarade snabbt och meddelade att de kommer att bestrida Trumps beslut i domstol. De står fast vid sina AI-principer och vägrar ge efter för politiska påtryckningar, även om det innebär att förlora lukrativa kontrakt. Deras ståndpunkt kan ses som en del av en bredare rörelse för ansvarsfull användning av AI, där företag strävar efter att omsätta principer till praktik.

OpenAI:s parallella väg

Samtidigt meddelade OpenAI:s vd Sam Altman att de nått en överenskommelse med försvarsdepartementet där deras egna säkerhetsprinciper – som liknar Anthropics – har inkluderats i avtalet. Det är dock oklart om OpenAI:s krav är lika strikta som Anthropics.

Faq om AI-principer och Anthropic

Vad är Anthropics AI-principer?

Anthropic har två centrala principer: förbud mot massövervakning av civila och krav på mänsklig kontroll över autonoma vapen.

Varför vägrar Anthropic gå med på Pentagons krav?

Företaget anser att deras teknik inte ska användas för att övervaka civila eller för att låta vapen fatta livsavgörande beslut utan mänsklig inblandning.

Hur har Trump reagerat på Anthropics vägran?

Donald Trump har beordrat att alla statliga kontrakt med Anthropic ska brytas och kallat företaget för “vänstergalningar”.

Vad händer nu mellan Anthropic och den amerikanska staten?

Anthropic har meddelat att de kommer att ta strid i domstol för att försvara sina AI-principer och kontrakt.

Hur skiljer sig OpenAI:s avtal med Pentagon?

OpenAI har fått med sina säkerhetsprinciper i avtalet, men det är oklart om de är lika långtgående som Anthropics krav.