Een bedrijf dat weigert te buigen
In een zeldzame en openlijke reactie heeft het AI-bedrijf Anthropic publiekelijk gereageerd op de beschuldigingen van de Amerikaanse Secretary of War Pete Hegseth. Het bedrijf onderstreepte dat het niet zal toegeven aan druk om zijn technologie, met name het taalmodel Claude, onbeperkt beschikbaar te stellen voor het Amerikaanse leger zonder ethische waarborgen.
Deze verklaring komt te midden van een escalerende confrontatie tussen Anthropic en het Pentagon, waarin het bedrijf door Hegseth werd aangewezen als een “supply chain risk” – een klassering die historisch gezien alleen voor buitenlandse rivalen is gebruikt.
|
Statement on the comments from Secretary of War Pete HegsethAnthropic's response to the Secretary of War and advice for customers |
De kern van het geschil
Anthropic benadrukt dat de impasse in de onderhandelingen met het Department of War draait om twee specifieke punten:
- Massale binnenlandse surveillance: het bedrijf weigert expliciet toestaan dat zijn AI-tools gebruikt worden om burgers in de VS grootschalig te monitoren.
- Volledig autonome wapens: volgens Anthropic zijn de huidige AI-modellen simpelweg niet betrouwbaar genoeg om zonder menselijke tussenkomst dodelijke beslissingen te nemen.
Het bedrijf stelt dat deze beperkingen juridisch en ethisch noodzakelijk zijn, en dat zij tot op heden geen enkele militaire missie hebben geschaad door deze principes te handhaven.
Recht tegen de macht
Anthropic laat in duidelijke bewoordingen weten dat het elk supply-chain-risico-label in de rechtbank zal aanvechten. Het noemt het gebruik van zo’n maatregel tegen een Amerikaans techbedrijf “ongekend en gevaarlijk als precedent”.
Het benadrukt bovendien dat de mogelijke classificatie door het ministerie alleen betrekking kan hebben op Department of War-contractwerk, en geen invloed zou mogen hebben op commerciële klanten die Claude gebruiken voor andere toepassingen.
Niet alleen, maar principieel
Het conflict heeft niet alleen juridische maar ook maatschappelijke dimensies. Werknemers van rivaliserende techbedrijven, politieke leiders en publieke stemmen mengen zich in de discussie over hoe westerse democratieën AI mogen inzetten voor defensie zonder democratische principes op te offeren.
Wat staat er op het spel?
Deze botsing staat symbool voor een breder debat: moet overheidsgebruik van AI grenzen kennen? En wie bepaalt die grenzen — defensieministers, techbedrijven, of de rechterlijke macht?
Met de veiligheid van zowel soldaten als burgers als inzet, en de toekomst van AI-ethiek op het spel, is dit niet zomaar een zakelijk meningsverschil, maar een cruciaal moment in de geschiedenis van technologisch-politieke besluitvorming.









