Notebookcheck Logo

Anthropic weigert Pentagon om Claude AI open te stellen voor onbemande wapensystemen of gebruik voor massasurveillance

De Textron Aerosonde Mk. 4.7 UAS drone.
ⓘ Textron Systems
De Textron Aerosonde Mk. 4.7 UAS drone.
Anthropic zal waarschijnlijk het leidende AI-bedrijf blijven als het gaat om de veiligheid en sociale verantwoordelijkheid van zijn modellen. Ondanks alle mogelijke repercussies heeft het bedrijf het verzoek van het Pentagon afgewezen om de bescherming tegen militair gebruik en bewaking, die inherent is aan zijn Claude AI-agent, te verwijderen.

AI-moloch Anthropic zal de deadline van 27 februari die door het Pentagon is gesteld om zijn Claude-model te ontdoen van alle beveiligingen voor militair gebruik, voorbij laten gaan.

Volgens Dario Amodei, CEO van Anthropic, kan het AI-bedrijf Claude niet met een "goed geweten" openstellen voor onbemande wapensystemen of voor massale surveillance van Amerikaanse burgers, omdat het niet aantoonbaar veilig of betrouwbaar genoeg is voor dat doel.

Anthropic's Claude is tegelijkertijd een van de meest vooraanstaande AI-agenten die er zijn en de meest veiligheidsgerichte, met ingebouwde afschermingen tegen kwaadwillig gebruik van zijn AI-tools. Het Amerikaanse Ministerie van Oorlog (DoW) eist echter op chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/https://media.defense.gov/2026/Jan/12/2003855671/-1/-1/0/ARTIFICIAL-INTELLIGENCE-STRATEGY-FOR-THE-DEPARTMENT-OF-WAR.PDF dat de AI-modellen die het aanschaft geen andere beperkingen hebben dan zijn eigen duistere "rechtmatig gebruik":

Diversity, Equity, and Inclusion en sociale ideologie horen niet thuis in het DoW, dus we mogen geen AI-modellen gebruiken met ideologische "tuning" die hun vermogen om objectief waarheidsgetrouwe antwoorden op gebruikersvragen te geven in de weg staat

Het ministerie moet ook modellen gebruiken die vrij zijn van beperkingen in het gebruiksbeleid die legale militaire toepassingen kunnen beperken. Daarom draag ik de CDAO op om binnen 90 dagen benchmarks vast te stellen voor modelobjectiviteit als een primair aankoopcriterium, en draag ik de Under Secretary of War for Acquisition and Sustainment op om binnen 180 dagen standaard "elk wettig gebruik" op te nemen in elk DoW-contract waarmee AI-diensten worden aangeschaft.

Het Pentagon heeft Anthropic nu bedreigd met ernstige gevolgen die verder gaan dan een impact op de balans. Afgezien van het in gevaar brengen van het huidige plafondcontract van $200 miljoen voor het leveren van AI-hulpmiddelen aan het Pentagon, loopt Anthropic het risico aangewezen te worden als een risico voor de toeleveringsketen of gevraagd te worden om de barrières van Claude voor militair gebruik te verwijderen onder de wet uit 1950 die ontworpen was om Amerikaanse bedrijven te dwingen zich aan de wet te houden tijdens de Koreaanse oorlog om redenen van nationale veiligheid.

Het aanmerken als een risico voor de toeleveringsketen is meestal voorbehouden aan bedrijven met potentiële connecties met kwaadwillende overheidsinstanties zoals het Chinese Huawei of het Russische Kaspersky, dus als Anthropic op die lijst komt te staan, kan dat een flinke klap betekenen voor het winstpotentieel van het bedrijf. Ondanks het risico om een AI-paria te worden voor de huidige regering in het Witte Huis, houdt Amodei vol dat de huidige"geavanceerde AI-systemen gewoonweg niet betrouwbaar genoeg zijn om volledig autonome wapens aan te drijven", terwijl"het gebruik van deze systemen voor massale binnenlandse surveillance onverenigbaar is met democratische waarden"

Anthropic's Claude was het go-to model toen de regering voor het eerst AI-tools wilde gebruiken om geheime informatie te doorzoeken en was een hulp bij het plannen van de inval waarbij de Venezolaanse sterkhouder Maduro gevangen werd genomen, dus Dario Amodei zei dat hij hoopt dat het Pentagon zijn standpunt over de twee rode lijnscenario's die het in zijn AI-modellen blijft beperken, heroverweegt.

Bron(nen)

Please share our article, every link counts!
Mail Logo
> Overzichten en testrapporten over laptops en mobieltjes > Nieuws > Nieuws Archief > Nieuws archieven 2026 02 > Anthropic weigert Pentagon om Claude AI open te stellen voor onbemande wapensystemen of gebruik voor massasurveillance
Daniel Zlatev, 2026-02-27 (Update: 2026-02-27)