Het Amerikaanse ministerie van Defensie overweegt de samenwerking met AI-bedrijf Anthropic te beëindigen vanwege een meningsverschil over de manier waarop kunstmatige intelligentie binnen het leger mag worden ingezet. Volgens Axios dreigt het Pentagon de toegang van Anthropic tot defensieprojecten te beperken als het bedrijf vasthoudt aan zijn huidige gebruiksregels.
Centraal in het conflict staan de beperkingen die Anthropic oplegt aan zijn AI-modellen, waaronder de Claude-serie. Het bedrijf stelt grenzen aan toepassingen zoals volledig autonome wapens en grootschalige binnenlandse surveillance. Daarmee wil het bijdragen aan het ethisch gebruik van AI binnen gevoelige omgevingen.
Botsing tussen veiligheid en ethiek
Het United States Department of Defense dringt erop aan dat AI-systemen beschikbaar zijn voor alle wettelijk toegestane militaire doeleinden, waaronder inlichtingenwerk, operationele planning en ondersteuning op het slagveld. Defensiefunctionarissen stellen dat te strikte ethische richtlijnen de inzetbaarheid van AI in de praktijk kunnen beperken, vooral binnen geclassificeerde netwerken.
Anthropic benadrukt dat zijn beleid juist bedoeld is om risico’s te beperken en verantwoord gebruik te stimuleren. Volgens het bedrijf zijn duidelijke grenzen noodzakelijk om misbruik en onbedoelde gevolgen te voorkomen.
Mogelijke gevolgen voor defensieprojecten
Een van de opties die wordt overwogen, is om Anthropic aan te merken als ‘supply chain risk’. Dat zou betekenen dat defensiebedrijven en aannemers het gebruik van de technologie moeten vermijden. Een dergelijke maatregel kan grote gevolgen hebben voor lopende en toekomstige AI-projecten binnen het Amerikaanse leger.
De Claude-modellen van Anthropic worden momenteel via partners ingezet in bepaalde militaire systemen. Een breuk zou deze toepassingen onder druk zetten en mogelijk leiden tot een overstap naar andere aanbieders.
Concurrentie tussen AI-leveranciers
Andere grote AI-bedrijven, zoals OpenAI, Google en xAI, hebben in verschillende mate ingestemd met ruimere gebruiksvoorwaarden voor defensietoepassingen. Dit vergroot de druk op Anthropic, dat vasthoudt aan zijn eigen visie op verantwoord en ethisch gebruik van AI.
Overleg nog gaande
Anthropic heeft aangegeven dat de gesprekken met het Pentagon nog lopen. Beide partijen zoeken naar een balans tussen operationele behoeften en ethische uitgangspunten. Het ministerie van Defensie heeft vooralsnog geen officiële verklaring afgelegd over de mogelijke maatregelen.
De uitkomst van het conflict kan bepalend zijn voor de toekomstige rol van commerciële AI-systemen binnen defensie en voor de vraag in hoeverre ethische richtlijnen leidend blijven bij militaire toepassingen van kunstmatige intelligentie.
