In 2025 waren autonome wapensystemen niet langer toekomstmuziek of alleen onderwerp van ethische discussies. Ze maakten inmiddels deel uit van de manier waarop dagelijks oorlog wordt gevoerd. In Oekraïne en Gaza zagen we hoe kunstmatige intelligentie, robotica en autonome technologie zich steeds dieper nestelden in militaire operaties – van planning tot uitvoering. Geen volledig zelfstandige ‘killer robots’, maar wel een duidelijke trendbreuk: autonomie was niet langer een experiment, maar vast onderdeel van het beschikbare arsenaal.
De meeste systemen stonden nog onder menselijk toezicht, maar software nam steeds meer taken over. Algoritmes zorgden voor navigatie, doelherkenning, dreigingsanalyse en missieplanning. Mensen grepen alleen nog in op cruciale momenten. Daardoor vervaagde het verschil tussen afstandsbediening en autonomie, wat zowel militaire strategie als juridische kaders op de proef stelde.
Autonome technologie verving soldaten niet, maar versnelde reacties, vergrootte het bereik en maakte het mogelijk om met weinig personeel veel systemen tegelijk aan te sturen. Die aanpak vond zijn weg naar lucht, land én zee.
Oekraïne: het testveld van autonome oorlogsvoering
De oorlog in Oekraïne bleef ook in 2025 het belangrijkste praktijklaboratorium voor autonome wapens. Drones met geavanceerde beeldherkenning werden minder gevoelig voor verstoring en konden zelfstandig doelen herkennen, koers wijzigen en aanvallen uitvoeren zonder constante aansturing.
Op de grond gingen onbemande voertuigen verder dan verkenning of bevoorrading. Zwaarbewapende rupsrobots, deels autonoom opererend, werden ingezet voor hinderlagen, verdediging en risicovolle missies. Zo konden infanterie-eenheden hun vuurkracht vergroten zonder zelf gevaar te lopen.
Ook op zee werd volop geëxperimenteerd met autonome oppervlakteschepen en onderwaterdrones. Oekraïne paste ze steeds vaker toe, met ingrijpende gevolgen voor de maritieme machtsverhoudingen in de Zwarte Zee. Dankzij deze relatief goedkope technologie kunnen ook kleinere landen serieuze maritieme slagkracht ontwikkelen.
Gaza: AI in de stadsoorlog
In Gaza werd AI vooral ingezet bij inlichtingen, surveillance en doelbepaling. De systemen namen niet zelf de beslissingen, maar analyseerden grote hoeveelheden data uit drones, sensoren en communicatie. Ze genereerden doelwittenlijsten en gaven aanbevelingen aan commandanten, die formeel de eindbeslissing bleven nemen. Maar de snelheid en schaal van operaties werden wel steeds meer bepaald door automatisering.
Dat leidde tot stevige discussies over proportionaliteit, verantwoordelijkheid en bescherming van burgers. Mensenrechtenorganisaties vroegen zich af of menselijke controle nog betekenisvol is als algoritmes onder hoge tijdsdruk dodelijke keuzes filteren en versnellen.
Zwermen en schaalvergroting
Een opvallende ontwikkeling in 2025 was de focus op schaal. Legers investeerden flink in ‘swarms’: groepen van tientallen tot honderden drones die met elkaar samenwerken, zich aanpassen aan de situatie en als collectief reageren op dreiging. Volledig autonome zwermen zijn nog zeldzaam, maar onder menselijk toezicht zijn ze nu al operationeel. Eén operator kan meerdere drones tegelijk aansturen zonder ze stuk voor stuk te hoeven bedienen.
Deze aanpak biedt snelheid, massa en psychologisch effect, en dat tegen veel lagere kosten dan traditionele wapensystemen. Het onderstreept een trend: in moderne oorlogsvoering draait het steeds minder om de kracht van één enkel systeem, en steeds meer om snelheid, aantallen en flexibiliteit.
Ook buiten de frontlinie: industrie in stroomversnelling
Autonome wapens rukken niet alleen op in conflictgebieden. De defensie-industrie draait op volle toeren. Er komen steeds meer toepassingen: van loitering munitions en autonome luchtverdediging tot slimme logistiek. Lessen uit Oekraïne en Gaza vinden razendsnel hun weg naar internationale inkoopprogramma’s. De innovatielus tussen oorlog en industrie is korter dan ooit.
Dat roept zorgen op over verspreiding. Veel van deze systemen – vooral in de lucht en op zee – zijn eenvoudig te kopiëren en aan te passen. Daardoor worden ze toegankelijk voor een breder scala aan landen én gewapende groeperingen.
Wetgeving loopt achter
Internationaal wordt er nog steeds gepraat over regels voor dodelijke autonome wapens, vooral bij de Verenigde Naties. Vrijwel alle landen vinden dat menselijke controle noodzakelijk is, maar over de precieze invulling lopen de meningen uiteen. Ondertussen gaat de technologische ontwikkeling gewoon door, terwijl regelgeving achterblijft. Dat zorgt voor onduidelijkheid over juridische aansprakelijkheid.
De kernvraag blijft: als een algoritme in de praktijk bepaalt wie leeft en wie sterft – ook al zit er formeel nog een mens ‘in de lus’ – wie is dan verantwoordelijk?
Een nieuw normaal
Aan het eind van 2025 zijn autonome wapens geen ‘opkomende technologie’ meer, maar vaste prik op het slagveld. De conflicten in Oekraïne en Gaza maken duidelijk: autonomie sluipt erin, via software, sensoren en machine-intelligentie die worden ingebouwd in bestaande systemen.
Het resultaat is een oorlogsvoering die sneller, data-gestuurder en steeds meer door machines wordt bepaald – terwijl de mens steeds harder moet rennen om bij te blijven, zowel in de operatie als in de ethiek.
