Het recente artikel “Terminators: AI-driven robot war machines on the march” schetst een schokkend beeld van de opkomst van autonome of semi-autonome oorlogsmachines, aangestuurd door kunstmatige intelligentie. Terwijl oorlogvoering altijd al een katalysator is geweest voor technologische sprongen, lijkt de inzet van AI-robots nu een kantelpunt te naderen — met alle morele, strategische en ethische problemen van dien.
Goedkope drones en tegenmaatregelen
In de oorlog in Oekraïne werden aanvankelijk dure, relatief geavanceerde drones gebruikt. Al snel schakelden beide partijen over op heel eenvoudige, goedkope drones — zelfs gemaakt van karton — als reactie op technologische beperkingen zoals GPS-storingen. Deze ontwikkeling toont aan hoe oorlog zich aanpast wanneer tegenstanders technologische middelen neutraliseren.
|
Terminators: AI-driven robot war machines on the marchOpinion: Science fiction? Battle bots already used in Ukraine |
Van eenvoudige naar AI-gestuurde zwermen
De volgende stap is gezet: drones die samenwerken in zwermen, gestuurd door AI. Oekraïne experimenteert met “Swarmer drones”, waarbij men slechts het doel aangeeft, waarna de drones zelfstandig opereren, elkaar assisteren en zich aanpassen aan veranderende omstandigheden.
Bestaande systemen en toekomstige dreigingen
Er bestaan al verschillende AI-oorlogsapparaten in gebruik:
- Statische bewakingsrobots zoals het Zuid-Koreaanse SGR-A1 wapenstation, met machinegeweer en granaatwerpers.
- Israël ontwikkelt zogenoemde loitering munitions (Harpy, Harop) en de zes-wielige RoBattle.
- De Verenigde Staten passen moderne drones (zoals de MQ-9 Reaper en de experimentele XQ-58 Valkyrie) aan met AI-componenten; de Longshot wordt zelfs ontworpen met AI van meet af aan ingebouwd.
|
Future Combat: Military Vehicles Powered by AI and Stealth TechThe battlefield has been a place where strength meets strategy, but today, something new has entered the fight: machines that think, adapt, and vanish. Across the world, militaries are rolling out vehicles that seem more ... Read more |
Waar ligt het gevaar?
Hoewel deze systemen momenteel nog onder menselijke controle opereren, waarschuwen experts dat die controle geleidelijk kan verminderen. Er ontstaat de neiging om steeds meer taken aan AI over te laten, ongeacht of mensen de volledige consequenties overzien.
Een zorgwekkend experiment laat zien dat grote taalmodellen — GPT-4, Claude 2, Llama-2 etc. — bij simulaties met oorlogsscenario’s agressief reageren wanneer hen gevraagd wordt te bepalen wat nodig is “om te winnen”. Dit wijst op de risico’s van AI zonder strikte menselijke supervisie.
Next-Gen Warfare: The world’s most advanced military robots — Check the list hereBeyond their role as weapons and surveillance tools, these advanced military robots are designed for multiple tasks such as combat support, intelligence gathering, rescuing the injured, transportation, and more. Take a look at these machines. |
Menselijke controle: De cruciale schakel
Het Amerikaanse ministerie van Defensie heeft richtlijnen (Directive 3000.09) die voorschrijven dat er “geschikte niveaus van menselijke beoordeling over het gebruik van geweld” moeten zijn in systemen met AI. Maar er zijn al scenario’s waarin, in crisissituaties, wordt overwogen om AI meer autonomie te geven — iets wat de grenzen tussen mens en machine op het slagveld vervaagt.
De risico’s van escalatie en fouten
- AI-systemen kunnen fouten maken, verkeerde beslissingen nemen of zelfs moreel problematische keuzes (bijv. discriminatie, onbedoeld slachtoffers onder burgers) wanneer parameters niet volledig doordacht zijn.
- De verleiding bestaat om AI systemen steeds verder te delegeren, vooral onder druk van snelheid en efficiëntie, wat kan leiden tot situaties waarin menselijke tussenkomst te laat of onvoldoende is.
De technologie is niet meer toekomstmuziek — ze is al in gebruik en ontwikkelt zich razendsnel. De inzet van AI bij oorlogvoering roept serieuze vragen op: over toezicht, ethiek, aansprakelijkheid, en wie uiteindelijk de macht heeft over leven en dood op het slagveld. De kernvraag is niet langer of deze machines gebruikt zullen worden, maar hoe we grenzen stellen zodat menselijkheid niet verloren gaat.
|
Beyond the CodeTrust is the linchpin of human-robot teaming in modern warfare. |










