In een tijd waarin “AI-ethiek” breed besproken wordt, zwijgt diezelfde discussie opvallend stil over waarschijnlijk de meest existentiële vorm van AI-toepassing: oorlogvoering. Terwijl techbedrijven en academici zich richten op beschaving – zoals banale misstanden in chatbots – evolueert AI al naar moordmachines die kunnen beslissen wie er leeft of sterft.
AI-ethiek verpakt als beschaafde discussie, met een blinde vlek voor oorlog
Louis Mahon wijst erop dat de ethiekdebatten rondom AI vooral draaien om maatschappelijke irritaties en alignering, maar nauwelijks om gewapende toepassingen. AI wordt in militaire domeinen stilaan ingezet voor inlichtingen, doelherkenning en autonome dronebeslissingen. De ethische gevaren daarvan – wapensovertreding, asymmetrische surveillance – zijn veel groter dan de meeste actuele AI-dilemma’s.
“AI Ethics” Discourse Ignores Its Deadliest Use: WarTech leaders warn about apocalyptic sci-fi scenarios, while militaries are already weaponizing artificial intelligence. |
Autonome wapens maken oorlog goedkoper, niet veiliger
Geoffrey Hinton – vaak de 'godfather van AI' genoemd – waarschuwt dat autonome wapens conflicten makkelijker starten door de menselijke prijs te verlagen. “Geen lijkschouwerijen, maar roldeurs naar invasies,” stelt hij. Drones van enkele honderden dollars kunnen al miljoenenwaardige tanks vernietigen; menselijke piloten worden zo overbodig.
AI godfather warns killer robots could make war easier to start, not safer to fightAI godfather Geoffrey Hinton warns that killer robots could make wars easier to start by lowering the human cost of conflict. However the advanced technology he suggests will make the wars more lethal. |
Bias in militaire AI: Dreiging voor onschuldigen
De ICRC-blog wijst op een complex, maar fundamenteel probleem: bias in AI-systemen kan levensreddende principes van het internationaal humanitair recht ondergraven. Wanneer datasets niet divers of representatief genoeg zijn, kunnen AI-systemen fouten maken—zoals het géén onderscheid maken tussen burgers en strijders of bepaalde groepen simpelweg niet detecteren, wat proportioneel geweld en voorzorgsmaatregelen in gevaar brengt.
‘Constant care’ must be taken to address bias in military AIHow bias in military AI may manifest in more complex and subtle ways than portrayed in policy debates, and affect compliance with IHL. |
Gendrémissie en fragmentatie in wapenregulering
In een aflevering van het podcastprogramma Interpreting India benadrukt Shimona Mohan van UNIDIR hoe AI als dual-use technologie (zowel civiel als militair) het moeilijk maakt om één duidelijk onafhankelijk regelkader te creëren. Internationale onderhandelingen zijn fragmentarisch, en gender- en rasgevoeligheden blijven onderbelicht. Ze pleit voor een “levenscyclus-benadering” met toezicht vanaf ontwerp tot stillegging – met ethiek als integraal onderdeel.
Van stille support aan AI-gedreven oorlogvoering tot beleidslawaai over chatbots – er blijft sprake van een ethische dissonantie. Hoeveel minder zichtbaar een discussie over militaire AI ook is: zij raakt direct aan leven en dood, fundamentele mensenrechten en mondiale stabiliteit. Het is hoog tijd dat AI-ethici, politiek en publiek deze stilte doorbreken.









