Op een recent symposium in de Universiteit van Chicago kwamen tientallen kernwapenexperts, militairen, wetenschappers en Nobelprijswinnaars bijeen. Niet om terug te blikken op het verleden van nucleaire dreiging, maar om een nieuw hoofdstuk te openen – een hoofdstuk waarin kunstmatige intelligentie en kernwapens steeds meer met elkaar verweven raken.
De centrale boodschap? De integratie van AI in nucleaire besluitvorming is onvermijdelijk. Niet langer sciencefiction, maar een reële ontwikkeling die zich langzaam voltrekt, vaak ongemerkt, in de systemen van grootmachten als de VS, China en Rusland.
AI als adviseur, geen bevelhebber – voorlopig
Voorlopig krijgt AI geen directe toegang tot de nucleaire lanceerknop. De mens blijft in de commandoketen de uiteindelijke beslisser. Maar dat wil niet zeggen dat AI geen invloed uitoefent. Steeds vaker worden AI-systemen gebruikt om enorme hoeveelheden data te analyseren, vroegtijdige dreigingen te detecteren of scenario’s te simuleren.
Dat klinkt onschuldig – zelfs nuttig – maar experts waarschuwen dat de grens tussen ondersteunen en beslissen flinterdun is. Wat als een AI een valse waarschuwing geeft? Of een complexe dreiging verkeerd inschat? In crisistijd telt elke seconde – en juist dan kunnen algoritmes het verschil maken tussen vrede en vernietiging.
De lessen van Petrov: Waarom machines geen intuïtie hebben
Stanislav Petrov – de Sovjetofficier die in 1983 weigerde te geloven dat de VS een nucleaire aanval was gestart – is een vaak aangehaald voorbeeld. Zijn wantrouwen in de computersystemen redde mogelijk miljoenen levens. Petrov voelde dat er iets niet klopte.
Maar AI kent geen intuïtie. Het redeneert binnen kaders van data en training. Wat gebeurt er als zo’n systeem een alarm foutief interpreteert en die fout versterkt? Of als besluitvormers zich blindelings verlaten op een AI-advies, uit tijdsdruk of gemak?
“AI vindt altijd zijn weg naar binnen”
Volgens een gepensioneerd generaal-majoor van de Amerikaanse luchtmacht, moet niemand verbaasd zijn dat AI ook in kernwapensystemen binnendringt. “Net zoals elektriciteit, vindt AI uiteindelijk zijn weg naar elk systeem.” Volgens hem zullen landen AI aanvankelijk gebruiken voor analyse en coördinatie, maar stap voor stap zal die rol uitbreiden. Misschien tot aan de drempel van volledige autonomie.
De illusie van controle
Veel regeringen benadrukken dat de mens altijd het laatste woord zal hebben. Maar volgens critici is dat een illusie. Want wat betekent ‘controle’ nog als je beslissingen baseert op aanbevelingen van systemen die je niet begrijpt? Zogenaamde ‘black-box AI’ – waarbij de werking van het algoritme zelfs voor programmeurs niet transparant is – maakt menselijke controle tot een formaliteit.
Bovendien werkt AI het beste in situaties waar snelheid telt – precies waar kernwapenbeslissingen vaak om draaien. De verleiding om AI meer verantwoordelijkheid te geven, groeit met elke seconde die telt.
De verkeerde lessen van het verleden
Sommige voorstanders vergelijken de opkomst van AI met het Manhattanproject, het programma dat de eerste atoombom ontwikkelde. Maar die vergelijking gaat mank, zeggen academici. Een kernwapentest is fysiek, meetbaar, eindig. AI is fluïde, voortdurend in ontwikkeling en nauwelijks testbaar in crisissituaties.
Volgens een Stanford-hoogleraar is het gevaarlijk om AI te framen als een nieuwe vorm van nucleaire technologie. “Het voedt een militaristische mindset, en die is niet zonder risico’s.”
Wat staat ons te wachten?
De AI-systemen die vandaag slechts dreigingssignalen analyseren, kunnen morgen suggesties doen voor tegenaanvallen – en overmorgen misschien zelf doelwitten kiezen. Dit scenario is niet verzonnen door sciencefictionauteurs, maar geschetst door defensie-experts en wetenschappers.
De centrale vraag is dus niet meer of AI een rol zal spelen in nucleaire systemen, maar of we erin slagen de mens daadwerkelijk in control te houden. Want in een wereld waar algoritmes sneller denken dan wij, wordt menselijke verantwoordelijkheid steeds kwetsbaarder.
Slotbeschouwing: De rode lijn tussen helpen en beheersen
AI is een krachtig hulpmiddel, maar als we het toelaten in de cockpit van ’s werelds meest destructieve wapens, moeten we buitengewone voorzichtigheid betrachten. Wat op papier als advies klinkt, kan in praktijk beslissend blijken. En wat vandaag vrijwillig is, kan morgen automatisch worden.
Zonder stevige internationale afspraken, transparantie over systemen en onwrikbare menselijke controle, dreigt AI de logica van vernietiging over te nemen – zonder dat iemand nog precies weet waarom.
Nuclear Experts Say Mixing AI and Nuclear Weapons Is InevitableHuman judgement remains central to the launch of nuclear weapons. But experts say it’s a matter of when, not if, artificial intelligence will get baked into the world’s most dangerous systems. |









