In een conferentiecentrum in Las Vegas werd onlangs een bijzonder experiment onthuld. De Amerikaanse luchtmacht liet zien hoe kunstmatige intelligentie in staat was om gevechtsplannen te schrijven. Niet zomaar plannen: ze rolden honderden keren sneller uit de computer dan een team van menselijke strategen ooit zou kunnen produceren.
De oefening kreeg de naam DASH-2, en draaide om het genereren van “Courses of Action” — scenario’s voor het inzetten van vliegtuigen en wapens. Terwijl officieren toekeken, spuugden algoritmes duizenden mogelijkheden uit. Het leek alsof de toekomst van oorlogsvoering in real-time zichtbaar werd.
Air Force Grapples with Limitations of AINow that the Air Force is starting to deploy artificial intelligence operationally, service leaders are grappling with AI’s limitations. |
Snelheid met een schaduwzijde
De snelheid was indrukwekkend, maar al snel bleek dat er een addertje onder het gras zat. Niet alle plannen waren bruikbaar. Sommige voorstellen waren simpelweg niet uitvoerbaar, andere botsten met de tactische realiteit. Het werd duidelijk dat een algoritme weliswaar kan rekenen, maar geen instinct heeft voor de complexiteit van het slagveld.
Een generaal verwoordde het treffend: “De kunst ligt in de balans tussen wat het model kan, wat de mens begrijpt, en hoeveel vertrouwen we durven geven.”
What if AI could spot the next elite warfighter before they ever raise their hand?"It's all about driving military readiness to out-tech our adversaries," said Paul Breitenbach. |
Meer opties dan ooit
Toch toonde het experiment een ongekende sprong vooruit. Waar menselijke teams normaal hooguit enkele scenario’s per uur kunnen bedenken, leverde de AI duizenden varianten. Sommige algoritmes verbeterden zichzelf razendsnel: van zeventig procent nauwkeurigheid naar meer dan negentig procent, enkel door een kleine aanpassing.
Voor planners betekent dat niet alleen sneller werken, maar ook bredere keuzes. De luchtmacht kon ineens meer scenario’s afwegen dan ooit tevoren.
|
Air Force AI Targeting Tests Show Promise, Despite HallucinationsArtificial intelligence can come up with battlefield options far faster than a human can, but it can fail to factor in small nuances that have major repercussions. |
De mens blijft in de lus
Ondanks de spectaculaire resultaten benadrukten de militairen dat de mens niet buitenspel mag worden gezet. AI kan opties aandragen, maar het zijn mensen die beoordelen of een plan verstandig is, of het risico’s bevat, en of het past binnen bredere strategieën.
Daarom investeert de luchtmacht in opleidingen en in een officiële doctrine voor AI-gebruik. Soldaten moeten begrijpen wat een algoritme kan, maar vooral ook wat het níet kan.
Air Force Wraps Up Experiment of AI Use in Combat DecisionsThe U.S. Air Force has completed a series of fast-paced experiments aimed at using artificial intelligence to accelerate battlefield decisions and improve combat effectiveness, proving that human-machine teaming is no longer theoretical. |
Bruggenbouwers van technologie
Een cruciale rol is weggelegd voor zogenoemde ‘integrators’: specialisten die de taal spreken van zowel programmeurs als militairen. Zij zorgen dat AI geen losstaand speeltje wordt, maar een ingebouwd hulpmiddel dat écht werkt binnen bestaande structuren.
Zonder die bruggen dreigt AI te verzanden in mooie demo’s die in de praktijk onbruikbaar zijn.
Hoop en voorzichtigheid
Het experiment liet de kracht én de kwetsbaarheid van AI zien. In seconden strategieën produceren is indrukwekkend, maar snelheid garandeert geen succes. De luchtmacht beseft dat overschatting gevaarlijk is: plannen die logisch lijken in een algoritme, kunnen levens kosten in de werkelijkheid.
De les is duidelijk: AI is een hulpmiddel, geen commandant. En zolang oorlogvoering draait om onzekerheid en menselijk oordeel, blijft de mens onmisbaar in de besluitvorming.









