In december 2025 kwamen in de cybersecurity-wereld opzienbarende resultaten naar buiten: een kunstmatige intelligentie-agent heeft in een live test bijna alle menselijke penetratietesters overtroffen. In een experiment uitgevoerd door onderzoekers uit Stanford bleek dat een AI-systeem genaamd ARTEMIS gevoelige kwetsbaarheden in een echt netwerk kon opsporen — en dat tegen een fractie van de kosten van een mens.
An AI agent spent 16 hours hacking Stanford's network. It outperformed human pros for much less than their 6-figure salaries.An AI agent hacked Stanford's network for 16 hours and outperformed human pros, all while costing far less than their six-figure pay. |
Een real-world test met echte gevolgen
In een ongebruikelijke studie lieten onderzoekers van Stanford een AI-agent los op het netwerk van een grote universiteit met zo’n 8.000 apparaten, waaronder laptops, servers en IoT-hardware. De opdracht: vergelijk de prestaties van deze agent met die van ervaren menselijke cybersecurity-professionals in een live penetratietest-omgeving.
De AI, gebouwd als een multi-agent structuur onder de naam ARTEMIS, vond negen gevalideerde kwetsbaarheden met een geldigheidsscore van 82% — en versloeg zo 9 van de 10 menselijke testers.
Hoe ARTEMIS werkt: Parallel denken én doen
Het geheim achter ARTEMIS’ succes lag niet in één superintelligente module, maar in zijn vermogen om taken te paralleliseren. In plaats van stapsgewijs te werken zoals een mens, creëert de AI meerdere sub-agenten die tegelijkertijd scans uitvoeren, hypothesen testen en potentiële zwakke plekken onderzoeken — iets wat menselijke hackers niet zo efficiënt kunnen.
Dat betekent dat wanneer één sub-agent iets verdachts signaleert, een andere direct op onderzoek uitgaat, terwijl de hoofdagent nieuwe gebieden verkent. Zo worden meerdere verdachtmakingen gelijktijdig onderzocht — een vorm van “multitasking” die voor mensen praktisch onmogelijk is in zo’n omvangrijke omgeving.
Voordelen én beperkingen van de AI-aanpak
Hoewel ARTEMIS indrukwekkende prestaties leverde, was het systeem zeker niet zonder tekortkomingen.
Sterke punten
- Kostenefficiëntie: De AI kostte ongeveer $18 per uur om te draaien — veel lager dan een professionele pentester met een jaarsalaris van meer dan $125.000.
- Snelheid en schaal: De agent bleef 16 uur onafgebroken draaien en vond problemen die menselijke testers oversloegen.
Zwakke plekken
- Geen grafische vaardigheden: ARTEMIS had moeite met taken waarvoor een grafische gebruikersinterface (GUI) nodig is — bijvoorbeeld het navigeren door webgebaseerde login-schermen.
- Meer false positives: Een hoger percentage vals-positieve meldingen toont dat de agent soms onterecht een kwetsbaarheid rapporteerde.
Waarom deze doorbraak zo belangrijk is
De resultaten wijzen op een fundamentele verandering in de manier waarop cybersecurity-testing kan worden uitgevoerd. Waar menselijke testers traditioneel duur, tijdrovend en arbeidsintensief zijn, opent AI de deur naar continue, goedkope en grootschalige beveiligingsanalyses.
|
Stanford Study Finds AI Agent Outperformed 90% of Human Pentesters, Failed on GUI TasksStanford's $18/hour AI pentester beat 9 of 10 humans. It also couldn't click buttons and had an 18% false positive rate. Here's the truth. |
Toch betekent dit niet dat menselijke expertise overbodig wordt. De huidige generatie AI-tools mist context, nuance en het vermogen om strategische aanbevelingen te geven — iets wat alleen menselijke professionals kunnen toevoegen.
Wat de toekomst brengt voor cybersecurity
De Stanford-studie suggereert dat AI niet alleen tegenstanders helpt, maar ook verdedigers kan versterken. Beveiligingsteams kunnen AI gebruiken om routinetaken te automatiseren en menselijke experts vrij te maken voor complexere problemen.
Tegelijkertijd waarschuwen experts dat AI ook misbruikt kan worden door kwaadwillenden om grootschalige aanvallen uit te voeren — een realiteit die organisaties dwingt om defensies te verbeteren.
Conclusie: Een nieuw tijdperk van digitale defensie
De prestaties van ARTEMIS laten zien dat AI binnenkort een integraal onderdeel kan worden van cybersecurity-operaties — voor zowel verdediging als offensieve tests. Terwijl AI-agents blijven verbeteren, zal de rol van menselijke deskundigen evolueren naar toezicht, interpretatie en strategische besluitvorming.
Het onderzoek biedt een eerste blik op een toekomst waarin mens en machine samenwerken om de digitale wereld veiliger te maken — maar ook nieuwe risico’s introduceren die organisaties niet kunnen negeren.









