Beveiligingsexperts zijn verdeeld over de vraag of generatieve AI hen zal helpen of juist ondermijnen. Enerzijds zien sommigen verdedigers nog in het voordeel, met genoeg tijd om AI in te zetten tegen dreigingen. Anderzijds bouwen hackers via open‑source taalmodellen (LLM’s) tools om kwetsbaarheden te scannen, zero‑day bugs te ontdekken en malware te schrijven. Terwijl modellen nog moeite hebben met menselijke nuance, kan de cloud-rekening al snel oplopen voor cybercriminelen die AI inzetten — maar de snelheid van AI-ontwikkeling maakt dat kwaadwillenden zich razendsnel kunnen aanpassen. Zo zou een aanvaller via het AI‑systeem van het slachtoffer binnen kunnen dringen.
Terug naar de jaren '90: Vergeten beveiligingslessen herrijzen
Tijdens Black Hat USA 2025 viel op dat generatieve AI en agent‑achtige systemen kwetsbaar blijken voor oude beveiligingsfouten, zoals prompt‑injecties — de AI-versie van SQL‑injectie. Beveiligingsexperts constateren dat LLM’s gemakkelijk kunnen worden misleid door kwaadaardige input, doordat ze niet onderscheid maken tussen prompts en data.
AI-agenten kan je vergelijken met peuters: Je moet continu achter ze aan blijven om te vermijden dat ze "domme dingen" doen. AI-versnelt je, maar maakt je geen betere bestuurder.
Beveiligers worden geadviseerd om prompt‑injectie te veronderstellen (zero‑trust), toegang strikt te beperken en inputs te sanitiseren. Alom geldt: "Eens besmet, altijd onbetrouwbaar" — een eenmalige aanval kan modellen permanent compromitteren.
De macht van AI – Van hacker tot verdediger
Tegelijk verstekeling, wachter én mikpunt. AI wordt gebruikt door hackers om systematisch infiltraties uit te voeren, maar verwerft ook een verdedigende functie bij bedrijven die AI inzetten als shield. Vooral gevaarlijk zijn de 'zero‑click prompt‑injectieaanvallen', waarbij kwaadaardige instructies – bijvoorbeeld via ogenschijnlijk onschuldige documenten – stilletjes AI‑systemen manipuleren zonder gebruikersinteractie.
Daarbij wordt benadrukt dat organisaties harder moeten monitoren én strengere veiligheidsprotocollen nodig hebben — vooral nu AI steeds dieper geïntegreerd raakt in bedrijfsprocessen, zoals met ChatGPT-connectors.
AI in cybersecurity is geen eenvoudige optie, maar een wapen met twee kanten. Organisaties moeten waakzaam blijven, traditionele beveiligingsprincipes strikt toepassen én anticiperen op nieuwe AI-specifieke dreigingen. Want hoewel AI de verdediging kan versterken, vergroot het ook het aanvalsoppervlak — en maakt het iedereen potentieel tot “patient zero”.
From hacker to bodyguard to target—AI pulled triple duty at the year’s biggest security eventsAt Black Hat and DEF CON, AI was on all sides of the security fight—breaking into systems, defending them, and getting breached itself. |









