Cybersecurity krijgt een nieuw hoofdstuk. Volgens een recent rapport van GTIG zien we niet langer slechts experimenten: kwaadwillenden integreren kunstmatige intelligentie actief in hun aanvalscampagnes. Waar AI eerst vooral werd gebruikt voor productiviteitswinst, markeert deze stap een omslag naar operationeel misbruik.
A new report from the Google Threat Intelligence Group shows adversaries experimenting with AI for novel capabilities.A report from the Google Threat Intelligence Group shows adversaries misusing AI to enhance their operations. |
Het nieuwe speelveld: AI als wapen
GTIG constateert dat dreigingsactoren – waaronder staatsondersteunde groepen uit landen zoals De Volksrepubliek China, Iran en Noord‑Korea – AI gebruiken voor activiteiten variërend van verkenning, phishing-lokken tot datadiefstal. Meer specifiek:
- Malware-families zoals PROMPTSTEAL en PROMPTFLUX maken gebruik van grote taalmodellen (LLM’s) tijdens hun uitvoering.
- Deze vormen van malware genereren scripts dynamisch, wijzigen hun code om detectie te ontwijken en gebruiken prompts om functies on-the-fly te creëren.
- Kwade actoren imiteren studenten, onderzoekers of CTF-deelnemers in prompts om veiligheidsbeperkingen van AI-modellen te omzeilen.
- Er is een volwassen geworden ondergronds ‘marktplein’ voor AI-tools, waarmee zelfs minder technisch onderlegde groepen toegang krijgen tot krachtige middelen.
Google uncovers malware using LLMs to operate and evade detection - Help Net SecurityAttackers have created and are leveraging malware that uses LLMs to operate and hide from security systems, according to Google's analysts. |
Waarom dit moment gevaarlijk is
Deze ontwikkelingen zijn niet simpelweg een increment van bestaande dreigingen: GTIG spreekt zelfs van een «nieuwe operationele fase van AI-misbruik». Waar aanvallers voorheen AI gebruikten als hulpmiddel, wordt het nu een kernonderdeel van de aanvalsketen.
Google warns of AI misuse in new GTIG threat reportGoogle’s threat team warns that hackers are now using AI to create self-modifying malware and evade defences. |
Een concreet voorbeeld: de malware PromptFlux schrijft haar eigen code opnieuw, via een LLM-interactie met het model Gemini, om antivirus-systemen te omzeilen. Dit soort adaptieve malware onderstreept hoe snel het speelveld verandert.
Google Uncovers PROMPTFLUX Malware That Uses Gemini AI to Rewrite Its Code HourlyGoogle discovers PROMPTFLUX malware using Gemini AI to rewrite and hide its code for smarter evasion. |
Wat doet Google eraan?
GTIG beschrijft verschillende tegenmaatregelen:
- Het uitschakelen van activa (accounts/projects) die gelinkt zijn aan kwaadwillende AI-activiteiten.
- Het versterken van de interne classifiers en AI-modellen van Google om misbruik beter te detecteren en te voorkomen.
- Het delen van best practices in de industrie om verdedigers beter uit te rusten tegen deze dynamische dreigingen.
Implicaties voor organisaties en ontwerpers
Voor jouw rol als maker van een AI & webdesign-blog betekenen de bevindingen een aantal aandachtspunten:
- Bij het ontwerpen of integreren van AI-systemen moet je bewust zijn van de veranderende dreigingsmodellen: het klassieke onderscheid tussen productief gebruik en misbruik verdwijnt steeds meer.
- In het kader van ontwerp-ethiek gaat het niet langer enkel over bias of transparantie, maar ook over misbruikpreventie: wie kan het model “verleiden” om ongeoorloofde taken uit te voeren
De GTIG-analyse maakt duidelijk dat kunstmatige intelligentie niet langer enkel een instrument is voor efficiëntie of versnelling — het is een wapen geworden in de digitale onderwereld. De verdediging vereist niet alleen technische maatregelen, maar ook alert design, governance en continue monitoring.









