Het National Institute of Standards and Technology (NIST) balanceert op de scherpe rand van technologie, waar kunstmatige intelligentie (AI) evenzeer kan beschermen als aanvallen vergemakkelijken. Tegelijk ontwikkelt de organisatie een innovatief plan om AI-systemen te beveiligen via zogeheten “control overlays”. In deze blog verkent de auteur waarom NIST zowel waakhond als architect is in het AI‑tijperk.
AI: Vriend én vijand tegelijk
AI is uitgegroeid tot cyberbeveiliging’s ultieme dubbelagent. Het verdedigt door anomalieën te signaleren, indringers op te sporen en reactietijden te versnellen – maar kan ook kwetsbaarheden genereren of misbruiken. Phishing wordt effectiever, en AI‑aangedreven aanvallen wickelen zich uit in realistische en schaalbare campagnes. Vooral zogeheten agentic AI, die autonome, meerstappenstrategieën uitvoert, vormt een groeiende dreiging voor traditionele verdedigingslinies.
|
NIST Developing AI Security Control Overlays to Address Emerging RisksNIST Developing AI Security Control Overlays to Address Emerging Risks - CDO Magazine |
Werksessies: De AI-dynamiek onderzoeken
Om deze dubbelzinnige rol van AI te onderzoeken, organiseert NIST virtuele werksessies (de eerste in augustus 2025), waarin deelnemers uiteenrafelen hoe AI functioneert en hoe die veilig ingezet kan worden. De slotbijeenkomst op 2 september richt zich op de wapenwerpende kant: hoe weten organisaties veerkracht op te bouwen tegen AI‑gestuurde aanvallen?
Is artificial intelligence a friend, foe or frenemy? NIST wants to find outThe standards agency will be hosting a working session to discuss how AI-empowered attacks can be used to sometimes get around traditional defenses. |
Control Overlays: Beveiligingslagen op maat
Op 14 augustus 2025 lanceerde NIST een conceptueel plan voor SP 800‑53 Control Overlays for Securing AI Systems, oftewel COSAIS – beveiligingslagen afgestemd op AI‑risico’s. Dit idee borduurt voort op bestaande SP 800‑53-beveiligingsprincipes, maar past ze aan voor AI‑specifieke dreigingen.
Control Overlays for Securing AI Systems | CSRCNIST has released a concept paper and proposed action plan for developing a series of NIST SP 800-53 Control Overlays for Securing AI Systems, as well as a launching a Slack channel for this community of interest. |
Doel: AI-systemen behoeden voor beveiligingsrisico’s zoals lekken van trainingsgegevens, corruptie van modellen of misbruik van output.
Vijf scenario’s voor beveiligingsrichtlijnen
NIST stelt vijf gebruiksscenario’s voor die als basis dienen voor de overlays:
- Generatieve AI: systemen die tekst, beelden of code creëren—waar risico’s zoals prompting‑aanvallen of datalekken spelen.
- Predictieve AI: AI die voorspellingen doet op basis van historische data (denk aan kredietscoring); risico’s: vervuilde data, verdachte modelherkomst.
- Single‑agent AI: autonome helpers voor taken zoals e-mails of workflows – risico’s: hallucinaties, misalignment.
- Multi‑agent AI: meerdere AI’s die samen complexe taken uitvoeren—met grote, kwetsbare aanvalsvlakken.
- AI‑ontwikkelpraktijken: beveiligingsmaatregelen voor model artefacten en ontwikkelproces.
How NIST is going to secure AIAI is becoming as commonplace as spreadsheets in business, but security is lagging behind. NIST aims to fix that. |
Samen bouwen aan veilige AI
NIST nodigt experts uit om mee te denken via een Slack‑kanaal (#NIST-Overlays-Securing-AI). daarin kunnen vakmensen feedback leveren op het concept, gap‑analyses maken en prioriteiten aangeven. Het doel is om in boekjaar 2026 (vanaf oktober 2025) de eerste concept‑overlays voor publiek commentaar uit te brengen.
Journalistieke reflectie: Waarom dit nieuws is
In het AI-tijdperk geldt: defensie en aanval groeien hand in hand. Dat NIST zich hierop instelt met aangepaste beveiligingslagen voor generatieve en autonome systemen, is een strategische zet: een even voorspellend als beschermend antwoord op complexe risico’s.
NIST is uitgegroeid van standaardmaker tot actieve architect van AI-beveiliging. Als vriend, wachter én – soms – confronterende criticus—probeert het instituut te waarborgen dat AI niet alleen krachtig is, maar ook veilig.









