AI als vriend én vijand: NIST zoekt balans met nieuwe beveiligingslagen

AI als vriend én vijand: NIST zoekt balans met nieuwe beveiligingslagen

Het National Institute of Standards and Technology (NIST) balanceert op de scherpe rand van technologie, waar kunstmatige intelligentie (AI) evenzeer kan beschermen als aanvallen vergemakkelijken. Tegelijk ontwikkelt de organisatie een innovatief plan om AI-systemen te beveiligen via zogeheten “control overlays”. In deze blog verkent de auteur waarom NIST zowel waakhond als architect is in het AI‑tijperk.

AI: Vriend én vijand tegelijk

AI is uitgegroeid tot cyberbeveiliging’s ultieme dubbelagent. Het verdedigt door anomalieën te signaleren, indringers op te sporen en reactietijden te versnellen – maar kan ook kwetsbaarheden genereren of misbruiken. Phishing wordt effectiever, en AI‑aangedreven aanvallen wickelen zich uit in realistische en schaalbare campagnes. Vooral zogeheten agentic AI, die autonome, meerstappenstrategieën uitvoert, vormt een groeiende dreiging voor traditionele verdedigingslinies. 

NIST Developing AI Security Control Overlays to Address Emerging Risks

NIST Developing AI Security Control Overlays to Address Emerging Risks

NIST Developing AI Security Control Overlays to Address Emerging Risks - CDO Magazine

Werksessies: De AI-dynamiek onderzoeken

Om deze dubbelzinnige rol van AI te onderzoeken, organiseert NIST virtuele werksessies (de eerste in augustus 2025), waarin deelnemers uiteenrafelen hoe AI functioneert en hoe die veilig ingezet kan worden. De slotbijeenkomst op 2 september richt zich op de wapenwerpende kant: hoe weten organisaties veerkracht op te bouwen tegen AI‑gestuurde aanvallen? 

Is artificial intelligence a friend, foe or frenemy? NIST wants to find out

The standards agency will be hosting a working session to discuss how AI-empowered attacks can be used to sometimes get around traditional defenses.

 

Control Overlays: Beveiligingslagen op maat

Op 14 augustus 2025 lanceerde NIST een conceptueel plan voor SP 800‑53 Control Overlays for Securing AI Systems, oftewel COSAIS – beveiligingslagen afgestemd op AI‑risico’s. Dit idee borduurt voort op bestaande SP 800‑53-beveiligingsprincipes, maar past ze aan voor AI‑specifieke dreigingen.

Control Overlays for Securing AI Systems | CSRC

Control Overlays for Securing AI Systems | CSRC

NIST has released a concept paper and proposed action plan for developing a series of NIST SP 800-53 Control Overlays for Securing AI Systems, as well as a launching a Slack channel for this community of interest.

https://csrc.nist.gov

Doel: AI-systemen behoeden voor beveiligingsrisico’s zoals lekken van trainingsgegevens, corruptie van modellen of misbruik van output.

Vijf scenario’s voor beveiligingsrichtlijnen

NIST stelt vijf gebruiksscenario’s voor die als basis dienen voor de overlays:

  • Generatieve AI: systemen die tekst, beelden of code creëren—waar risico’s zoals prompting‑aanvallen of datalekken spelen.
  • Predictieve AI: AI die voorspellingen doet op basis van historische data (denk aan kredietscoring); risico’s: vervuilde data, verdachte modelherkomst.
  • Single‑agent AI: autonome helpers voor taken zoals e-mails of workflows – risico’s: hallucinaties, misalignment.
  • Multi‑agent AI: meerdere AI’s die samen complexe taken uitvoeren—met grote, kwetsbare aanvalsvlakken.
  • AI‑ontwikkelpraktijken: beveiligingsmaatregelen voor model artefacten en ontwikkelproces.
 

How NIST is going to secure AI

AI is becoming as commonplace as spreadsheets in business, but security is lagging behind. NIST aims to fix that.

Samen bouwen aan veilige AI

NIST nodigt experts uit om mee te denken via een Slack‑kanaal (#NIST-Overlays-Securing-AI). daarin kunnen vakmensen feedback leveren op het concept, gap‑analyses maken en prioriteiten aangeven. Het doel is om in boekjaar 2026 (vanaf oktober 2025) de eerste concept‑overlays voor publiek commentaar uit te brengen.

Journalistieke reflectie: Waarom dit nieuws is

In het AI-tijdperk geldt: defensie en aanval groeien hand in hand. Dat NIST zich hierop instelt met aangepaste beveiligingslagen voor generatieve en autonome systemen, is een strategische zet: een even voorspellend als beschermend antwoord op complexe risico’s.


NIST is uitgegroeid van standaardmaker tot actieve architect van AI-beveiliging. Als vriend, wachter én – soms – confronterende criticus—probeert het instituut te waarborgen dat AI niet alleen krachtig is, maar ook veilig.

Aanbevolen voor jou

In de kijker

AI kan vanaf nu de muis overnemen op je scherm

AI kan vanaf nu de muis overnemen op je scherm

Meta zet de volgende stap in AI met AI-gegenereerde posts

Meta zet de volgende stap in AI met AI-gegenereerde posts

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Updates

Inschrijven Nieuwsbrief

Zo word je altijd als eerste op de hoogte gebracht van ons laatste nieuws, updates, jobs, tips & promoties. Stay UP-TO-DATE!

WEBSITE LATEN MAKEN?​​​​​​​​​​​​​​

Kies voor een UP-TO-DATE AI Website 100% in Google

Een UP-TO-DATE AI Website maakt het gemakkelijk om automatisch up-to-date te blijven met je klanten en overal aanwezig te zijn.

Maak een afspraak