OpenAI zet een nieuwe stap in de wereld van veilige kunstmatige intelligentie. Sinds een jaar werkt het bedrijf intensief samen met twee overheidsinstellingen — het Amerikaanse Center for AI Standards and Innovation (CAISI) en het Britse AI Security Institute (UK AISI) — om AI-systemen robuuster te maken tegen misbruik en veiligheidsrisico’s. Hieronder een overzicht van wat ze precies gedaan hebben, waarom het belangrijk is, en wat we in de toekomst kunnen verwachten.
Samenwerking voor veiligere AI-agenten
OpenAI is één van de eerste bedrijven die vrijwillige afspraken maakt met CAISI en UK AISI om grensverleggende AI te ontwikkelen onder toezicht en met inbreng van experts in nationale veiligheid, AI-beveiliging en metrologie.
In juli hebben OpenAI en CAISI samen gekeken naar de zogeheten agentic systems — AI-systemen die zelfstandig acties uitvoeren — en getest hoe veilig deze zijn. Ze zijn samen op zoek gegaan naar kwetsbaarheden. Zo vond CAISI twee nieuwe beveiligingslekken in ChatGPT Agent, waar een bekwame aanvaller onder sommige omstandigheden de beveiliging kon omzeilen en (onder meer) systemen op afstand kon besturen of zich kon voordoen als een gebruiker.
Dankzij snelle melding van deze ontdekkingen kon OpenAI de fouten binnen één werkdag verhelpen.
Bioveiligheid onder de loep
Aan de kant van UK AISI focust de samenwerking vooral op misbruik van AI in biologische domeinen. Sinds mei test UK AISI OpenAI’s maatregelen tegen biologische misbruikscenario’s — niet enkel met modellen, maar ook met eerder prototypes en varianten zonder sommige beveiligingen.
Deze “red-teaming”-inspanningen (het actief zoeken naar manieren om de beveiligingen te kraken) bleken vruchtbaar: er werden tal van kwetsbaarheden gevonden — sommige leidden tot technische fixes, andere tot aanpassingen in beleid of training.
Cruciaal in dit proces was de snelle feedbackloop: UK AISI en OpenAI overlegden wekelijks, tijdens de ontwikkeling van ChatGPT Agent in juli en GPT-5 in augustus.
Waarom dit alles ertoe doet
- Deze samenwerkingen zijn voorbeelden van publiek-private partnerships op hoog niveau, gericht op concrete, technische veiligheidsproblemen. Ze laten zien dat overheden én industrie samen kunnen werken om AI veiliger te maken.
- De voortdurende input van onafhankelijke experts helpt OpenAI kwetsbaarheden te ontdekken die anders misschien onopgemerkt gebleven zouden zijn.
- De verbeteringen in beveiliging zullen niet alleen OpenAI-producten veiliger maken, maar ook normstellend kunnen zijn voor de rest van de AI-sector.
Vooruitkijken: Wat komt eraan?
OpenAI geeft aan dat het deze intensieve technische samenwerkingen wil voortzetten en verdiepen, en dat de ervaringen met CAISI en UK AISI gebruikt worden om best practices uit te bouwen voor beveiliging van AI-agenten, biologische maatregelen, en het testen van systemen onder realistische omstandigheden.
Het pressiemodel verandert: in plaats van éénmalige veiligheidstests vóór een productlancering, komen er constant lopende evaluaties (red-teaming, monitoring, feedback) om te blijven verbeteren. Meer info









