Beleid, botsing en bruggen bouwen tussen AI-systemen
In een wereld waar kunstmatige intelligenties niet langer op zichzelf staan maar steeds vaker met elkaar interacteren, klinkt een nieuwe urgentie in de beleidswereld: hoe zorg je dat Europese regels dit kunnen bijbenen? Dat was de kernvraag die beleidsonderzoeker Maartje Nugteren behandelde in haar recente presentatie Governing Multi-Agent AI Interaction: Addressing EU AI Act Implementation Gaps tijdens de Mila AI Policy Conference — een conferentie waar onderzoekers en beleidsmakers samenkomen om de toekomst van AI-regelgeving te vormen.
Hoewel de Europese AI-wet (EU AI Act) al als baanbrekend wordt gezien — met risicogebaseerde kaders voor veilige en betrouwbare AI — toont Nugteren aan dat er kloofjes ontstaan zodra meerdere autonome AI-systemen met elkaar moeten samenwerken. Denk aan scenario’s waarin AI-agents taken verdelen, informatie uitwisselen, of zelfs autonoom besluiten nemen buiten directe menselijke supervisie — wat nieuwe, onvoorziene risico’s en verantwoordelijkheidsvraagstukken met zich meebrengt.
De uitdaging: Wanneer AI met AI praat
In haar analyse wijst Nugteren erop dat traditionele reguleringsmethoden vaak ontworpen zijn voor individuele AI-toepassingen — één model, één taak, één verantwoordelijke. Maar multi-agent interacties zijn dynamischer, complexer en bieden risico’s die reguliere evaluatiemethoden niet voldoende vangen.
- Onverwachte gedragingen ontstaan wanneer AI-agents zelfstandig leren van elkaars acties.
- Risicodynamiek verandert, bijvoorbeeld als één agent de beslissingen van een ander beïnvloedt.
- Evaluatiesystemen falen omdat ze niet zijn ontworpen om collectieve AI-besluiten te analyseren.
Het resultaat? Volgens Nugteren blijft er een implementatie-kloof in de AI Act die het moeilijk maakt om te garanderen dat multi-agent interacties voldoen aan Europese eisen rond veiligheid, transparantie en menselijke controle.
Naar een toekomstbestendige AI-regelgeving
Wat levert Nugteren’s werk op voor Europese beleidsvorming? Haar bijdrage is tweeledig:
- Bewustwording creëren: besluitvormers moeten erkennen dat AI-agents steeds vaker onderling communiceren — en dat traditionele regels dit niet voldoende adresseren.
- Aanbevelingen formuleren: beleidsmaatregelen moeten worden aangepast of uitgebreid om mechanismen te bevatten die specifiek kijken naar multi-agent interacties — zoals nieuwe testmethoden, toezichtstructuren en verantwoordingsregels.
In essentie pleit ze voor een verschoven blik in AI-governance: weg van silo’s die individuele modellen beoordelen, naar systemen die de interacties tussen autonome AI’s beoordelen. Dit vraagt om méér dan juridische knipogen — het vereist nieuwe evaluatie-tools en governance frameworks die de gelaagdheid van AI-systemen kunnen vatten.









