Microsoft presenteert met Agent Factory een raamwerk waarmee organisaties AI-agenten kunnen bouwen die niet alleen slim zijn, maar ook veilig, betrouwbaar en regelgevend in overeenstemming. Zoals de makers benadrukken: vertrouwen wordt dé uitdaging nu AI-agenten verschuiven van experimentele toepassingen naar kernonderdelen van bedrijfsvoering.
Microsoft’s AI Agent Factory: The New Frontier of AI-Driven Business Automation in 2025Microsoft’s AI Agent Factory: The New Frontier of AI-Driven Business Automation in 2025 Artificial intelligence continues to redefine the landscape of software development and enterprise … |
Waarom nu handelen?
Er spelen meerdere urgente zorgen in bedrijven:
- Onduidelijke eigendom & overdaad aan agenten: wie beheert welke agent, en zijn er te veel agenten zonder heldere verantwoordelijkheid?
- Beveiliging moet ingebakken zijn, niet iets achteraf: veiligheid, governance en compliance moeten vanaf de ontwerpfase meegaan, niet als laatste stap.
- Risico’s zoals datalekken, prompt injecties & onduidelijke regelgeving vormen vaak de rem op grootschalige inzet.
Kortom: organisaties die AI-agenten inzetten, hebben behoefte aan een betrouwbare “blauwdruk” om vertrouwen op te bouwen én risico’s te beperken. Microsoft Azure
Wat maakt een AI-agent veilig en betrouwbaar?
Volgens Microsoft zijn er vijf kernkwaliteiten die een AI-agent moet bezitten:
- Unieke identiteit – elke agent krijgt een traceerbare identiteit zodat hij door de volledige levenscyclus heen zichtbaar is.
- “Data protection by design” – gevoelige informatie wordt geclassificeerd en beheerd, om oversharing tegen te gaan.
- Ingebouwde controles – filters tegen schadelijke of risicovolle input/output, mechanismen om onveilige handelingen te voorkomen, checks op betrouwbaarheid (‘groundedness’), etc.
- Evaluaties tegen bedreigingen – proactief testen met adversarial prompts, continue veiligheidstests zowel vóór inzet als tijdens gebruik.
- Continue toezicht & monitoring – realtime telemetrie, bewaking van gedragingen, rapportage, compliance-tools.
|
Build agents, your way | Microsoft DeveloperFrom low-code to pro-code, choose the right tool for the task. Build with familiar workflows, integrate with your stack, and deploy to a trusted platform. |
Hoe ondersteunt Azure AI Foundry deze blauwdruk?
Microsoft heeft binnen Azure AI Foundry concrete middelen ontwikkeld om bovenstaande eigenschappen mogelijk te maken:
- Entra Agent ID: binnenkort krijgen agenten een unieke ID, waardoor schaduw-agenten (onbekende of ongecontroleerde agents) tegengegaan worden.
- Agent Controls: onder meer een classifier die is opgezet tegen prompt-injecties, filters voor risicovolle handelingen, detectie van gevoelig materiaal, etc.
- Evaluatie & Red Team-aanpak: zowel tijdens de ontwikkeling als in productie worden evaluaties uitgevoerd; tools zoals PyRIT helpen bij het blootleggen van kwetsbaarheden.
- Eigen dataresources & netwerkisolatie: organisaties kunnen gebruikmaken van hun eigen opslag, conversatiegeschiedenis etc., binnen eigen beveiligde grenzen; netwerken kunnen geïsoleerd worden opgezet.
- Compliance & governance integratie: via tools als Microsoft Purview en Microsoft Defender kunnen data-labels, DLP-beleid, en naleving van wet- en regelgeving (zoals de EU AI Act en NIST AI RMF) worden afgerond.
|
GitHub - microsoft/ai-agents-for-beginners: 12 Lessons to Get Started Building AI Agents12 Lessons to Get Started Building AI Agents. Contribute to microsoft/ai-agents-for-beginners development by creating an account on GitHub. |
Blauwdruk in praktijk: zes stappen
Microsoft raadt aan om in ieder project deze zes stappen toe te passen voor een veilige aanpak:
- Start met identiteit: wijs agenten een Entra Agent ID toe.
- Gebruik ingebouwde veiligheids- en risicocontroles (filters, checks, detectie).
- Voer continu evaluaties uit (risico, schade, groundedness, etc.).
- Bescherm gevoelige data: labels, DLP, etc.
- Monitor met enterprise tools en real-time telemetrie.
- Koppel governance aan regulering: maak gebruik van kaders als EU AI Act, NIST etc.
Voorbeelden uit de praktijk
Enkele organisaties laten zien hoe het werkt:
- EY vergelijkt modellen op kwaliteit, kost en veiligheid met behulp van Foundry evaluaties.
- Accenture gebruikt de Red Teaming Agent van Microsoft om met “adversarial prompts” tests uit te voeren, niet alleen voor afzonderlijke antwoorden, maar voor volledige agent-workflows.
Agent Factory biedt geen garanties dat AI-agenten volledig foutloos zijn, maar wel een gefaseerde, gelaagde aanpak waarmee bedrijven verantwoordelijkheid, veiligheid en vertrouwen kunnen inbouwen. Voor iedereen die AI-agenten wil inzetten in productie, is dit een waardevolle blauwdruk: niet als extra toeters-en-bellen, maar als fundament.
|
|
Azure AI FoundryAzure AI Foundry beschikt over alles wat u nodig hebt om AI-toepassingen en -agents te ontwerpen, aan te passen en te beheren die zijn gebouwd in GitHub, Visual Studio, Copilot Studio en Microsoft Fabric, met API's voor al uw behoeften. |









