Anthropic toont hoe de combinatie van het open standaardprotocol Model Context Protocol (MCP) en directe code-uitvoering leidt tot veel efficiëntere AI-agenten. Terwijl traditionele agenten voor elke tool-integratie opnieuw werk vereisen en grote hoeveelheid tokens verbruiken, laat Anthropic zien hoe een code-gebaseerde aanpak de schaal, snelheid en kosten van agent-ontwikkeling sterk verbetert.
Code execution with MCP: building more efficient AI agentsLearn how code execution with the Model Context Protocol enables agents to handle more tools while using fewer tokens, reducing context overhead by up to 98.7%. |
De uitdaging: Tool-overload en token-verspilling
Met MCP kunnen agenten verbinding maken met talloze tools en systemen. Echter, wanneer je honderden tools aansluit, ontstaan er twee belangrijke problemen:
- Allereerst worden de tool-definities standaard helemaal geladen in de context van het model – wat het context-window vult en vertragingen en kosten veroorzaakt.
- Ten tweede gaan tussenresultaten van tool-aanroepen via het model heen en weer, wat extra token-verbruik en vertraging met zich meebrengt.
Bijvoorbeeld: als een agent een lange transcriptie uit Google Docs haalt en daarna doorspeelt naar een Salesforce-record, dan moet die hele transcriptie via het model, wat duizenden tokens extra betekent.
De oplossing: Code-uitvoering met MCP
Anthropic stelt voor om in plaats van directe tool-calls de agent code te laten schrijven die met de MCP-servers communiceert. Door tools als code-API’s te behandelen kunnen agenten alleen de benodigde definities laden, gegevens filteren vóór ze bij het model komen, en complexe logica uitvoeren buiten het model-context-window.
Een voorbeeld (in TypeScript) toont hoe een map-structuur van servers en tools wordt opgezet, en hoe de agent slechts de relevante modules importeert en gebruikt.
In een praktijkvoorbeeld daalt het token-verbruik van 150.000 naar slechts 2.000 tokens — een besparing van 98,7%.
Voordelen van deze aanpak
De blog van Anthropic noemt meerdere concrete voordelen:
- Progressive disclosure: De agent moet niet alle tool-definities upfront laden; hij kan tools ontdekken op het moment dat hij ze nodig heeft.
- Context-efficiëntie: Grote datasets kunnen in de code worden gefilterd vóór ze in de context terechtkomen, wat drastisch het aantal tokens vermindert.
- Meer control flow mogelijkheden: Loops, condities en foutafhandeling in code maken workflows efficiënter dan een reeks losse tool-aanroepen.
- Privacy en security: Omdat tussenresultaten in de uitvoering-omgeving blijven, hoeven gevoelige gegevens niet door het model-context-window.
- State-beheer en herbruikbare “skills”: De agent kan tussenresultaten opslaan (bv. in bestanden) en code-bibliotheken hergebruiken, wat het bouwen van complexe agenten op lange termijn makkelijker maakt.
Maar er zijn ook kanttekeningen
Uiteraard brengt de code-gebaseerde aanpak ook extra infrastructuur- en beveiligingsvereisten met zich mee: sandboxing, resource-limieten, monitoring. Anthropic waarschuwt dat deze implementatiekosten moeten worden afgewogen tegen de voordelen van lagere latency, minder token-gebruik en betere samenstelling van tools.
Het protocol MCP biedt een stevige basis om agenten aan allerlei tools en systemen te koppelen. Maar wanneer het ecosysteem groeit, kunnen tool-definities en resultaten de efficiëntie ondermijnen. De voorgestelde oplossing van code-uitvoering brengt software-engineeringsprincipes — zoals modulaire code, state-beheer, filtering vóór verwerking — naar het domein van AI-agenten. Kortom: door agents code te laten schrijven (of aansturen) in plaats van alleen directe tool-calls, kun je meer tools hanteren, met minder context-overhead, lagere kosten en betere prestaties. Anthropic moedigt ontwikkelaars aan hun bevindingen te delen binnen de MCP-community.









