In de wereld van kunstmatige intelligentie werd 2025 gepresenteerd als “het jaar van de AI-agenten” — autonome digitale systemen die taken zelfstandig uitvoeren zonder menselijk ingrijpen. Maar volgens een nieuwe analyse staat die belofte op losse schroeven. Onderzoekers stellen dat moderne AI-agenten simpelweg wiskundig niet in staat zijn om complexe en betrouwbare taken uit te voeren.
Een theoretische rem op autonome AI
Een studie van Vishal Sikka — voormalig CTO van het Duitse SAP — en zijn zoon beweert dat grote taalmodellen (LLM’s), de kern van veel AI-agenten, structurele wiskundige beperkingen hebben. Die beperkingen zouden betekenen dat de systemen gewoon niet in staat zijn tot complexe computationele taken of het zelfstandig uitvoeren van ingewikkelde opdrachten.
The Math on AI Agents Doesn’t Add UpA research paper suggests AI agents are mathematically doomed to fail. The industry doesn’t agree. |
Sikka, die onder de beroemde AI-pionier John McCarthy studeerde, zei tegen Wired dat er “geen manier is waarop ze betrouwbaar kunnen zijn” — zelfs niet met extra hulpmiddelen of externe systemen.
Waarom pure taalmodellen tekortschieten
De wiskundige kritiek richt zich op de fundamentele architectuur van transformer-gebaseerde LLM’s — de soort modellen die aan de basis liggen van tools zoals ChatGPT en veel moderne AI-agenten. Volgens de onderzoekers zijn deze modellen niet gebouwd om consistente, foutloze berekeningen of beslissingsprocessen te leveren, vooral niet bij complexere taken.
Dit sluit aan op bredere zorgen in de AI-gemeenschap over “hallucinaties”: momenten waarop AI dingen vol vertrouwen verzint of verkeerde feiten geeft. In een eerder rapport gaf OpenAI zelfs toe dat AI-hallucinaties een blijvend probleem blijven, en dat hun modellen nooit 100 % nauwkeurig zullen zijn.
Moeten we nu bang zijn voor autonome AI?
Niet iedereen ziet het somber. Sommige experts geloven dat externe systemen en extra beveiligingslagen hallucinaties kunnen beperken en de prestaties van agenten kunnen verbeteren. Maar de sceptici blijven benadrukken dat echte autonomie — zonder menselijke supervisie — nog ver weg is.
Bovendien hebben bedrijven die experimenteerden met agenten al gemerkt dat ze vaak mensen niet echt vervangen, en soms zelfs werk moeilijker maken doordat ze taken niet afmaken zoals verwacht.
Conclusie: Hype versus wiskunde
Wat deze studie blootlegt, is dat de grote beloftes rondom AI-agenten — denk aan systemen die volledig zelfstandig werken — misschien meer marketing zijn dan werkelijkheid. Terwijl de industrie blijft groeien en nieuwe toepassingen onderzoekt, blijft de wiskundige realiteit hardnekkig en dwingt het ons te heroverwegen wat AI echt kan en wat nog steeds theorie is.









