Nieuwe studie werpt licht op de illusie van intelligentie bij taalmodellen – en wat we daaraan kunnen doen
AI klinkt slim, maar denkt niet na
Taalmodellen zoals ChatGPT of Apple's eigen algoritmes zijn verbluffend goed in het genereren van overtuigende teksten. Maar vergis je niet: hoewel hun antwoorden zelfverzekerd en logisch overkomen, ontbreekt het vaak aan échte diepgang of begrip. Dat blijkt uit een recent onderzoek van Apple, dat het fenomeen treffend de “Illusie van Denken” noemt.
De studie, gepubliceerd via Apple’s Machine Learning Research, onderzoekt waarom AI-systemen zó menselijk overkomen, terwijl ze onder de motorkap eigenlijk niets ‘begrijpen’ in de klassieke zin. Het lijkt alsof de AI meedenkt, redeneert en afweegt, maar in werkelijkheid is ze vooral een meester in het voorspellen van het volgende woord.
Waarom AI fout kan klinken alsof het juist is
Volgens de onderzoekers is dit misleidende effect te wijten aan hoe taalmodellen getraind worden: op grote hoeveelheden tekst, waarbij ze leren welk woord waarschijnlijk volgt op het vorige. Hierdoor kunnen ze grammaticaal correcte, inhoudelijk plausibele zinnen maken — zonder dat daar enige vorm van redenering aan te pas komt.
Het probleem? Mensen zijn van nature geneigd betekenis te zoeken en te vertrouwen op zelfverzekerde taal. Dus als een AI zegt “de hoofdstad van België is Parijs”, maar dat op een vloeiende en zelfverzekerde toon doet, dan klinkt het verrassend overtuigend — ondanks dat het fout is.
Apple’s oplossing: beter meten wat echt ‘denken’ is
Om dit aan te pakken ontwikkelde Apple een methode om de ‘illusie van denken’ systematisch te meten. Ze keken hoe consistent en correct een AI bepaalde vragen beantwoordt, en analyseerden in welke situaties het model de schijn van inzicht wekt, maar feitelijk nonsens produceert.
Daaruit blijkt: modellen kunnen wel degelijk “leren denken” — mits ze getraind worden op taken die meer dan alleen woordvoorspelling vergen. Apple pleit daarom voor een herziening van trainingsmethodes, waarbij logische consistentie, redeneerketens en contextuele correctheid veel meer aandacht krijgen.
Een kritische stap richting betrouwbaardere AI
Met deze studie sluit Apple zich aan bij een groeiende groep onderzoekers die waarschuwen voor de beperkingen van generatieve AI. Niet om haar af te schrijven — integendeel — maar om te zorgen dat we haar correct gebruiken, en haar output kritisch blijven benaderen.
De illusie van denken is geen detailfout, maar een fundamentele uitdaging voor AI in bijvoorbeeld onderwijs, gezondheidszorg en journalistiek. Apple’s onderzoek toont aan dat het probleem oplosbaar is — zolang we bereid zijn dieper te graven dan gladde zinnen en slimme praatjes.
![]() |
The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem ComplexityRecent generations of frontier language models have introduced Large Reasoning Models (LRMs) that generate detailed thinking processes… |