Op 15 december 2025 schoof Gary Marcus, emeritusprofessor in psychologie en neurale wetenschappen aan de NYU, aan bij Marketplace Tech om een prangende vraag te onderzoeken: zijn de huidige grote taalmodellen (LLM’s) zoals ChatGPT en Gemini simpelweg tekstmachines, of zijn ze op weg om echte wereldbegrip-AI te worden?
Marketplace TechListen to Marketplace's Marketplace Tech podcast with Kimberly Adams on Apple Podcasts. |
Marcus stelt in de podcast dat wat we vandaag hebben — modellen die taal voorspellen — niet hetzelfde is als een model dat echt begrijpt hoe de wereld werkt. Volgens hem zal de toekomst van AI niet afhangen van nog grotere taalmodules, maar van systemen die oorzakelijke verbanden, fysieke regels en dynamiek van echte omgevingen kunnen modelleren — wat vaak aangeduid wordt als een wereldmodel.
|
“A case for AI models that understand, not just predict, the way the world works”Terrific interview at Marketplace Tech |
Grote taalmodellen: Meesters van woorden, niet van de wereld
De huidige generatie grote taalmodellen (LLM’s) opereert vooral door tekstpatronen te voorspellen: gegeven een reeks woorden berekenen ze wat het meest waarschijnlijk volgt, en genereren op basis daarvan indrukwekkende conversaties, samenvattingen en antwoorden.
Dit betekent echter ook dat ze niet werkelijk interactie hebben met de fysieke wereld, of begrip hebben zoals mensen dat doen — ze zijn meer een statistische schatting van taalgebruik dan een “mentale kaart” van realiteit.
Marcus benadrukt dat deze modellen goed zijn in het nabootsen van taal, maar dat die vaardigheid niet automatisch betekent dat ze begrijpen wat ze zeggen of de echte wereld kunnen simuleren.
Wereldmodellen: Simulaties van realiteit
In tegenstelling tot LLM’s zijn wereldmodellen ontworpen om te leren over de omgeving zelf — inclusief objecten, fysica, structuren en causaliteit. Ze proberen de structuur van een omgeving te representeren, voorspellende simulaties te draaien en zelfs actie-reactie-scenario’s te begrijpen.
In onderzoeksliteratuur worden zulke modellen vaak gekoppeld aan embodied AI, waar een systeem leert door interactie met een virtuele of fysieke omgeving — bijvoorbeeld simulaties waarin robots leren bewegen, plannen of taken voltooien.
Voorspellen versus begrijpen
Het kernpunt van Marcus’ argument is simpel maar fundamenteel:
“Een model kan uitstekend voorspellen wat de volgende woorden zijn, maar dat betekent niet dat het begrijpt waarom dingen gebeuren.”
Hij ziet de ontwikkeling van echte wereldmodellen als cruciaal voor het bereiken van kunstmatige algemene intelligentie (AGI) — AI die niet alleen tekst voorspelt, maar echte context, dynamiek en doelgericht gedrag kan modelleren.
A case for AI models that understand, not just predict, the way the world works | Gary Marcus | 13 comments“A case for AI models that understand, not just predict, the way the world works Gary Marcus, professor emeritus at NYU, explains the differences between large language models and "world models" — and why he thinks the latter are key to achieving artificial general intelligence” One of the most sophisticated interviews I have done, on what I think is the most important open challenge for AI. https://lnkd.in/gZ6BGC42 | 13 comments on LinkedIn |
Wat betekent dit voor de toekomst van AI?
De discussie rond LLM’s versus wereldmodellen is geen puur technische nuance — het raakt de kern van wat we onder “intelligentie” verstaan. Als AI de volgende sprong wil maken van indrukwekkende tekstgenerator naar praktisch begrip van de werkelijkheid, zullen onderzoekers waarschijnlijk verder moeten kijken dan taal alleen.
In het kort:
- LLM’s zijn briljant in taal — maar missen echte wereldkennis.
- Wereldmodellen beloven diepere interne representaties — maar zijn complexer om te bouwen en generaliseren vaak moeite met echte omgevingen.
- De toekomst van AI zou kunnen liggen in combinaties: modellen die taal en wereldstructuren integreren.









