De belofte is verleidelijk: volgens kopstukken uit de tech-wereld (zaken zoals “volgende jaar AGI”, “superintelligentie sneller dan mens”) is de zwaar getrainde AI van vandaag — modellen zoals ChatGPT, Claude, Gemini of gelijkwaardige “large language models” (LLM's) — op het punt te evolueren tot iets dat kan denken, redeneren, innoveren. Maar volgens wetenschappelijke inzichten uit neurowetenschap en taalonderzoek baseren die beloftes op een fundamentele vergissing. Taal is niet hetzelfde als denken.
|
Is language the same as intelligence? The AI industry desperately needs it to beNeuroscience indicates language is distinct from thought, raising questions about whether AI large language models are a viable path to artificial general intelligence. |
Taal is een communicatiemiddel — geen cognitief fundament
De kern van het argument: taal is een gereedschap dat mensen gebruiken om te communiceren, niet de bron van ons denken. Onderzoeken, onder andere aangehaald door wetenschappers als Evelina Fedorenko, Steven T. Piantadosi en Edward A.F. Gibson, tonen aan dat het menselijk brein meerdere netwerken heeft — één voor taal, andere voor wiskundig redeneren, causale logica, “theory of mind”, etc.
Mensen kunnen problemen oplossen, redeneren rond oorzaken, plannen, begrijpen wat anderen voelen of bedoelen — allemaal los van taal. Sommige mensen verliezen hun taalvermogen gedeeltelijk of geheel door neurologische aandoeningen en behouden toch hun denkcapaciteit. Ook baby’s vormen in hun prille bestaan al mentale modellen van de wereld, lang vóór ze kunnen spreken.
Taal helpt ons gedachten delen en structureren — maar het is de gedachte niet.
LLM’s: Briljante taalimitatoren, geen denkers
Wat onderscheidt LLM’s? Ze verwerken gigantische hoeveelheden tekstdata, vinden statistische correlaties tussen woorden (of subwoorden, zogenaamde “tokens”) en voorspellen op basis daarvan wat de meest plausibele tekst is na een gegeven prompt.
Dat verklaart hun indrukwekkende vaardigheid om coherente, vloeiende zinnen te genereren. Maar zo’n model is nooit het equivalent van een denkend wezen — het bezit geen mentale modellen van de fysieke wereld, geen interne representaties van objecten, geen begrip op conceptueel niveau, geen echte causaliteit. Zonder taal is er voor een LLM letterlijk niets.
Waarom schaalvergroting niet leidt tot AGI
Sommigen beweren dat we enkel meer data en rekenkracht moeten stapelen — dan komt AGI er vanzelf. Maar dat idee botst op een fundamenteel neuro-wetenschappelijk gegeven: menselijke cognitie is veel meer dan taal alleen.
Binnen de AI-wetenschapsgemeenschap groeit het besef dat LLM’s onvoldoende zijn om menselijke intelligentie na te bootsen. Conceptuele modellen zoals “world models” of “cognitieve AI” worden besproken als de volgende stap — systemen die niet enkel taal nabootsen, maar een geïntegreerde representatie van de wereld hebben, met geheugen, begrip, en het vermogen tot redeneren en plannen.
Wat betekent dit voor de hype rond AI-doorbraken?
De realiteit is dubbelzinnig. LLM’s leveren indrukwekkende prestaties in taalgerelateerde toepassingen: samenvatten, vertalen, creatieve teksten genereren, contextuele conversaties. Toch blijft er een groot verschil tussen taalvaardigheid en echte intelligentie.
Als we AI als “superintelligente wetenschapspartner” willen positioneren — iemand die theorieën vormt, paradigma’s doorbreekt, revoluties in denken veroorzaakt — dan is het onrealistisch om enkel te vertrouwen op steeds grotere LLM’s. We moeten erkennen dat huidige generatieve AI uiteindelijk vooral slimme imitators zijn.
De AI-industrie draait op taal, niet op begrip. En zolang dat zo is, blijven de meest ambitieuze claims — over autonomie, creativiteit, “slimheid” — in wezen cartoons van intelligentie.









