Redeneercrisis bij AI? Apple confronteert sector met pijnlijke waarheid

Redeneercrisis bij AI? Apple confronteert sector met pijnlijke waarheid

Nieuw onderzoek stelt dat populaire AI-systemen zoals ChatGPT en Gemini problemen ‘oplossen’ zonder ze echt te begrijpen – en dat kan grote gevolgen hebben voor hoe we AI vertrouwen.

AI die overtuigt, maar niet begrijpt

In een nieuw, kritisch onderzoeksrapport trekt Apple in twijfel of grote taalmodellen (LLM’s) zoals ChatGPT, Gemini of Claude echt kunnen redeneren. Hoewel deze modellen vaak indrukwekkend klinkende antwoorden produceren, toont het onderzoek aan dat ze in werkelijkheid vooral uitblinken in het reproduceren van patronen – niet in logisch denken.

Apple’s paper, gepubliceerd op 12 juni, stelt dat de prestaties van veel AI-systemen op redeneertests kunnen instorten zodra er kleine wijzigingen in de probleemstelling plaatsvinden. Volgens de onderzoekers is dat een duidelijk signaal dat de modellen geen diep begrip hebben, maar eerder ‘valsspelen’ door slimme gokstrategieën toe te passen.

De test die AI ontmaskert

De onderzoekers ontwierpen een reeks vragen waarbij de juiste oplossing niet direct afgeleid kon worden uit tekstuele hints of oppervlakkige patronen. Zodra ze kleine veranderingen aanbrachten in de opbouw van de vraag – zoals het vervangen van persoonsnamen of het herschikken van zinnen – zakten de prestaties van de modellen drastisch. Waar eerdere testen tot 97% accuraatheid leken te tonen, kelderden de scores plots naar minder dan 60%.

Voor Apple is dit geen louter academische kwestie. Het stelt fundamentele vragen over de betrouwbaarheid van AI in toepassingen zoals gezondheidszorg, onderwijs en juridische ondersteuning – domeinen waarin logisch redeneren cruciaal is.

AI’s cognitieve façade

De onderzoekers waarschuwen voor wat zij “redeneer-illusie” noemen: het fenomeen waarbij AI ogenschijnlijk correct redeneert, maar dit in feite niet doet. Veel huidige benchmarks zouden deze illusie juist versterken, omdat ze vooral belonen wat oppervlakkig gezien correct lijkt.

In plaats van te begrijpen hoe een probleem logisch in elkaar zit, herkennen LLM’s vaak gewoon patronen uit hun trainingsdata. Dit betekent dat als een bepaalde formulering vaker voorkomt in ‘trainingsboeken’, de AI daaruit een schijnbaar logisch antwoord kan afleiden – zonder ooit de betekenis te doorgronden.

Kritiek en debat binnen AI-gemeenschap

Het rapport heeft de discussie binnen de AI-wereld opnieuw aangezwengeld. Sommige experts zien het als een belangrijk moment van reflectie, terwijl anderen het onderzoek als te pessimistisch bestempelen. Critici merken op dat zelfs mensen onder bepaalde omstandigheden irrationeel redeneren, en dat AI juist steeds beter wordt in het combineren van tekstbegrip en logica.

Toch is Apple’s boodschap helder: zolang AI geen echt inzicht toont in redeneerprocessen, moeten we uiterst voorzichtig zijn met hoe en waar we deze technologie inzetten.

Een wake-upcall voor AI-gebruikers

In tijden waarin AI steeds vaker gepresenteerd wordt als een soort digitale denker, herinnert Apple’s studie ons eraan dat schijn bedriegt. AI kan dan wel antwoorden formuleren die klinken als menselijke logica – dat betekent nog niet dat het de logica begrijpt.

Voor gebruikers, bedrijven én beleidsmakers is dit een belangrijk signaal: vertrouwen op AI zonder inzicht in de onderliggende mechanismen kan gevaarlijke gevolgen hebben. Of zoals de onderzoekers het zelf omschrijven: “AI bluft overtuigend, maar denkt niet.”

Intelligence Illusion: What Apple’s AI Study Reveals About Reasoning

To distinguish intelligence from imitation in an AI-infused world we need hybrid intelligence, which arises from complementarity of natural and artificial intelligences.

ONTDEK MEER

 

Aanbevolen voor jou

In de kijker

AI kan vanaf nu de muis overnemen op je scherm

AI kan vanaf nu de muis overnemen op je scherm

Meta zet de volgende stap in AI met AI-gegenereerde posts

Meta zet de volgende stap in AI met AI-gegenereerde posts

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Updates

Inschrijven Nieuwsbrief

Zo word je altijd als eerste op de hoogte gebracht van ons laatste nieuws, updates, jobs, tips & promoties. Stay UP-TO-DATE!

WEBSITE LATEN MAKEN?​​​​​​​​​​​​​​

Kies voor een UP-TO-DATE AI Website 100% in Google

Een UP-TO-DATE AI Website maakt het gemakkelijk om automatisch up-to-date te blijven met je klanten en overal aanwezig te zijn.

Maak een afspraak