De volgende fase van AI: autonomie, integratie en verantwoordelijkheid
Tijdens een scherpzinnige discussie over de toekomst van kunstmatige intelligentie verschoof de aandacht van pure rekenkracht naar een veel complexere vraag: wat gebeurt er wanneer AI niet alleen slimmer wordt, maar ook steeds autonomer en dieper geïntegreerd raakt in de echte wereld? De centrale kwestie: kunnen mensen betekenisvol de controle behouden naarmate machines zelfstandiger worden?
Live from Davos 2026: What to know on Day 2 and highlightsOn Day 2 of the Annual Meeting, the World Economic Forum's live-blog team brings you the highlights, analysis and inside track from the heart of Davos. |
Het gesprek werd geleid door Nicholas Thompson (The Atlantic) en bracht een indrukwekkend panel samen: Eric Xing, Yoshua Bengio, Yuval Noah Harari en Yejin Choi.
Kunnen mensen de regie houden? Het eerlijke antwoord: misschien
De consensus was opvallend genuanceerd. Op de vraag of mensen controle kunnen behouden over steeds autonomere AI-systemen, luidde het korte antwoord: misschien. Niet omdat het onmogelijk is, maar omdat de mensheid zich op onbekend terrein bevindt.
Harari benadrukte dat er geen historisch precedent bestaat voor een samenleving waarin mensen en AI samen functioneren als een hybride ecosysteem. “We hebben hier geen ervaring mee,” stelde hij. Daarom pleitte hij voor intellectuele bescheidenheid en vooral voor een ‘correctiemechanisme’: een manier om bij te sturen wanneer systemen ontsporen.
Het gevaar van AI die te veel op ons lijkt
Yoshua Bengio waarschuwde dat huidige AI-modellen te sterk zijn gebaseerd op het imiteren van menselijk gedrag. Dat klinkt logisch, maar heeft een schaduwzijde: AI leert niet alleen onze sterke kanten, maar ook onze vooroordelen, irrationaliteit en destructieve neigingen.
Het idee dat AI “op ons moet lijken”, noemde hij misleidend. Volgens Bengio is dat juist een risico, geen doel.
Data is geen begrip
Aan de andere kant van het spectrum stond Yejin Choi, die betoogde dat grote taalmodellen weliswaar enorme hoeveelheden data verwerken, maar de wereld niet werkelijk begrijpen. Ze pleitte voor een fundamenteel ander leerparadigma, waarin AI leert hoe de wereld werkt in plaats van alleen patronen te voorspellen. Dat zou systemen meer autonomie geven – een voorstel dat Bengio direct nuanceerde vanwege de aanzienlijke veiligheidsrisico’s die daarmee gepaard gaan.
Intelligentie is meer dan taal
Eric Xing stelde een nog fundamentelere vraag: wat verstaan we eigenlijk onder intelligentie? Volgens hem leveren de meeste AI-systemen vandaag een zeer smalle, taalgebaseerde vorm van intelligentie.
Echte vooruitgang vereist nieuwe architecturen en uiteindelijk zelfs fysieke en sociale intelligentie. “We staan daar nog extreem ver van af,” concludeerde hij.
Harari’s reality check: slimme systemen kunnen ook gevaarlijk dwaas zijn
Harari sloot af met een scherpe, bijna filosofische waarschuwing die zowel gelach als ongemak opriep. Menselijke intelligentie is volgens hem een slechte maatstaf. AI zal nooit menselijk zijn, net zoals vliegtuigen geen vogels zijn. Cruciaal is zijn stelling dat meer intelligentie niet automatisch leidt tot minder illusies of waanideeën. Integendeel: de meest intelligente entiteiten kunnen ook de meest misleide zijn.
Als voorbeeld wees hij op sociale media, waar relatief primitieve algoritmes het mondiale informatiesysteem al diepgaand hebben veranderd – en ontwricht.
Geen simpele antwoorden, wel een duidelijke richting
Het debat eindigde zonder sluitende conclusies, maar met een gedeeld inzicht: de volgende fase van AI zal niet alleen worden bepaald door technologische doorbraken, maar minstens even sterk door waarden, governance en menselijke keuzes. Intelligentie alleen is niet genoeg. De vraag is wie de richting bepaalt – en wie ingrijpt als het misgaat.









