In een opmerkelijke ontwikkeling binnen de kunstmatige-intelligentie-wereld zijn sommige antwoorden van zowel OpenAI’s ChatGPT als het AI-model Claude van Anthropic begonnen te verwijzen naar Grokipedia — een online encyclopedie die volledig door AI is gegenereerd door Elon Musk’s AI-bedrijf xAI.
Wat dit nieuws bijzonder maakt, is dat Grokipedia nog een tamelijk nieuwe en experimentele bron is, en dat zijn aanwezigheid in de referentielijst van deze grote LLM-modellen vragen oproept over informatie-integriteit en bronselectie.
Latest ChatGPT model uses Elon Musk’s Grokipedia as source, tests revealGuardian found OpenAI’s platform cited Grokipedia on topics including Iran and Holocaust deniers |
Grokipedia: Geen Wikipedia, wél groeiende bron
Groki-wat…? Grokipedia werd eind oktober 2025 geïntroduceerd als een alternatief voor de traditionele encyclopedie Wikipedia — maar dan volledig gegenereerd door kunstmatige intelligentie, zonder menselijke redacteurs of moderators.
Ondanks dat de site nog relatief jong is, zijn er al miljoenen artikelen geproduceerd. In testen ondervond The Guardian dat ChatGPT Grokipedia als bron gebruikte voor een reeks vragen, waarbij de verwijzingen vooral terugkwamen bij obscure of minder bekende onderwerpen.
“Het model richt zich op een brede waaier van publiek beschikbare bronnen,” aldus een woordvoerder van OpenAI, “met veiligheidsfilters om risicovolle informatie te beperken.”
Vooringenomenheid, betrouwbaarheid en wankele autoriteit
De opkomst van Grokipedia als bron roept fundamentele vragen op: wat zegt het over de manier waarop AI-modellen kijken naar kennis?
Critici merken op dat Grokipedia niet dezelfde redactionele normen hanteert als Wikipedia. Artikelen worden door AI gegenereerd, wat enerzijds snelle groei mogelijk maakt, maar anderzijds risico’s met zich meebrengt op gebied van nauwkeurigheid en bias — zeker omdat sommige inhoud mogelijk ideologisch gekleurd of foutief kan zijn.
Het gebruik van deze bron door ChatGPT en Claude laat zien dat taalmodellen niet alleen putten uit traditionele databases of gecontroleerde inhoud, maar ook uit nieuwe, geautomatiseerde kennisbronnen. Dat sommige citaties juist bij obscure vragen verschijnen suggereert selectief gebruik — maar of dat veilig is, daar verschillen experts van mening over.
Grokipedia in bredere AI-context
Grokipedia is niet de enige bron die door AI-modellen wordt aangehaald, maar het feit dat het zo snel zichtbaarheid krijgt in systemen als ChatGPT en Claude toont aan hoe dynamisch en complex de informatie-ecosystemen van vandaag zijn.
Terwijl traditionele encyclopedieën zoals Wikipedia vertrouwen op menselijke consensus en redactie, gebruiken deze LLM’s algoritmisch gegenereerde kennis die continu verandert — een trend die zowel kansen als uitdagingen biedt voor informatie-gebruikers.
Wat betekent dit voor gebruikers?
Voor degenen die ChatGPT of Claude gebruiken als bron van feitelijke informatie betekent dit: wees kritisch. Als een antwoord verwijst naar Grokipedia kan dat interessante inzichten bieden — maar het betekent ook dat het antwoord niet per definitie geverifieerd is op dezelfde manier als klassieke, door mensen gecontroleerde bronnen.
Transparantie over bronnen blijft cruciaal als AI-systemen onze informatievoorziening steeds verder beïnvloeden.









