Een onthullende studie legt zwakheden bloot
Een omvangrijk internationaal onderzoek van de European Broadcasting Union (EBU) en de BBC toont aan dat artificial-intelligence-assistenten — zoals ChatGPT, Copilot, Gemini en Perplexity — bij nieuwsopdrachten in liefst 45% van de gevallen een significant probleem bevatten. In totaal werden circa 3.000 reacties in 14 talen geanalyseerd.
AI models misrepresent news events nearly half the time, study saysAccording to the research, 45 percent of responses to questions about the news had at least one ‘significant’ issue. |
Waar zitten de fouten?
De studie concludeert dat de fouten zich vooral manifesteren in drie domeinen:
- Bronvermelding: ongeveer een derde van de antwoorden had ernstige fouten in de bronvermelding — bijvoorbeeld ontbrekende, misleidende of incorrecte attributies.
- Feitelijke juistheid: ruim 20% van de reacties bevatte feitelijke onjuistheden, zoals verouderde data of geheel verkeerde informatie (bijvoorbeeld verkeerde wetgeving of attributies).
- Taal of gebieds-overkoepelend: de problemen waren niet gebonden aan één taal of land — het betrof alle talen en regio’s die onderzocht werden.
Largest study of its kind shows AI assistants misrepresent news content 45% of the time - regardless of language or territory - News - VRT InternationalVRT investigated the news reliability of AI together with 21 European broadcasters. Read this article! |
Bijzonder is dat de AI-assistent van Google, Gemini, in de test de hoogste foutenmarge liet zien: in 72 % van de gevallen werd er een significante fout geconstateerd.
Waarom is dit relevant?
Gezien het groeiende gebruik van AI-assistenten voor nieuwsconsumptie is de uitkomst zorgwekkend. Volgens het Reuters Institute for the Study of Journalism gebruiken 7 % van alle online nieuwsconsumenten en 15 % van de under-25-groep AI-assistenten om nieuws te lezen. De EBU waarschuwt dat deze onnauwkeurigheden het vertrouwen in nieuwsmedia en de democratische participatie kunnen aantasten.
Largest study of its kind shows AI assistants misrepresent news content 45% of the time – regardless of language or territoryAn intensive international study was coordinated by the European Broadcasting Union (EBU) and led by the BBC |
Wat betekent dit voor nieuwsconsumenten en mediaprofessionals?
- Voor de lezer: het is belangrijk om kritisch te blijven, ook bij antwoorden van AI-assistenten. Niet alles wat snel verschijnt is automatisch betrouwbaar.
- Voor mediabedrijven: de studie bevestigt dat publieke omroepen zoals de Belgische VRT hun reserves hebben tegenover het vrijgeven van hun content aan AI-platformen.
- Voor AI-ontwikkelaars: er is een dringende oproep tot verbetering — zowel in bronvermelding, feitelijke juistheid, als transparantie over wanneer iets feit is versus welke (mogelijke) opinie.
De boodschap is helder: hoewel AI-assistenten steeds vaker ingezet worden als nieuwsbronnen, mogen we ze beslist nog niet klakkeloos vertrouwen. Het onderzoek zorgt voor een wake-up-call: in de wereld van digitale informatie is sceptisch blijven geen luxe, maar noodzaak.









