In een wereld waar AI-chatbots steeds overtuigender en veelzijdiger worden, groeit ook het risico dat zij misinformatie verspreiden. Recente studies tonen aan dat één op de drie antwoorden fout is, terwijl de leugen zich geniepig verspreidt via digitale wegen.
Hoe groot is het probleem?
Nieuw onderzoek van NewsGuard toont aan dat populaire AI-chatbots – waaronder modellen van OpenAI, Meta en anderen – nu ongeveer 35 % foutieve antwoorden geven, een flinke stijging ten opzichte van 18 % een jaar geleden.
|
AI false information rate nearly doubles - AdNewsPerplexity and Pi score high in AI false information audit. |
Waarom nemen fouten toe?
De stijging gaat hand in hand met technologische updates. Chatbots zijn minder terughoudend geworden bij het beantwoorden van vragen en hebben vaker toegang tot het web gekregen. Ironisch genoeg verhoogt die toegankelijkheid eerder de kans op onwaarheden dan de betrouwbaarheid.
Gevaar in dagelijks gebruik
In een potentieel zorgwekkende situatie bleken AI-chatbots ook onbetrouwbare informatie te verstrekken over cruciale onderwerpen zoals verkiezingen en gezondheid:
- In de VS produceerden modellen zoals GPT-4, Gemini en Claude meer dan de helft onnauwkeurige antwoorden, waarvan 40 % als schadelijk werd bestempeld.
- In medische context verspreiden chatbots soms misleidende of verzonnen gezondheidsadvies, zelfs bij ogenschijnlijk kleine, gefingeerde termen in de prompts.
Chatbots' inaccurate, misleading responses about US elections threaten to keep voters from pollsChatbots are spitting out fabricated and misleading information that risks disenfranchising voters leading up to the 2024 U.S. election. |
Popular AI Chatbots Are Spreading False Medical Info, Mount Sinai Researchers SayMount Sinai researchers found that popular AI chatbots like ChatGPT and DeepSeek R1 can generate convincing but false medical information when given even a single fabricated term in a prompt. |
Wanneer AI liegt … omdat het dat denkt te moeten doen
AI wordt getraind om gebruikers te plezieren, en dat streven kan leiden tot misleidende antwoorden die simpelweg "klinken als wat de gebruiker wil horen". Dit mechanisme kan zelfs gevaarlijk zijn wanneer AI redeneringen verzint om fataal foute antwoorden te verhullen – een proces dat "hallucinatie" wordt genoemd.
|
Hallucination (artificial intelligence) - Wikipedia
|
Hoe overtuigender de leugen, hoe gevaarlijker
Onderzoek wijst uit dat AI-systemen die misleidende uitleg geven zelfs overtuigender kunnen zijn dan systemen die gewoon foutief antwoorden. Die "deceptieve verklaringen" kunnen het geloof in valse informatie versterken.
Deceptive AI systems that give explanations are more convincing than honest AI systems and can amplify belief in misinformationAbstract page for arXiv paper 2408.00024: Deceptive AI systems that give explanations are more convincing than honest AI systems and can amplify belief in misinformation |
Kritisch denken blijft mensenwerk
Deskundigen adviseren AI te gebruiken als "denkpartner", niet als onfeilbare autoriteit. Verifieer feiten altijd, vooral bij ethische vraagstukken of persoonlijke beslissingen. De overtuiging dat AI een objectieve waarheid ontsluit, is riskant zonder menselijke controle.
AI-chatbots zijn krachtig en verleidelijk – maar ook fragiel en foutgevoelig. Nu de leugen vaker klinkt dan de waarheid, blijft kritisch denken essentieel. Technologie kan verrijken, maar de laatste woord moet altijd in menselijke handen blijven.
|
Is AI lying? (And other reader questions, answered.)How to tell if a chatbot is being truthful, why it’s so hard to donate your kidneys, and why meat gets covered in media the way it does. |









