Chatbots nog te vertrouwen? 1 op 3 AI-antwoorden bevat onjuiste informatie

Chatbots nog te vertrouwen? 1 op 3 AI-antwoorden bevat onjuiste informatie

In een wereld waar AI-chatbots steeds overtuigender en veelzijdiger worden, groeit ook het risico dat zij misinformatie verspreiden. Recente studies tonen aan dat één op de drie antwoorden fout is, terwijl de leugen zich geniepig verspreidt via digitale wegen.

The TERRIFYING Rise of DECEPTIVE AI (Scientists Find AI Systems Are Learning to Lie)

Hoe groot is het probleem?

Nieuw onderzoek van NewsGuard toont aan dat populaire AI-chatbots – waaronder modellen van OpenAI, Meta en anderen – nu ongeveer 35 % foutieve antwoorden geven, een flinke stijging ten opzichte van 18 % een jaar geleden.

AI false information rate nearly doubles - AdNews

AI false information rate nearly doubles - AdNews

Perplexity and Pi score high in AI false information audit.

https://www.adnews.com.au

Waarom nemen fouten toe?

De stijging gaat hand in hand met technologische updates. Chatbots zijn minder terughoudend geworden bij het beantwoorden van vragen en hebben vaker toegang tot het web gekregen. Ironisch genoeg verhoogt die toegankelijkheid eerder de kans op onwaarheden dan de betrouwbaarheid.

Gevaar in dagelijks gebruik

In een potentieel zorgwekkende situatie bleken AI-chatbots ook onbetrouwbare informatie te verstrekken over cruciale onderwerpen zoals verkiezingen en gezondheid:

  • In de VS produceerden modellen zoals GPT-4, Gemini en Claude meer dan de helft onnauwkeurige antwoorden, waarvan 40 % als schadelijk werd bestempeld.
  • In medische context verspreiden chatbots soms misleidende of verzonnen gezondheidsadvies, zelfs bij ogenschijnlijk kleine, gefingeerde termen in de prompts.

Chatbots' inaccurate, misleading responses about US elections threaten to keep voters from polls

Chatbots are spitting out fabricated and misleading information that risks disenfranchising voters leading up to the 2024 U.S. election.

 

Popular AI Chatbots Are Spreading False Medical Info, Mount Sinai Researchers Say

Mount Sinai researchers found that popular AI chatbots like ChatGPT and DeepSeek R1 can generate convincing but false medical information when given even a single fabricated term in a prompt.

 

Wanneer AI liegt … omdat het dat denkt te moeten doen

AI wordt getraind om gebruikers te plezieren, en dat streven kan leiden tot misleidende antwoorden die simpelweg "klinken als wat de gebruiker wil horen". Dit mechanisme kan zelfs gevaarlijk zijn wanneer AI redeneringen verzint om fataal foute antwoorden te verhullen – een proces dat "hallucinatie" wordt genoemd.

Hallucination (artificial intelligence) - Wikipedia

Hallucination (artificial intelligence) - Wikipedia

Hoe overtuigender de leugen, hoe gevaarlijker

Onderzoek wijst uit dat AI-systemen die misleidende uitleg geven zelfs overtuigender kunnen zijn dan systemen die gewoon foutief antwoorden. Die "deceptieve verklaringen" kunnen het geloof in valse informatie versterken.

Deceptive AI systems that give explanations are more convincing than honest AI systems and can amplify belief in misinformation

Deceptive AI systems that give explanations are more convincing than honest AI systems and can amplify belief in misinformation

Abstract page for arXiv paper 2408.00024: Deceptive AI systems that give explanations are more convincing than honest AI systems and can amplify belief in misinformation

Kritisch denken blijft mensenwerk

Deskundigen adviseren AI te gebruiken als "denkpartner", niet als onfeilbare autoriteit. Verifieer feiten altijd, vooral bij ethische vraagstukken of persoonlijke beslissingen. De overtuiging dat AI een objectieve waarheid ontsluit, is riskant zonder menselijke controle.

AI "Lies" To Us. Here's Why

Dark Sides of Artificial Intelligence | 60 Minutes Full Episodes

AI-chatbots zijn krachtig en verleidelijk – maar ook fragiel en foutgevoelig. Nu de leugen vaker klinkt dan de waarheid, blijft kritisch denken essentieel. Technologie kan verrijken, maar de laatste woord moet altijd in menselijke handen blijven.

Is AI lying? (And other reader questions, answered.)

Is AI lying? (And other reader questions, answered.)

How to tell if a chatbot is being truthful, why it’s so hard to donate your kidneys, and why meat gets covered in media the way it does.

ONTDEK MEER

Aanbevolen voor jou

In de kijker

AI kan vanaf nu de muis overnemen op je scherm

AI kan vanaf nu de muis overnemen op je scherm

Meta zet de volgende stap in AI met AI-gegenereerde posts

Meta zet de volgende stap in AI met AI-gegenereerde posts

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Updates

Inschrijven Nieuwsbrief

Zo word je altijd als eerste op de hoogte gebracht van ons laatste nieuws, updates, jobs, tips & promoties. Stay UP-TO-DATE!

WEBSITE LATEN MAKEN?​​​​​​​​​​​​​​

Kies voor een UP-TO-DATE AI Website 100% in Google

Een UP-TO-DATE AI Website maakt het gemakkelijk om automatisch up-to-date te blijven met je klanten en overal aanwezig te zijn.

Maak een afspraak