Ondanks hardnekkige ‘hallucinaties’ in generatieve AI, controleren de meeste gebruikers de informatie niet op juistheid – met grote risico’s tot gevolg.
De verleidelijke autoriteit van AI
Generatieve AI-tools zoals ChatGPT, Google Gemini of Claude hebben razendsnel hun weg gevonden naar het dagelijks leven. Van werkstukken tot marketingstrategieën en juridische samenvattingen: AI genereert moeiteloos tekst op menselijke toon. Maar volgens een recente studie van Salesforce en Lucid vertrouwen gebruikers AI-antwoorden schrikbarend vaak zonder ze te verifiëren. Maar liefst 92% van de ondervraagden controleert de antwoorden van AI niet op juistheid.
Dat blinde vertrouwen is problematisch, want AI-hallucinaties – verzonnen feiten die als waar gepresenteerd worden – komen vaker voor dan velen beseffen. De technologie klinkt overtuigend, maar dat maakt haar niet per se accuraat.
De grote hallucinaties van kunstmatige intelligentie
AI-hallucinaties ontstaan wanneer taalmodellen "statistisch plausibele" zinnen genereren zonder begrip van waarheid of realiteit. Zo kan AI bijvoorbeeld foutieve citaten toeschrijven aan beroemdheden, onbestaande wetenschappelijke studies verzinnen of zelfs nepwetsartikelen opstellen die klinken als echte regelgeving.
Waarom controleren mensen AI-antwoorden niet?
Volgens gedragswetenschappers speelt gemak een grote rol: AI levert snelle antwoorden, en in een wereld van tijdsdruk wint snelheid het vaak van nauwkeurigheid. Bovendien klinkt AI overtuigend en zelfverzekerd – iets waar het menselijke brein gevoelig voor is.
In de praktijk betekent dit dat foutieve AI-antwoorden vaak rechtstreeks in rapporten, mails of presentaties terechtkomen zonder enige vorm van controle. Vooral in sectoren als onderwijs, gezondheidszorg, recht en journalistiek is dat ronduit gevaarlijk.
Bedrijven onderschatten de risico’s
Veel organisaties zetten AI in voor klantenservice, tekstcreatie of interne analyses, zonder duidelijke kwaliteitscontrole. Er zijn nog weinig protocollen die werknemers verplichten om AI-uitvoer te controleren. Hierdoor ontstaan niet alleen reputatierisico’s, maar ook juridische en ethische valkuilen.
Sommige experts pleiten zelfs voor een ‘AI-waarschuwing’ – een soort disclaimer bij gegenereerde inhoud – of voor automatische factchecks ingebouwd in AI-systemen.
Kritisch denken is weer helemaal in
Het rapport benadrukt dat kritisch denken en mediawijsheid cruciale vaardigheden zijn in het AI-tijdperk. Gebruikers moeten leren om AI-antwoorden te behandelen zoals men dat zou doen met een willekeurige bron: met een gezonde dosis scepsis.
Een simpel Google-verzoek of het controleren van een bron kan al helpen om feit en fictie van elkaar te onderscheiden. Maar dat vraagt om een culturele omslag waarin niet alleen efficiëntie telt, maar ook verantwoordelijkheid.
Conclusie: Vertrouw AI, maar verifieer altijd
Generatieve AI is een krachtige assistent, maar geen alwetende orakel. Net zoals je een collega of een bron uit Wikipedia niet blind zou volgen, verdient ook AI een kritische blik. In een tijd waarin technologie steeds menselijker klinkt, is het des te belangrijker om menselijk te blijven denken.