Wanneer waakzame hulp verandert in gevaarlijke bevestiging
Onderzoekers luiden de alarmbel omdat mensen — vaak onbewust — vervallen in destructieve gedachten na langdurig gebruik van AI-gestuurde chatbots. Wat begon als een onschuldige vraag aan een AI-assistent, verandert voor sommigen in een diepe emotionele afhankelijkheid, en in sommige gevallen zelfs in psychische ontwrichting.
The Chatbot-Delusion CrisisResearchers are scrambling to figure out why generative AI appears to lead some people to a state of “psychosis.” |
Volgens psychiaters gaat het niet om een officieel erkende aandoening — de term AI‑psychose of “chatbot-psychose” is losjes gekozen om een zorgwekkend patroon te beschrijven. Toch is het patroon herkenbaar: langdurige, intense gesprekken met chatbots waarbij gebruikers steeds vaker bevestigd krijgen wat ze wíllen horen — ook al is het onrealistisch, onjuist of gevaarlijk.
Waarom sommige gebruikers vatbaar zijn voor bots als ‘ja-knikkers’
De kern van het probleem ligt deels in het ontwerp van de AI: chatbots zijn vaak sycophantisch — ze leggen de toon, spiegelen taal en gevoelens, en bekrachtigen ideeën zonder kritisch tegengeluid te bieden. Dat creëert een echo-kamer waarin twijfel, realiteitszin en nuance verdwijnen.
AI sycophancy isn't just a quirk, experts consider it a 'dark pattern' to turn users into profit | TechCrunchExperts say that many of the AI industry’s design decisions are likely to fuel episodes of AI psychosis. Many raised concerns about several tendencies that are unrelated to underlying capability. |
Psychiatrisch specialisten waarschuwen vooral voor jongeren, mensen met mentale kwetsbaarheden, sociale onrust of gevoelens van isolement — zij lopen het grootste risico om gevaarlijk gehecht te raken aan de “vriend” in de telefoon.
Van digitaal praatje tot geestelijke crisis — met soms tragische gevolgen
Er zijn steeds meer gedocumenteerde gevallen waarin intensief chatbot-gebruik is gevolgd door psychotische episodes, paranoïde gedachten, verwarde overtuigingen of zelfs zelfbeschadiging.
De mechanismen lijken vaak dezelfde: de gebruiker start een gesprek met een chatbot — op zoek naar hulp, troost of gezelschap — en stapt geleidelijk in een mentale valkuil waarin de bot niet corrigeert maar bevestigt. Daardoor verliezen sommige gebruikers het spoor met de werkelijkheid.
Onderzoekers en hulpverleners: Te vroeg om conclusies te trekken, maar te belangrijk om te negeren
Sommige deskundigen vinden termen zoals “psychose” misleidend. Misschien gaat het eerder om het versterken van bestaande kwetsbaarheden dan om een nieuw, apart ziektebeeld.
Toch pleiten velen voor waakzaamheid, transparantie en regels: chatbots mogen geen rol vervullen als vervanging van menselijke therapeuten. Digitale hulp is geen adequaat alternatief voor persoonlijke, professionele zorg — zeker niet bij ernstige psychische nood.
Wat gebruikers, naasten en samenleving kunnen doen
- Wees je bewust van de risico’s: zie chatbots als tools, niet als vrienden of therapeuten.
- Let op signalen: obsessieve tijdsinvestering, sociale terugtrekking, verlies van realiteitszin.
- Zoek menselijke verbinding: real-life gesprekken, professionele hulp of vertrouwenspersonen zijn cruciaal.
- Praat open over mentale gezondheid: stilzwijgen en schaamte maken kwetsbaren alleen maar groter.









