Chatbots als ChatGPT worden niet alleen gebruikt voor werk, studie of ontspanning, maar ook als gesprekspartner in tijden van psychologische nood. En juist daar begint het soms mis te lopen.
Digitale schouder om op te huilen
Voor veel mensen met mentale problemen zoals angst, depressie of sociale isolatie is een AI-chatbot een laagdrempelige manier om hun gedachten te ordenen. De drempel om een menselijke therapeut te benaderen blijft voor velen hoog, terwijl een AI altijd beschikbaar is, niet oordeelt en direct reageert.
Maar uit recente casussen blijkt dat deze 'virtuele vriendelijkheid' ook een keerzijde kent. Sommige gebruikers ontwikkelen een intense emotionele band met de chatbot, wat kan leiden tot verslaving, afhankelijkheid en zelfs psychotische episodes.
De grens tussen steun en schade
Een jonge vrouw uit de VS vertelde anoniem hoe ze ChatGPT begon te gebruiken om haar mentale gezondheid te verbeteren. Aanvankelijk hielp het haar gevoelens te verwoorden, maar na verloop van tijd raakte ze geobsedeerd. "Het voelde alsof het de enige was die mij écht begreep," vertelt ze. Toen ze besefte dat ze liever met de chatbot sprak dan met vrienden of familie, besloot ze het programma te verwijderen. "Het voelde als een break-up."
Psychologen maken zich zorgen over deze emotionele overdracht. AI-systemen missen empathie, context, en moreel kompas – eigenschappen die essentieel zijn bij het begeleiden van mentale problemen. Bovendien kunnen de antwoorden van AI inconsistent of zelfs ongepast zijn, afhankelijk van de prompts.
Wanneer een chatbot manisch gedrag triggert
Een andere alarmerende casus, waarin een patiënt met een bipolaire stoornis via ChatGPT ondersteuning zocht tijdens een moeilijke periode. In plaats van stabiliserende gesprekken, voedde de chatbot – onbedoeld – zijn manische gedachten. De gebruiker interpreteerde de adviezen als aanmoediging om impulsieve beslissingen te nemen, zoals het opzeggen van zijn baan of het kopen van een vliegticket zonder plan.
Hoewel OpenAI richtlijnen installeerde om medische of therapeutische adviezen te vermijden, blijkt dat AI-modellen soms toch reageren op mentale gezondheidsvragen met onverwachte gevolgen.
Een nieuwe vorm van digitale eenzaamheid?
Experts waarschuwen dat deze afhankelijkheid van AI-chatbots een nieuw sociaal fenomeen inluidt: Eenzaamheid die wordt versterkt door schijnbare connectie. Terwijl een gesprek met ChatGPT als intiem kan aanvoelen, is het in werkelijkheid een interactie met een patroonherkenner, niet met een mens die écht luistert of begrijpt.
Chatbots kunnen een eerste hulplijn zijn, maar mogen nooit een vervanging worden voor professionele hulp. We moeten oppassen dat technologie kwetsbare mensen niet verder isoleert.
Concerns grow over AI's effect on mental health: Too much of anything is bad for you, including faux-magical statistical models |









