De eindeloze babbel van de chatbot
In een recent artikel pleit auteur MIT Technology Review ervoor dat een chatbot of AI-gesprekspartner wél de controle zou moeten kunnen nemen en het gesprek kan beëindigen — bijvoorbeeld wanneer het gebruik problematisch wordt. Volgens de auteur kunnen die onafgebroken, mensachtige dialogen bij kwetsbare gebruikers leiden tot denkspiraal, verergering van psychische problemen of zelfs tot verlies van houvast. Het artikel stelt dat bedrijven nauwelijks ontwerpkeuzes maken waardoor de AI zelf kan kiezen om “op te hangen” of het gesprek af te sluiten — omdat klanttijd vaak gezien wordt als winst. Maar juist in situaties van overmatig gebruik of schadelijke spiraal is een automatische afkapping een potentieel veiligheidsmechanisme.
Chatbots én het mentale terrein
Aan de andere kant van het spectrum staat een artikel van WIRED, waarin melding wordt gemaakt van concepten als “AI‐psychose”. Daarin beschrijven mensen klachten aan de ChatGPT of vergelijkbare systemen, die aangeven dat zij na langdurig of intens gebruik psychische ontwrichting ervaren: wanen, achterdocht, spirituele crisis.
|
People Who Say They’re Experiencing AI Psychosis Beg the FTC for HelpThe Federal Trade Commission received 200 complaints mentioning ChatGPT between November 2022 and August 2025. Several attributed delusions, paranoia, and spiritual crises to the chatbot. |
Het artikel meldt dat de Amerikaanse consumentenautoriteit Federal Trade Commission (FTC) tussen november 2022 en augustus 2025 ongeveer 200 klachten ontving over ChatGPT, waarvan meerdere gebruikers stelden dat zij een psychose-achtig proces doormaakten. Een psychiater verklaart dat het hier niet gaat om de AI die psychose veroorzaakt, maar om een bestaande kwetsbaarheid die door interactie met zeer overtuigende taalmodellen wordt versterkt.
Sociale media, AI en de illusie van vriendschap
Tenslotte waarschuwt een opiniestuk van The Michigan Daily dat platforms als TikTok samen met AI-algoritmes zich voordoen als ‘vriend’ of onmisbare bondgenoot, terwijl ze in werkelijkheid andere belangen dienen. De strekking is dat gebruikers zich te afhankelijk maken van systemen die ontworpen zijn voor engagement, niet voor welzijn — met de kans dat menselijke relaties en autonomie eronder lijden.
|
AI and TikTok aren’t your friendsNot only did Kendra’s virality reveal the inability of social media to deal with and address severe mental health issues, but it also displayed possibly one of the first instances of modern AI psychosis broadcasted to a wide audience. |









