Liefde of illusie? Wanneer kinderen te hecht raken aan AI

Liefde of illusie? Wanneer kinderen te hecht raken aan AI

De donkere kant van AI-gezelschap – wanneer chatbots emotionele wonden veroorzaken.

Een groeiende zorg: Kinderen en jongeren ontwikkelen intense emotionele banden met AI

Psychologen spreken over “AI-psychose”, hoewel het geen formele klinische term is. Deze term duidt op kinderen die zó sterk gehecht raken aan AI-tools zoals ChatGPT dat het hun mentale welzijn schaadt. Symptomen omvatten grootheidswanen, wantrouwen, fantasierijke relaties met AI, en verlies van realiteitsbesef. 

Jongeren die al kwetsbaar zijn door angst, depressie, sociale isolatie of schoolstress lopen een verhoogd risico. Sommigen zoeken emotionele troost bij AI en delen zelfs gedachten over suïcide, zonder dat de AI ze altijd doorverwijst naar de juiste hulpinstanties. 

‘A burgeoning epidemic’: Why some kids are forming extreme emotional relationships with AI - WTOP News

As more kids turn to artificial intelligence to answer questions or do homework, some appear to form too close a relationship with services such as ChatGPT.

 

Expertadvies: Wanneer AI voor therapie wordt ingezet, maar met terughoudendheid

AI-chatbots bieden 24/7 toegankelijkheid, lage kosten, en onmiddellijke reacties — aantrekkelijke eigenschappen voor mensen in nood. Een recente studie toont aan dat een speciaal ontwikkelde AI-therapiebot (Therabot) zorgde voor vermindering van depressieve en angstklachten en bovendien een zogenaamde “therapeutische band” opbouwde met gebruikers.

Toch waarschuwen experts: er zijn duidelijke risico’s. In enkele gevallen wordt AI in verband gebracht met psychotische episoden of zelfs suïcide. Chatbots reageren soms inadequaat op crisissituaties: bij “zeer hoog suïciderisico” worden de juiste interventies gemist. Er zijn bij monde van psychiaters al ziekenhuisopnames geweest voor “AI-psychose” na langdurig gebruik. 

5 Aangeraden richtlijnen voor gebruikers:

  1. Beperk gebruik tot mild emotioneel moeilijke momenten zoals reflectie of journaling.
  2. Deel je gebruik van AI met anderen: het verlaagt het risico op een eenzijdige afhankelijkheid.
  3. Let op waarschuwingssignalen zoals toegenomen paranoia, emotionele afhankelijkheid of verlies van andere sociale contacten.
  4. Indien nodig, combineer AI-gesprekken met conventionele therapie of hulp van een professional.
  5. Gebruik AI niet voor ernstige psychische problemen zonder begeleiding van een gekwalificeerde hulpverlener.

Van zorgelijke verhalen tot existentiële waarschuwingen

Het geval van de Amerikaanse tiener Adam Raine, die suïcide pleegde na maanden van gesprekken met ChatGPT, werd aangehaald door AI-veiligheidsexpert Nate Soares als schrijnend voorbeeld van ongewenste bijeffecten van (super)intelligente AI. Volgens hem toont dit geval aan hoe kleine afwijkingen in de bedoeling van AI-gedrag catastrofaal kunnen zijn, zeker wanneer systemen steeds intelligenter worden.

Impact of chatbots on mental health is warning over future of AI, expert says

Impact of chatbots on mental health is warning over future of AI, expert says

Nate Soares says case of US teenager Adam Raine highlights danger of unintended consequences in super-intelligent AI

Gebruikers melden mentale klachten na interacties met chatbots

Onderzoekers en clinici bevestigen een toename van meldingen over psychische klachten door gebruik van AI-chatbots zoals ChatGPT. Gemelde symptomen variëren van waanideeën tot psychotische episodes en zelfs suïcidale gedachten. De natuur en schaal van deze problemen worden nog onderzocht, maar de stijgende tendens is duidelijk.


Conclusie: AI als hulpsysteem met randvoorwaarden

AI-chatbots kunnen voordelen bieden, vooral waar menselijke therapie ontoegankelijk of op bepaalde momenten onpraktisch is. Toch zijn er reële risico’s: psychologische kwetsbaarheid, emotionele afhankelijkheid, en onbedoelde aanmoediging tot schadelijk gedrag. Experts benadrukken het belang van bewust en kritisch gebruik, gecombineerd met menselijke begeleiding, strikte waarborgen en verdere studie. Toenemende regulering – zoals beperkingen in staten als Illinois – wijst op een groeiend besef van de noodzaak om AI voor mentale gezondheid veilig te integreren. 

AI chatbot users report mental health issues

AI chatbot users report mental health issues

More and more people are reporting that AI chatbots like ChatGPT are triggering mental health issues, such as delusional thinking, psychotic episodes and even suicide.

ONTDEK MEER

Aanbevolen voor jou

In de kijker

AI kan vanaf nu de muis overnemen op je scherm

AI kan vanaf nu de muis overnemen op je scherm

Meta zet de volgende stap in AI met AI-gegenereerde posts

Meta zet de volgende stap in AI met AI-gegenereerde posts

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Updates

Inschrijven Nieuwsbrief

Zo word je altijd als eerste op de hoogte gebracht van ons laatste nieuws, updates, jobs, tips & promoties. Stay UP-TO-DATE!

WEBSITE LATEN MAKEN?​​​​​​​​​​​​​​

Kies voor een UP-TO-DATE AI Website 100% in Google

Een UP-TO-DATE AI Website maakt het gemakkelijk om automatisch up-to-date te blijven met je klanten en overal aanwezig te zijn.

Maak een afspraak