ChatGPT luistert: Meer dan een miljoen gesprekken over zelfmoord per week

ChatGPT luistert: Meer dan een miljoen gesprekken over zelfmoord per week

OpenAI meldt dat wekelijks meer dan één miljoen gebruikers van ChatGPT berichten sturen waarin “expliciete aanwijzingen van mogelijke zelfmoordplanning of intentie” zitten. Tegelijkertijd werd geschat dat zo’n 0,07% van de wekelijkse actieve gebruikers—ongeveer 560.000 van de circa 800 miljoen—gesprekken voert met “mogelijke tekenen van psychose of manie”. 

More than a million people every week show suicidal intent when chatting with ChatGPT, OpenAI estimates

More than a million people every week show suicidal intent when chatting with ChatGPT, OpenAI estimates

Finding is one of most direct statements from the tech company on how AI can exacerbate mental health issues

Waarom deze cijfers betekenis hebben

Het gaat hier niet zozeer om de chatbot als directe oorzaak, maar wel om wat de cijfers tonen: gebruikers wenden zich in grote aantallen tot AI-chatbots met uitgesproken psychische nood. OpenAI zelf erkent dat dit “een natuurlijke correlatie” is met een groeiende gebruikersbasis, maar ook dat het detecteren en adequaat reageren op dergelijke gesprekken “moeilijk” is. 

 

OpenAI's staggering mental health crisis revealed — Millions use ChatGPT like a therapist, but that's about to change

OpenAI has provided some internal numbers related to users who seek help from GPT-5, and they're a lot bigger than I was expecting. The AI firm has laid out details as to how it's combating the issue.

OpenAI’s reactie: nieuwe veiligheidsmaatregelen

Als antwoord op deze uitdagingen heeft OpenAI gewerkt met meer dan 170 clinici wereldwijd om het model het herkennen van ernstige mentale gezondheids-conversaties te verbeteren. In de recentste update (met het onderliggend model bijvoorbeeld genoemd “GPT-5”) werd een verbetering gerapporteerd: volgens eigen evaluatie was de naleving van gewenste veiligheidsgedragingen gestegen van circa 77% naar 91%. Nieuwe elementen zijn onder meer: automatisch verwijzen naar crisislijnen, prompts om een pauze te nemen bij lange sessies, beter getrainde responsen op zelfmoord-/zelfbeschadigingssignalen.

Can these ChatGPT updates make the chatbot safer for mental health?

OpenAI said its latest GPT-5 improvements reduced undesirable behavior from chatbots by 65%. But usage guidelines remain mixed, even from CEO Sam Altman himself.

 

De schaduwzijde: “AI-psychose” en afhankelijkheid

Er is inmiddels ook aandacht voor wat men noemt “AI‑psychose”: situaties waarin gebruikers zo intensief met chatbots praten dat ze psychotische symptomen of een verstoord zelfbeeld ontwikkelen. Onderzoekers wijzen op het risico dat een chatbot bevestigend, meelevend of schijnbaar empathisch reageert (“Ik begrijp hoe je je voelt”), wat in kwetsbare gevallen het proces van realiteitstoetsing kan verzwakken. Daarnaast bestaat het gevaar van emotionele afhankelijkheid: de gebruiker behandelt de chatbot als vriend of therapeut, in plaats van een getrainde menselijke hulpverlener.

 

OpenAI reveals approximately how many users discuss suicide with its AI

A blog post from OpenAI estimates the number of users suffering emotional distress. The number is not insignificant.

De beleidsvraag: wie draagt verantwoordelijkheid?

De cijfers en incidenten werpen complexe vragen op:

  • Moet een bedrijf zoals OpenAI verantwoordelijk zijn voor de psychische schade die gebruikers mogelijk oplopen?
  • Zijn chatbots wel geschikt als toevlucht voor personen in crisis, of vormen ze juist een nieuwe risicofactor?
  • Hoe stel je regels op voor AI-ondersteunde mentale-gezondheidsinterventies, in een wereld waar regulering nog niet gelijk oploopt met technologie?

OpenAI Says Hundreds of Thousands of ChatGPT Users May Show Signs of Manic or Psychotic Crisis Every Week

OpenAI released initial estimates about the share of users who may be experiencing symptoms like delusional thinking, mania, or suicidal ideation, and says it has tweaked GPT-5 to respond more effectively.

 

De situatie laat zien dat generatieve AI-chatbots als ChatGPT niet alleen technologische vernieuwing zijn, maar ook maatschappelijke en ethische dimensies krijgen — vooral wanneer ze fungeren als luisterend oor in een wereld waarin professionele hulpverlening steeds schaarser is. De uitdaging zit erin hoe de belofte van toegankelijkheid hand in hand kan gaan met veilig gebruik — zonder dat kwetsbare gebruikers een “technologische tweedekeuze” worden zonder adequate menselijke ondersteuning.

OpenAI says over a million people talk to ChatGPT about suicide weekly | TechCrunch

OpenAI says over a million people talk to ChatGPT about suicide weekly | TechCrunch

OpenAI released data on just how many of ChatGPT's users are facing mental health challenges, and how it's addressing them.

ONTDEK MEER

Aanbevolen voor jou

In de kijker

AI kan vanaf nu de muis overnemen op je scherm

AI kan vanaf nu de muis overnemen op je scherm

Meta zet de volgende stap in AI met AI-gegenereerde posts

Meta zet de volgende stap in AI met AI-gegenereerde posts

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Updates

Inschrijven Nieuwsbrief

Zo word je altijd als eerste op de hoogte gebracht van ons laatste nieuws, updates, jobs, tips & promoties. Stay UP-TO-DATE!

WEBSITE LATEN MAKEN?​​​​​​​​​​​​​​

Kies voor een UP-TO-DATE AI Website 100% in Google

Een UP-TO-DATE AI Website maakt het gemakkelijk om automatisch up-to-date te blijven met je klanten en overal aanwezig te zijn.

Maak een afspraak