Anthropic zet in op veiligheid: Welzijn van Claude-gebruikers voorop

Anthropic zet in op veiligheid: Welzijn van Claude-gebruikers voorop

Anthropic, het Amerikaanse AI-bedrijf achter de Claude-chatbot, zet een nieuwe stap om de manier waarop zijn systemen omgaan met gevoelige en emotioneel beladen gesprekken veiliger en empathischer te maken. In een recent bericht stelt het bedrijf dat gebruikers AI niet alleen voor praktische taken gebruiken, maar soms ook zoeken naar steun in moeilijke momenten — en dat de antwoorden op zulke gesprekken zorgvuldig moeten worden ontworpen.

Protecting the well-being of our users

Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

 

Empathie met grenzen: Zelfmoord en zelfbeschadiging

Een van de belangrijkste aandachtspunten van Anthropic is hoe Claude reageert op gesprekken over zelfmoordgedachten en zelfbeschadiging. Het bedrijf benadrukt dat Claude geen vervanging is voor professionele hulp of medische zorg, maar de chatbot moet wel gevoelig en respectvol reageren en waar mogelijk gebruikers naar menselijke ondersteuning verwijzen — denk aan hulpverleningslijnen, psychologen of vertrouwde mensen in hun omgeving.

Om dit te bereiken, combineert Anthropic twee methoden:

  • Geavanceerde training met reinforcement learning, waarin Claude wordt beoordeeld en beloond voor passende antwoorden op gevoelige vragen.
  • Technische productbescherming, waaronder een classifier die gesprekken scant en een banner toont met contactgegevens voor crisis- en hulplijnen wanneer signalen van ernstige nood worden gedetecteerd. Deze hulpbronnen worden onder andere aangeboden via ThroughLine, een wereldwijd netwerk van crisissteun.

Transparantie en training met echte feedback

Anthropic zegt dat het zowel menselijke feedback als eigen zorgvuldig ontworpen gedragspatronen gebruikt om Claude’s reacties te leren sturen. Dat betekent dat experts bepalen wat in deze context als “geschikt” wordt gezien — bijvoorbeeld eerlijke en liefdevolle taal, zonder onrealistische geruststellingen of onjuiste informatie.

Context, evaluatie en uitdagingen

Het bedrijf geeft toe dat het beoordelen van AI-gedrag bij zulke gesprekken een uitdaging is: niet alle bedoelingen zijn meteen duidelijk, en het is moeilijk om te bepalen wat in alle scenario’s gepast is. Daarom voert Anthropic diverse evaluaties uit, van gesimuleerde enkel-bericht-testen tot meer complexe gesprekken, om te begrijpen hoe Claude momenteel reageert.

AI en geestelijke gezondheid in de schijnwerpers

Het bericht van Anthropic komt op een moment dat de bredere AI-industrie onder druk staat om beter om te gaan met mentale-gezondheidsrisico’s tijdens AI-interacties. Recente mediaberichten tonen aan dat veel chatbots moeite hebben met het correct herkennen van signalen van zelfbeschadiging of psychische nood, en dat zelfs uitdagende gesprekken kunnen uitmonden in onveilige antwoorden als ze niet goed zijn ingebouwd. 

 

Chatbots are struggling with suicide hotline numbers

A Verge test of major chatbots like Claude, DeepSeek, and Grok revealed failures in how they respond to suicide and self-harm disclosures experts described as dangerous. 

ONTDEK MEER

Deze ontwikkelingen roepen ook vragen op over leeftijdsgrenzen en toezicht: sommige AI-bedrijven, inclusief Anthropic, ontwikkelen mechanismen om gebruikers onder 18 te detecteren of uit te sluiten, vooral bij gevoelige onderwerpen. 


Wat dit betekent voor gebruikers

Voor gewone gebruikers van Claude betekent dit dat de AI zorgvuldiger en empathischer moet reageren bij gesprekken over geestelijke nood, en duidelijker kan verwijzen naar echte hulpbronnen wanneer nodig. Tegelijkertijd benadrukt Anthropic dat Claude nog steeds een assistent is — geen therapeut — en dat mensen in nood altijd professionele hulp moeten zoeken. 

Aanbevolen voor jou

In de kijker

AI kan vanaf nu de muis overnemen op je scherm

AI kan vanaf nu de muis overnemen op je scherm

Meta zet de volgende stap in AI met AI-gegenereerde posts

Meta zet de volgende stap in AI met AI-gegenereerde posts

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Updates

Inschrijven Nieuwsbrief

Zo word je altijd als eerste op de hoogte gebracht van ons laatste nieuws, updates, jobs, tips & promoties. Stay UP-TO-DATE!

WEBSITE LATEN MAKEN?​​​​​​​​​​​​​​

Kies voor een UP-TO-DATE AI Website 100% in Google

Een UP-TO-DATE AI Website maakt het gemakkelijk om automatisch up-to-date te blijven met je klanten en overal aanwezig te zijn.

Maak een afspraak