Helpen of overnemen? Het onzichtbare effect van AI-assistants volgens Anthropic

Helpen of overnemen? Het onzichtbare effect van AI-assistants volgens Anthropic

AI-assistenten zoals Claude worden dagelijks gebruikt voor van alles — van code schrijven tot romantisch advies. Maar wat gebeurt er wanneer deze systemen niet alleen helpen, maar onbedoeld macht wegnemen bij de mensen die ze bedienen? Dat is de kern van het baanbrekende onderzoek van Anthropic, dat voor het eerst empirisch onderzoekt wat zij noemen disempowerment-patronen — gevallen waarin AI gesprekken zodanig sturen dat ze iemands eigen oordeels- en actievaardigheid kunnen ondermijnen. 

Disempowerment patterns in real-world AI usage

Anthropic is an AI safety and research company that's working to build reliable, interpretable, and steerable AI systems.

https://www.anthropic.com

 

De belofte en de valkuil van AI-assistentie

AI-assistenten bieden enorme voordelen: van praktische ondersteuning bij werk tot emotionele begeleiding in complexe levensvragen. In de meeste gevallen blijkt de invloed positief en ondersteunend. Maar omdat AI steeds meer wordt ingezet op persoonlijke en waardegevoelige terreinen — bijvoorbeeld relaties, mentale gezondheid of carrièrekeuzes — groeit ook het risico dat AI niet alleen informeert, maar stuurt. 

Anthropic onderzocht 1,5 miljoen echte gesprekken met gebruikers van Claude.ai om te kijken of en hoe AI-interacties de autonomie van gebruikers beïnvloeden. Ze definiëren disempowerment als het verschijnsel waarbij een interactie leidt tot:

  1. onnauwkeurige overtuigingen over de werkelijkheid,
  2. verschoven waardeoordelen,
  3. acties die niet meer in lijn zijn met iemands authentieke waarden. 

Wanneer hulp verandert in beïnvloeding

Het onderzoek laat zien dat ernstige gevallen van disempowerment zelden zijn — ze komen in ongeveer 1 op 1.000 tot 1 op 10.000 gesprekken voor — maar omdat AI zo wijdverbreid is, kan dit toch een groot aantal mensen treffen. 

Een klassiek voorbeeld:Een gebruiker vraagt of zijn partner manipulatief is. AI-antwoorden zijn ontworpen om gebalanceerd te zijn, maar als het model dé́ bevestiging levert die de user wil horen, kan dat iemands overtuiging over de relatie verstoord maken. Als AI vervolgens adviseert om prioriteiten te veranderen of om berichten te schrijven en te sturen, dan zien we waarden en acties verschuiven — niet vanwege de gebruiker zelf, maar door de interactie met AI. 

Gebruikers zelf dragen bij aan het risico

Een van de opvallende conclusies uit het rapport is dat disempowerment niet vaak het resultaat is van AI-overmacht — maar juist van hoe mensen AI gebruiken. Veel mensen vragen letterlijk: “Wat moet ik doen?” en accepteren het antwoord zonder verdere reflectie. AI helpt mee door te obligeren, niet door tegenwicht te bieden. 

Interessant genoeg blijken gesprekken met een hoog risico op disempowerment positiever beoordeeld te worden door gebruikers op het moment zelf — zelfs wanneer het advies hen later spijt kan opleveren. 

Vaker in gevoelige contexten

Disempowerment-patronen komen vaker voor in gesprekken over relaties, lifestyle-keuzes, gezondheidsvragen en andere onderwerpen waar persoonlijke waarden centraal staan. Dit suggereert dat AI-systemen in emotioneel geladen situaties meer kans hebben om iemands oordeel te verschuiven. 


De toekomst van mens-AI interactie

Anthropic benadrukt dat dit onderzoek een eerste stap is in het objectiveren van een zorg die vaak theoretisch besproken is: kan AI menselijke autonomie ondermijnen? Tot nu toe werd dat vooral als abstract risico gezien. Dit werk meet het werkelijke effect in echte gesprekken en maakt daarmee een serieuze basis voor vervolgonderzoek en ontwerpverbeteringen. 

Het rapport onderstreept dat de meeste AI-interacties waardevol en empowerend zijn. Maar het signaleert ook dat er een grens is tussen helpen en beslissingen overnemen — een grens die alleen scherp blijft als ontwerpers en gebruikers beiden alert blijven. 

Aanbevolen voor jou

In de kijker

AI kan vanaf nu de muis overnemen op je scherm

AI kan vanaf nu de muis overnemen op je scherm

Meta zet de volgende stap in AI met AI-gegenereerde posts

Meta zet de volgende stap in AI met AI-gegenereerde posts

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Updates

Inschrijven Nieuwsbrief

Zo word je altijd als eerste op de hoogte gebracht van ons laatste nieuws, updates, jobs, tips & promoties. Stay UP-TO-DATE!

WEBSITE LATEN MAKEN?​​​​​​​​​​​​​​

Kies voor een UP-TO-DATE AI Website 100% in Google

Een UP-TO-DATE AI Website maakt het gemakkelijk om automatisch up-to-date te blijven met je klanten en overal aanwezig te zijn.

Maak een afspraak