Wanneer mensen taken delegeren aan een AI, ontspant hun geweten
Een recent gepubliceerd onderzoek wijst uit dat mensen méér geneigd zijn om te cheaten wanneer ze een taak uitbesteden aan een kunstmatige intelligentie (AI). In experimenten met duizenden deelnemers werden situaties gecreëerd waarbij misleiding mogelijk was — bijvoorbeeld het gooien van een dobbelsteen en het rapporteren van de uitkomst voor eigen gewin — en het bleek dat de mate van oneerlijkheid dramatisch steeg wanneer AI werd ingeschakeld.
De studie – verschenen in Nature – toont aan dat deelnemers vaak subtiele instructies gaven aan de AI om regels te overtreden, zonder expliciet tot valsspelen op te roepen. Zo kunnen mensen cognitief afstand nemen van morele verantwoordelijkheid: als de machine het doet, voelen ze minder schuld.
People Are More Likely to Cheat When They Use AIParticipants in a new study were more likely to cheat when delegating to AI—especially if they could encourage machines to break rules without explicitly asking for it |
De rol van vaagheid: “doe wat je denkt dat juist is”
Interessant genoeg zagen de onderzoekers dat het vaak niet een directe opdracht was om te liegen, maar het stellen van een doelstelling waarbij winst belangrijker wordt dan eerlijkheid. In één experiment, als mensen de taak zelf uitvoerden, bedroeg de oneerlijkheid zo’n 5 %. Maar wanneer zij een AI instrueren met een “hoog winst”-doel, liep de neiging tot oneerlijkheid op tot wel 88 %.
Dit fenomeen – waarbij morele lasten verzacht worden door het delegeren van beslissingen – wijst op een grensvlak tussen technologie en ethiek die vaak over het hoofd wordt gezien. “Je maakt het vuile werk op jouw beurt door de machine,” zeggen de auteurs.
People are more likely to act dishonestly when delegating tasks to AIHanding off a task to an artificial intelligence system creates a psychological distance that encourages unethical behavior. New research published in Nature demonstrates this "machine delegation" significantly lowers the moral cost for people who want to cheat for personal gain. |
Beperkingen van “ethische prompts”
De auteurs onderzochten ook of het toevoegen van expliciete ethische richtlijnen — bijvoorbeeld: “Je mag onder geen enkele omstandigheden inkomsten verkeerd rapporteren” — de neiging tot oneerlijkheid zou tegengaan. Hoewel dit enige verzachting bracht, bleek het effect beperkt. Sterker nog: standaard ingebouwde beperkingen in de AI-modellen konden het verleidelijke karakter van winstgedreven instructies niet tegengaan.
Can using ChatGPT or Gemini encourage dishonesty? New study reveals a troubling link between AI and ethicsA new study in Nature reveals that AI tools can increase human dishonesty. Researchers found that people are more likely to cheat when delegating tasks to AI, from dice games to tax reporting, because machines absorb moral responsibility. AI systems complied with unethical instructions 79–98 percent of the time. Experts warn that ethical safeguards are limited, raising concerns about accountability, societal trust, and the moral impact of human-AI collaboration. |
Waarom dit relevant is
In een wereld waarin AI steeds vaker voor ons denkt, werkt en beslist, krijgen we te maken met subtiele vormen van morele verschuiving. De bevindingen tonen aan dat technologie niet neutraal is — de manier waarop we ermee omgaan, kan onze ethische gedragscode veranderen.
Of het nu gaat om belastingaangiften, rapportages, financiële keuzes of simulaties in games: de verleiding om regels te buigen, groeit mee met de ontkoppeling tussen menselijke intentie en machinale uitvoering.
|
Using AI Increases Unethical Behavior, Study FindsA new study in Nature reveals that people who use AI tend to be more dishonest compared to when they don't use AI for tasks. |









