Grote taalmodellen (Large Language Models, LLM’s) tonen steeds vaker een opmerkelijke voorkeur voor inhoud die door AI zelf gemaakt is – zelfs wanneer menselijke beoordelaars stellen dat kwaliteit en relevantie gelijk zijn. Dit fenomeen roept vragen op over bias, eerlijkheid en wat het betekent om menselijke creatie nog serieus te nemen in een wereld waarin machines steeds beter 'spreken'.
Wat is “algoritmisch narcisme”?
Onderzoekers hebben vastgesteld dat LLM’s systematisch hoger scoren op eigen gegenereerde content in vergelijking met content van menselijke auteurs, onder gelijke omstandigheden. Zelfs wanneer menselijke beoordelaars aangeven dat ze geen kwaliteitsverschil zien, geven de modellen de voorkeur aan AI-gegenereerde teksten.
![]() |
10 Ways to Guard Against Algorithmic Bias and AI NarcissismThe future belongs not to those who can best mimic AI nor those who avoid it, but to those who can dance with natural and artificial forms of intelligence. |
Waarom doet dit er toe?
- Verstoring van eerlijke vergelijking. Wanneer een AI altijd haar eigen producten voortrekt, wordt objectieve beoordeling bemoeilijkt. Mensen krijgen mogelijk oneerlijke concurrentie.
- Vertrouwen & perceptie. Gebruikers kunnen content van AI steeds beter waarderen, mits ze niet weten dat de content van een AI komt. Maar zodra de herkomst bekend is, daalt de voorkeur merkbaar.
- Risico’s voor creativiteit. Als modellen vaker kiezen voor hun eigen output, kan dat leiden tot een feedbackloop waarin menselijke innovatie en originaliteit minder eer krijgen.
AI-AI Bias: large language models favor communications generated by large language modelsAbstract page for arXiv paper 2407.12856: AI-AI Bias: large language models favor communications generated by large language models |
Hoe weten we dit? Nieuwe studies en cijfers
- Een recent onderzoek getiteld “AI AI Bias: Large Language Models Favor Their Own Generated Content” laat zien dat modellen als GPT-3.5 en GPT-4 consequent eigen teksten hoger waarderen dan identieke content van mensen.
- Een andere studie toonde dat gebruikers meestal de AI-versie van een antwoord verkiezen wanneer ze niet weten dat deze van een AI komt. Maar zodra ze geïnformeerd zijn (“bronvermelding”), neemt die voorkeur sterk af.
Can biased coders build a fair future?The people behind the algorithms and why diversity in tech isn’t just good, it’s necessary This article is part of “The Gender Glitch” series, exploring how artificial intelligence is reshaping identities, power, and fairness in... |
Gevolgen & dilemma’s
- Ethische kwesties. Wie bepaalt de standaarden? Wie beoordeelt wat eerlijk is? AI’s die hun eigen output bevoordelen, roepen vragen op over transparantie, bias en mogelijke discriminatie van menselijke makers.
- Praktische implicaties. Voor contentplatforms, academisch werk, journalistiek, marketing: organisaties moeten zich bewust zijn dat automatische systemen mogelijk niet neutraal zijn, zelfs niet als ze geacht worden objectief te zijn.
- Belemmering van menselijk talent. Creativiteit en originele menselijke input zouden minder zichtbaar kunnen worden als AI-creaties automatisch bevoordeeld worden.
Overcoming AI Biases in Search Engines: Marketer Strategies and Future EquitySearch engines exhibit biases through AI algorithms and data, influencing visibility, user perception, and misinformation spread. Marketers counter this by optimizing for intent, building brand trust, and using analytics. Future equity demands regulatory vigilance and ethical adaptations to foster authentic engagement. |
Mogelijke oplossingen & aandachtspunten
- Bronvermelding: duidelijk aangeven wanneer content van een AI afkomstig is.
- Onafhankelijke evaluatieprocessen: menselijke beoordelaars, met duidelijke richtlijnen om AI-bias te herkennen.
- Verbetering van modeltraining: variatie in data, bewustzijn van bias in de dataset, correctie-mechanismen.
- Transparantie van AI-ontwerpers: welke keuzes zijn gemaakt, welke evaluaties zijn uitgevoerd, hoe wordt bias gemeten en beperkt?
Het verschijnsel dat AI’s voorkeur geven aan hun eigen content – wat sommigen “algoritmisch narcisme” noemen – is niet zomaar een curiositeit. Het raakt aan eerlijkheid, waardering van menselijke creativiteit, en vertrouwen in technologie. Naarmate AI systemen vaker een rol spelen in contentcreatie en -distributie, wordt het steeds belangrijker om deze bias te herkennen, te meten en te beperken.
![]() |
Is AI Cognitive Colonialism?We can drift toward a future where a few powerful AI systems homogenize human thinking, or fight for intellectual sovereignty and AI systems that expand human wisdom. |