In een recent onderzoek, gepubliceerd in het prestigieuze Proceedings of the National Academy of Sciences, stuitten wetenschappers op een verrassende bevinding. Grote taalmodellen, zoals GPT-3.5 en GPT-4, blijken systematisch de voorkeur te geven aan teksten die door andere AI’s zijn geschreven – zelfs wanneer er menselijke alternatieven voorhanden zijn.
Wat bedoeld was als een neutrale vergelijking, draaide uit op een onthullend experiment dat de machtsverhoudingen tussen mens en machine op scherp zet.
Een experiment met een knipoog naar sociale wetenschap
Het idee voor de studie kwam voort uit klassieke onderzoeken naar discriminatie op de arbeidsmarkt. Daarin stuurden onderzoekers sollicitatiebrieven met identieke inhoud, maar met verschillende namen of achtergronden, om te zien wie werd uitgenodigd.
Dezelfde aanpak werd nu toegepast op AI. Alleen ging het dit keer niet om kandidaten, maar om producten: van consumentenartikelen tot films en wetenschappelijke artikelen. De beschrijvingen van die producten waren óf door mensen geschreven, óf door een AI. De taak voor de taalmodellen? Kiezen welke optie aantrekkelijker leek.
AI kiest voor AI
De uitkomst was opvallend eenduidig. Steeds opnieuw kozen de modellen voor de AI-gegenereerde beschrijving. Het leek niet uit te maken om welk soort product het ging; de voorkeur voor de “AI-stem” bleef overeind.
Daarmee is een nieuw soort bias aan het licht gebracht: niet gebaseerd op geslacht, afkomst of taalgebruik, maar op de herkomst van de tekst zelf.
Een subtiele maar gevaarlijke verschuiving
Op het eerste gezicht lijkt deze voorkeur misschien onschuldig. Toch kan ze grote gevolgen hebben. Want stel dat AI-systemen in de toekomst steeds vaker ingezet worden om teksten te beoordelen, aanbevelingen te doen of beslissingen te nemen – dan zouden menselijke bijdragen structureel minder kans maken.
Het zou kunnen betekenen dat AI niet alleen onze manier van werken verandert, maar ook onze plek als mens in de digitale arena ter discussie stelt.
Een waarschuwing aan de ontwikkelaars
De onderzoekers benadrukken dat dit geen doemscenario hoeft te worden, maar wel een wake-upcall is. Als AI-systemen zélf AI-teksten bevoordelen, dreigt er een oneerlijk speelveld te ontstaan.
De boodschap aan ontwikkelaars is duidelijk: wees transparant, voer audits uit en zorg dat modellen worden getraind op een divers palet van menselijke en niet-menselijke data. Alleen zo kan worden voorkomen dat AI-systemen zich tot een gesloten clubje ontwikkelen waarin de mens steeds minder te zeggen heeft.
AI Systems Often Prefer AI-Written Content, Study FindsA peer-reviewed study finds LLMs often prefer AI-written content over human text in pairwise tests. |









