Gebruikers vertrouwen blind op AI — en zien geen vooringenomenheid

Gebruikers vertrouwen blind op AI — en zien geen vooringenomenheid

Onderzoekers van Penn State University en Oregon State University ontdekten dat gebruikers een systematische bias in de trainingsgegevens van kunstmatige intelligentie (AI) nauwelijks opmerken. In hun experimenten bleek dat wanneer de datasets alleen witte gezichten toonden voor “gelukkige” emoties en zwarte gezichten voor “verdrietige”, de proefpersonen zelden bewust werden van deze ongelijkheid.

Most users cannot identify AI bias, even in training data | Penn State University

Most users cannot identify AI bias, even in training data | Penn State University

When recognizing faces and emotions, artificial intelligence (AI) can be biased, like classifying white people as happier than people from other racial backgrounds. This happens because the data used to train the AI contained a disproportionate number of happy white faces, leading it to correlate race with emotional expression

De studie in vogelvlucht

De wetenschappers creëerden twaalf varianten van een prototype AI-systeem dat gezichtsuitdrukkingen moest herkennen. In totaal namen 769 deelnemers deel aan drie experimenten waarin diverse scenario’s werden gepresenteerd:

  • In één scenario werd bijvoorbeeld uitsluitend witte gezichten gebruikt voor blije emoties en uitsluitend zwarte gezichten voor verdrietige.
  • In een ander scenario werden alleen gezichten van witte mensen gebruikt — ongeacht emotie.
  • In het derde scenario werden meerdere condities gepresenteerd: bijvoorbeeld blije zwarte gezichten/somber witte gezichten, of helemaal gemengd, om te testen of de deelnemers de koppeling tussen etniciteit en emotie zouden doorzien.

De centrale vraag: kunnen gewone gebruikers (niet-experts) zien dat de trainingsdata voor het AI-systeem scheef waren samengesteld en dat dat de latere prestaties beïnvloedde?

Wat de resultaten onthulden

  • Het merendeel van de deelnemers vond geen aanwijzingen dat het systeem ongelijk behandeld werd op basis van ras of etniciteit.
  • Alleen in de laatste variant, waar zowel witte als zwarte gezichten werden getoond én de bias relatief duidelijk werd, waren zwarte proefpersonen meer geneigd om iets op te merken — vooral wanneer hun eigen groep vaker negatief werd afgebeeld.
  • Zoals professor S. Shyam Sundar zegt: “AI lijkt geleerd te hebben dat ras een belangrijke criterium is voor het bepalen of een gezicht gelukkig of verdrietig is — ook al bedoelen we dat helemaal niet.”

Waarom dit belangrijk is

Deze bevinding onderstreept een aantal fundamentele aandachtspunten:

  • Wanneer trainingsdata onnauwkeurig of scheef zijn samengesteld (bijvoorbeeld onder- of over-representatie van bepaalde groepen) kan het AI-systeem onbedoeld discriminerende correlaties leren.
  • Niet alleen technici, maar ook gewone gebruikers gaan uit van neutraliteit van AI — terwijl de technologie óók gekleurd kan zijn door de data waarop hij is getraind. Sundar merkte op: “Mensen vertrouwen vaak dat AI neutraal is, ook wanneer het dat niet is.”
  • Het feit dat gebruikers de bias niet herkennen betekent dat kritisch bewustzijn – zowel bij makers als bij gebruikers van AI-systemen — sterk vergroot moet worden.
  • Voor beleidsmakers, ontwerpers van AI-systemen en het grote publiek is dit een duidelijke waarschuwing: diverse, representatieve datasets en communicatie over de beperkingen van AI zijn cruciaal.

Wat kunnen we eruit leren?

  • Datasamenstelling telt: Zorg ervoor dat bij het bouwen van AI-systemen verschillende groepen adequaat vertegenwoordigd zijn — anders leert het systeem onbedoelde verbanden.
  • Gebruikerseducatie: Het publiek moet beter worden geïnformeerd over hoe AI werkt en welke valkuilen er zijn — enkel vertrouwen op resultaten is onvoldoende.
  • Rapportage en transparantie: Ontwikkelaars van AI-modellen zouden openheid moeten betrachten over de samenstelling van de trainingsdata en de mogelijke bias.
  • Toekomstig onderzoek: De auteurs willen verder onderzoeken hoe bias effectief gecommuniceerd kan worden naar gebruikers, ontwikkelaars en beleidsmakers — en hoe media- en AI-geletterdheid kan helpen.

De studie laat zien dat zelfs wanneer de aanwijzingen van bias voor het oog liggen — zoals een systematische koppeling tussen ras en emotie in gezichtsdata — veel gebruikers dit niet opmerken. Dat is zorgwekkend omdat het betekent dat discriminerende systemen ongemerkt kunnen functioneren. Het is dus tijd voor een bredere dialoog over verantwoordelijkheid, ontwerp en gebruik van AI.

Aanbevolen voor jou

In de kijker

AI kan vanaf nu de muis overnemen op je scherm

AI kan vanaf nu de muis overnemen op je scherm

Meta zet de volgende stap in AI met AI-gegenereerde posts

Meta zet de volgende stap in AI met AI-gegenereerde posts

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Updates

Inschrijven Nieuwsbrief

Zo word je altijd als eerste op de hoogte gebracht van ons laatste nieuws, updates, jobs, tips & promoties. Stay UP-TO-DATE!

WEBSITE LATEN MAKEN?​​​​​​​​​​​​​​

Kies voor een UP-TO-DATE AI Website 100% in Google

Een UP-TO-DATE AI Website maakt het gemakkelijk om automatisch up-to-date te blijven met je klanten en overal aanwezig te zijn.

Maak een afspraak