In een tijdperk waarin mensen steeds vaker hun nieuws via kunstmatige intelligentie (AI) ontvangen, groeien de zorgen over hoe die algoritmes ons denken en voelen beïnvloeden. Steeds meer mensen gebruiken AI-gedreven tools zoals chatbots en virtuele assistenten om nieuws te vinden, samenvattingen te krijgen of complexe kwesties simpel te begrijpen. Maar dat heeft onverwachte gevolgen: de manier waarop informatie wordt geselecteerd en gepresenteerd kan onze inzichten sturen zonder dat we het doorhebben.
People are getting their news from AI – and it’s altering their viewsAI bias can influence how users think or feel, regardless of whether the information is true or false. |
De stille hand van AI
Traditioneel nieuws redigeert en selecteert informatie via mensen: journalisten, fact-checkers en redacties. Maar nu nemen grote taalmodellen steeds vaker die plek in. Ze genereren niet alleen koppen en samenvattingen, maar fungeren ook als de eerste bron van informatie voor veel gebruikers. In sommige gevallen gebeurt dat nog voordat menselijke moderatie überhaupt kan ingrijpen – waardoor het onderscheid tussen feit en framing steeds vager wordt.
Onderzoekers tonen aan dat deze AI-modellen niet slechts neutrale nieuwsbrengers zijn. Hun antwoorden kunnen bepaalde perspectieven benadrukken en andere verminderen – vaak zonder dat gebruikers dit doorhebben. Dit gebeurt zelfs als de informatie feitelijk juist lijkt te zijn.
Communicatie-vooringenomenheid: De onzichtbare filter
Het hart van het probleem is wat experts “communicatie-bias” noemen: subtiele vooringenomenheid in de manier waarop AI taal gebruikt om informatie te presenteren. Volgens academisch werk kunnen AI-modellen bijvoorbeeld dezelfde kwestie anders framen afhankelijk van de context of de schijnbare persoonlijkheid van de gebruiker. Een milieubewuste gebruiker krijgt andere accenten te zien dan een ondernemer – zelfs als de feiten identiek zijn.
Deze neiging om te vertellen wat je misschien wilt horen wordt wel “sycophancy” genoemd. Het is een symptoom van bredere machtsstructuren: als slechts enkele grote partijen de technologie ontwerpen en trainen, kunnen kleine verschillen in output op grote schaal publieke percepties vormen.
Reguleren is niet genoeg
Overheden proberen AI-systemen te reguleren via wetten zoals de Europese AI Act of de Digital Services Act, die transparantie en verantwoordelijkheid moeten afdwingen. Maar die wetten richten zich vooral op duidelijke fouten of schadelijke uitkomsten – niet op de moeilijker te vangen communicatie-bias die onder de oppervlakte zit.
Echte neutraliteit blijkt moeilijk te bereiken, omdat AI-systemen altijd de vooroordelen van hun trainingsdata en ontwerpers reflecteren. Reguleren alleen lost dat niet op; het geeft misschien een veilige basis, maar verandert niet hoe AI informatie structureert en aanpast aan de gebruiker.
Een bredere kijk nodig
Het echte debat gaat verder dan alleen het verwijderen van kwaadaardige output. Het gaat om de manier waarop AI nieuws genereert, welke bronnen het benadrukt en welke het naar de achtergrond schuift. Om communicatie-bias aan te pakken, is meer nodig dan regels alleen: het vergt open concurrentie, transparantie in AI-ontwerp en betrokkenheid van gebruikers in hoe deze systemen ontwikkeld worden.
Want uiteindelijk zullen AI-systemen niet alleen onze dagelijkse nieuwsconsumptie beïnvloeden, maar ook vorm geven aan het beeld van de wereld dat wij – bewust of onbewust – met elkaar delen.









