In december 2025 dook er een alarmerende trend op op sociale media: racistische, door kunstmatige intelligentie gegenereerde video’s die miljoenen keren werden bekeken, gedeeld en besproken. Wat in eerste instantie leek op klungelige deepfakes, is uitgegroeid tot een digitale industrie waar winst en politieke instrumentalisering samenkomen — met verregaande maatschappelijke risico’s.
AI maakt het maken van fake video’s kinderlijk eenvoudig
Tegenwoordig zijn tools zoals OpenAI’s Sora en Google’s Veo 3 zo krachtig dat iedereen met een simpele tekstopdracht racistische video’s kan laten genereren. Deze clips variëren van verzonnen geweldsscènes tot stereotyperende beelden van bijvoorbeeld zwarte vrouwen die agressief lijken te gedragen — compleet met invoegingen van fictief misbruik van sociale steunprogramma’s.
Het gevaar zit ‘m niet alleen in de zichtbare onwaarheid, maar vooral in de psychologische impact. Experts waarschuwen dat zelfs als mensen weten dat een video nep is, de beelden tóch ingrijpen op onze overtuigingen en percepties.
Racist AI content is spreading fast — and swaying political opinionsFake content is influencing how people see government programs, race, and potentially even elections. |
Racistische stereotypering en digitale blackface
Het fenomeen dat nu de ronde doet, heeft raakvlakken met wat onderzoekers noemen ‘digitale blackface’ — situaties waarin niet-zwarte makers digitale representaties van zwarte of gekleurde mensen gebruiken, vaak voor entertainment, validation of manipulatie.
In het recente geval zagen kijkers video’s van zogenaamd “agressieve” en “chaotische” bijeenkomsten, wat bij sommigen online zelfs tot reacties leidde waarin men de pijn van getroffen gezinnen leek te vieren. Daarbij werd ingespeeld op klassieke racistische stereotypen zoals de zogenaamde “welfare queen” die sociale steun misbruikt — een beeld dat geen verband houdt met de statistische werkelijkheid.
Niet alleen grappen — het beïnvloedt politiek en maatschappij
Veel van deze video’s lijken op het eerste gezicht misschien gewoon shockerend of komisch, maar de gevolgen reiken verder. Als deze valse clips zich verspreiden onder mensen die nieuws consumeren via sociale media, kunnen ze bijdragen aan het vormen van meningen over gevoelige thema’s zoals immigratie, sociale voorzieningen en verkiezingen.
Experts omschrijven dit als ‘outrage farming’ — het genereren van ophef om clicks, views en engagement te maximaliseren, vaak met weinig tot geen aandacht voor waarheid of ethiek.
Technologie versus verantwoordelijkheid
Techbedrijven hebben beleidsregels om haatdragende inhoud en desinformatie te beperken, maar deze blijken moeilijk afdwingbaar als gebruikers heel creatieve of subtiele prompts gebruiken. Sommige platformen markeren gegenereerde video’s met watermerken, maar dat weerhoudt kwaadwillenden niet altijd.
Organisaties en onderzoekers benadrukken dat het publiek kritischer en voorzichtiger moet worden bij wat er online verschijnt — en dat we onszelf steeds moeten afvragen: hoe weet ik dat dit echt is?
Conclusie: Gevaarlijke entertainmentcultuur
Wat begon als een verzameling grappige, bizarre of sensationele AI-clips, heeft zich ontwikkeld tot iets veel onheilspellenders: een bron van racistische beelden die politieke gevoelens kunnen sturen en maatschappelijke verdeeldheid voeden. Terwijl de technologie verder evolueert, wordt de uitdaging groter om eerlijkheid, nuance en menselijke waardigheid te beschermen in een tijd waarin nepbeelden net zo overtuigend lijken als echte.









