Hyperrealistische AI-ankers doen zich voor als echte journalisten en verspreiden desinformatie op grote schaal.
Een nieuwe realiteit: AI-nieuwslezers die niet van echt te onderscheiden zijn
Steeds vaker duiken ze op in de digitale wereld: nieuwslezers die eruitzien, klinken en handelen als echte mensen — maar volledig gegenereerd zijn door kunstmatige intelligentie. Onderzoekers en factcheckers slaan alarm: deze hyperrealistische AI-ankers worden ingezet om geloofwaardige, maar valse nieuwsberichten te verspreiden, vaak met politieke of ideologische motieven.
Van deepfakes naar ‘deepnews’
Wat begon met gephotoshopte beelden en vervalste video’s is geëvolueerd naar een nieuw fenomeen: synthetische nieuwsproductie. AI-modellen genereren niet alleen het script, maar creëren ook een overtuigend virtueel gezicht en stem. De AI-ankers verschijnen in video’s die qua vormgeving en inhoud niet onderdoen voor professionele nieuwsuitzendingen. Het gevolg? Veel kijkers hebben geen idee dat ze naar een fictieve verslaggever kijken.
Desinformatie op bestelling
Volgens een recent onderzoek van het AI-verificatieplatform NewsGuard zijn er tientallen video's ontdekt waarin AI-gegenereerde presentatoren desinformatie verspreiden over onderwerpen als vaccinaties, verkiezingsfraude en geopolitieke conflicten. De video's worden vaak gedeeld op sociale media en obscure nieuwskanalen, wat de impact versterkt. In sommige gevallen lijken de virtuele presentatoren zelfs bestaande nieuwszenders te imiteren, compleet met logo’s en vormgeving.
China als koploper in AI-nieuwsproductie
Verschillende AI-presentatoren bleken hun oorsprong te vinden in Chinese techbedrijven, waaronder Synthesia en D-ID, die gespecialiseerd zijn in AI-gegenereerde video’s. Hoewel deze technologieën ook voor legitieme doeleinden worden gebruikt — zoals training of klantcommunicatie — blijkt dat dezelfde tools ook worden ingezet voor propaganda en beïnvloeding van het publieke debat.
De uitdaging van detectie en regulering
Het groeiende realisme van deze video's maakt het moeilijker voor gewone gebruikers en zelfs voor factcheckers om het verschil te zien tussen echt en nep. Platformen als YouTube en TikTok worstelen met de vraag of en hoe ze deze content moeten reguleren. Experts pleiten voor transparantieverplichtingen: AI-gegenereerde content moet duidelijk gelabeld worden en herleidbaar zijn tot de bron.
Vertrouwen in media onder druk
De opkomst van AI-nieuwsankers draagt bij aan een bredere crisis van vertrouwen in nieuws en informatie. Wanneer kijkers niet meer zeker weten of een nieuwslezer echt is, wordt het des te moeilijker om feit van fictie te onderscheiden. Volgens media-ethici moeten nieuwsorganisaties meer dan ooit inzetten op transparantie, menselijke redactie en educatie rond mediawijsheid.
Een synthetische toekomst?
De opmars van AI in de journalistiek is onomkeerbaar, maar roept dringende vragen op over ethiek, verantwoordelijkheid en controle. Hyperrealistische AI-nieuwsankers zijn geen sciencefiction meer, maar een realiteit waarmee het medialandschap rekening moet houden — en het publiek ook.
Hyper-realistic AI generated news anchors fool the internetAnchors who appear to have the same enthusiasm, energy and diction as real newsreaders are actually AI-generated. What's more, they are spouting fake news. |









