Volgens een recent rapport van Australian Strategic Policy Institute (ASPI) gebruikt Chinese Communist Party (CCP) kunstmatige intelligentie om zijn bestaande censuur- en surveillancesystemen in China te “upgraden”. Waar voorheen vooral manuele filtering en controle plaatsvond, zetten autoriteiten nu op schaal geautomatiseerde systemen in — zodat “meer mensen, nauwer, met minder inspanning” in de gaten gehouden kunnen worden.
Tech-giganten als “hulpsheriffs” van de staat
Talloze techbedrijven — waaronder Baidu, Tencent en ByteDance — worden door de staat ingezet als uitvoerders van censuur. Zij ontwikkelen en verkopen AI-gedreven moderatietools die teksten, beelden en video’s automatisch scannen, politieke gevoeligheid detecteren en content onderdrukken. Voor deze bedrijven is er een direct economisch belang: censuur wordt zo als product aan anderen verkocht.
Van internet tot rechtbank: AI breit controle doorheen de samenleving
De autoriteiten beperken zich niet tot online content. AI wordt volgens het rapport ook geïntegreerd in het strafrechtelijke systeem. “Slimme rechtbanken” gebruiken algoritmes om vonnissen en straffen voor te stellen, terwijl in detentieomgevingen systemen getraind worden om emoties of “gevaar” te voorspellen. Dat brengt grote risico’s mee op gebrek aan transparantie, bevooroordeelde beslissingen en onmogelijkheid tot effectieve verdediging. Vooral etnische minderheden — zoals Oeigoeren en Tibetanen — zouden extra gevoelig zijn voor zulke toepassingen.
Censuur ook buiten China: Wereldwijde implicaties
ASPI benadrukt dat dit geen nationale kwestie blijft. Chinese bedrijven met westerse ambities exporteren deze technologieën. Zonder kritisch begrip van hoe deze AI-systemen — gecensureerde data-sets, staatgedreven moderatie, “veiligheidsaudit”-tools — zijn opgebouwd, bestaat het gevaar dat andere landen onbewust censuur en politieke controle importeren verpakt in AI-software.
Wat dit betekent voor mensenrechten en technologiebeleid
De betrokken onderzoekers waarschuwen dat AI in China steeds minder een neutrale tool is. In plaats daarvan fungeert het als “precisiemechanisme” voor sociaal en politiek beheer. Democratische landen en tech-bedrijven worden opgeroepen waakzaam te blijven — en kritisch na te denken over welke AI-producten ze gebruiken of toelaten, zodat technologie niet tot instrument van onderdrukking wordt.









