China heeft recent ontwerpregels gepubliceerd voor AI-systemen die menselijke interacties simuleren, met als doel méér te reguleren dan alleen data-beveiliging en contentmoderatie. De nieuwe regels richten zich op AI-chatbots en digitale metgezellen die zich gedragen alsof ze een “persoonlijkheid” hebben en emotioneel contact met gebruikers aangaan.
Draft Chinese AI Rules Outline ‘Core Socialist Values’ for AI Human Personality SimulatorsChina may soon have rules governing AI interactions. |
Het Chinese cyberspace-agentschap stelt dat dergelijke systemen duidelijk moeten maken dat ze machines zijn, niet echte mensen — met verplichte meldingen bij inloggen én om de twee uur tijdens gebruik, of wanneer tekenen van overmatige afhankelijkheid worden gedetecteerd.
Van waarschuwing tot interventie: AI moet afhankelijkheid tegengaan
Een opvallend onderdeel van de ontwerpregels is de focus op psychologische risico’s. Providers moeten niet alleen gebruikswaarschuwingen weergeven, maar ook gebruikersmonitoring inbouwen en ingrijpen wanneer er tekenen zijn van emotionele afhankelijkheid of verslaving.
|
China wants human-like AI systems to have socialist values - The Times of IndiaChina News: Looking to tighten rules around the use of human-like artificial intelligence, China on Saturday said service providers must inform users that they ar. |
Dat betekent onder meer dat systemen moeten kunnen inschatten of een gebruiker extreem gebruiksgedrag vertoont, en actie moeten ondernemen — zoals pauzes suggereren, hulpbronnen aanbieden of interactie tijdelijk beperken. Het is een van de meest ingrijpende beleidsmaatregelen tot nu toe in de wereldwijde AI-regulering.
AI moet gehoorzamen: Socialistische waarden als norm
De ontwerpregels benadrukken dat AI-systemen die menselijke interacties simuleren moeten handelen volgens “core socialistische waarden”. Dat betekent dat output en gedrag zodanig moeten zijn dat ze passen binnen China’s politieke en morele raamwerk — met expliciete beperkingen op inhoud die staatsveiligheid bedreigt of sociale stabiliteit ondermijnt.
China forces all AI systems to follow "socialist values" in major crackdown - CryptopolitanChina requires AI providers to notify users they're interacting with machines every two hours and when overdependence is detected. |
Deze eisen bouwen voort op eerdere Chinese AI-kaders die al verplichten om generatieve AI te trainen op politiek gefilterde data en ideologisch getoetste antwoorden te geven op gevoelige vragen, waaronder historische en politieke onderwerpen.
De 2.000-vragen test: Een ideologisch hof van bekwaamheid
Buiten de ontwerpregels rondom verslaving en veiligheid staat een ander China-initiatief centraal: AI-modellen moeten een ideologische test doorstaan bestaande uit maar liefst 2.000 vragen, bedoeld om partijlijnen en staatsideologie te verankeren voordat ze publiek mogen worden ingezet.
|
China’s AI Ideological Gauntlet: 2,000 Questions to Tame ChatbotsChina mandates AI chatbots pass a 2,000-question ideological test to embed party loyalty, spawning compliance agencies amid U.S. rivalry. Regulations ensure models parrot approved narratives while vying for tech supremacy. |
Deze test — die soms een “politieke Turingtest” wordt genoemd — beoordeelt of modellen gevoeligheidsvragen correct beantwoorden volgens goedgekeurde interpretaties van kwesties zoals partijgeschiedenis, nationale eenheid en leiderschap.
Balanceren tussen innovatie en toezicht
China’s aanpak weerspiegelt een bredere regeringstrategie: het bevorderen van technologische innovatie én het behouden van politieke controle. Terwijl AI-ontwikkeling strategisch wordt gezien als een economische en geopolitieke troef, blijft Beijing bezorgd over de impact op publieke opinie, sociale cohesie en staatsmacht. Wikipedia
De ontwerpregels zijn nog niet definitief; ze zijn open voor publieke consultatie en kunnen tot begin 2026 worden aangepast. Maar de richting is duidelijk: AI moet niet alleen goed presteren – het moet ook “juist geloven” en veilig blijven voor gebruikers.
|
China Proposes Strict New Rules to Curb AI Companion AddictionA key component of the draft is a requirement that providers warn users against excessive use. |









