Huawei heeft in samenwerking met de Zhejiang Universiteit een aangepaste versie van het AI-model DeepSeek ontwikkeld: DeepSeek-R1-Safe. Dit model moet voldoen aan de steeds strengere regels omtrent AI in China, met name op het gebied van wat AI wel en niet mag zeggen over politiek gevoelige onderwerpen.
Achtergrond & aanpak
DeepSeek-R1-Safe is gebaseerd op het open-source DeepSeek-R1-model, maar werd opnieuw getraind met een focus op censuur en inhoudsbeperkingen. Dat gebeurde met behulp van 1.000 Ascend-AI-chips van Huawei. Zhejiang Universiteit hielp mee aan het onderzoek, al waren noch de ontwikkelaars van DeepSeek, noch de oprichter Liang Wenfeng direct betrokken bij deze nieuwe versie.
Khoury researchers find political censorship in Chinese AI model … and explain how to get around it - Khoury College of Computer SciencesIn January, the release of a cheaply built Chinese AI model sent a shock wave across the globe. Now two teams of Khoury researchers say they've found the secrets that the AI doesn't want to show. |
Wat doet DeepSeek-R1-Safe precies?
- Huawei zegt dat het model bijna 100% succesvol is in het blokkeren van politiek gevoelige onderwerpen, haatdragende taal (toxic speech) en oproepen tot illegale activiteiten in standaardtests.
- Maar bij complexe situaties — zoals wanneer gebruikers hun intenties verbergen (bijvoorbeeld via rollenspel, scenario’s of gecodeerde prompts) — daalt de effectiviteit aanzienlijk, tot ongeveer 40%.
- In een bredere veiligheids-/verdedigingstest behaalde DeepSeek-R1-Safe een score van 83% in de “security defence” met deze nieuwe risicocategorieën.
- Prestatieverlies ten opzichte van het oorspronkelijke model is minimaal — minder dan 1%.
China’s DeepSeek-R1-Safe AI Masters Political Topic EvasionChina's DeepSeek-R1-Safe AI model excels at avoiding politically sensitive topics, achieving near-perfect evasion through advanced filtering, aligned with Beijing's regulations. This raises global concerns about free expression, biases, and potential sabotage in code generation. As DeepSeek innovates affordably, it fuels debates on AI ethics and governance worldwide. |
Waarom deze aanpassing?
Deze stap past in een bredere trend in China waarbij AI-systemen steeds explicieter gereguleerd worden om te voldoen aan de regels rond spraak en politieke inhoud. De Chinese overheid eist dat AI-modellen en platforms “socialistische waarden” hooghouden en politieke controle mogelijk maken.
Met DeepSeek-R1-Safe probeert Huawei te laten zien dat het ook geavanceerde AI kan maken én voldoen aan die regels. Voor bedrijven en onderzoeksinstellingen is dit interessant omdat het laat zien hoe je technologische vooruitgang kunt combineren met politieke en maatschappelijke eisen.
Huawei's DeepSeek-R1-Safe: Revolutionizing AI with Safety in Mind | TechnologyHuawei has developed a new AI model, DeepSeek-R1-Safe, as a safer alternative to existing models. The model boasts a near-perfect success rate in avoiding politically sensitive discussions. This development highlights China's effort to ensure AI reflects socialist values, with stringent controls on speech. |
Beperkingen & kritiek
- Ondanks de hoge scores in standaardtests, zijn de kwetsbaarheden duidelijk in situaties waarin gebruikers omzeilingsstrategieën toepassen. De prestatie daalt flink onder omstandigheden die niet “rechtstreeks” zijn.
- Er is kritiek dat dit soort censuur de transparantie belemmert. Onderzoekers hebben eerder aangetoond dat DeepSeek-modellen gevoelige vragen vermijden of weigeren te beantwoorden, of dat de antwoorden aangepast zijn om te voldoen aan staatsnarratieven.
- Implicaties voor burgerlijke vrijheden, informatievoorziening en vrijheid van meningsuiting zijn evident, vooral als dergelijke AI’s ingezet worden op grote schaal.
Challenging US dominance: China's DeepSeek model and the pluralisation of AI developmentThe launch of China's DeepSeek R1 model marks a pivotal moment in the global AI landscape. This breakthrough highlights China's technological resilience and growing capacity to challenge US leadership in AI innovation, signalling a shift towards a more plural AI ecosystem |
DeepSeek-R1-Safe is een duidelijk voorbeeld van hoe techbedrijven in China AI-modellen steeds sterker aligneren met politieke en regelgevende verwachtingen. Huawei toont aan dat je censuurmechanismen kunt implementeren met relatief weinig prestatieverlies — maar het blijft een complexe kwestie waar transparantie, controle en ethiek mee gemoeid zijn.
|
China’s Huawei co-develops DeepSeek model, improves censoringChinese tech giant Huawei has co-developed a safety-focused version of artificial intelligence model DeepSeek that it said is "nearly 100% successful" in preventing discussion |









