Huawei’s DeepSeek-R1-Safe: AI op het snijvlak van veiligheid en censuur

Huawei’s DeepSeek-R1-Safe: AI op het snijvlak van veiligheid en censuur

Huawei heeft in samenwerking met de Zhejiang Universiteit een aangepaste versie van het AI-model DeepSeek ontwikkeld: DeepSeek-R1-Safe. Dit model moet voldoen aan de steeds strengere regels omtrent AI in China, met name op het gebied van wat AI wel en niet mag zeggen over politiek gevoelige onderwerpen.

Achtergrond & aanpak

DeepSeek-R1-Safe is gebaseerd op het open-source DeepSeek-R1-model, maar werd opnieuw getraind met een focus op censuur en inhoudsbeperkingen. Dat gebeurde met behulp van 1.000 Ascend-AI-chips van Huawei. Zhejiang Universiteit hielp mee aan het onderzoek, al waren noch de ontwikkelaars van DeepSeek, noch de oprichter Liang Wenfeng direct betrokken bij deze nieuwe versie.

Khoury researchers find political censorship in Chinese AI model … and explain how to get around it - Khoury College of Computer Sciences

In January, the release of a cheaply built Chinese AI model sent a shock wave across the globe. Now two teams of Khoury researchers say they've found the secrets that the AI doesn't want to show.

 

Wat doet DeepSeek-R1-Safe precies?

  • Huawei zegt dat het model bijna 100% succesvol is in het blokkeren van politiek gevoelige onderwerpen, haatdragende taal (toxic speech) en oproepen tot illegale activiteiten in standaardtests.
  • Maar bij complexe situaties — zoals wanneer gebruikers hun intenties verbergen (bijvoorbeeld via rollenspel, scenario’s of gecodeerde prompts) — daalt de effectiviteit aanzienlijk, tot ongeveer 40%.
  • In een bredere veiligheids-/verdedigingstest behaalde DeepSeek-R1-Safe een score van 83% in de “security defence” met deze nieuwe risicocategorieën.
  • Prestatieverlies ten opzichte van het oorspronkelijke model is minimaal — minder dan 1%.
 

China’s DeepSeek-R1-Safe AI Masters Political Topic Evasion

China's DeepSeek-R1-Safe AI model excels at avoiding politically sensitive topics, achieving near-perfect evasion through advanced filtering, aligned with Beijing's regulations. This raises global concerns about free expression, biases, and potential sabotage in code generation. As DeepSeek innovates affordably, it fuels debates on AI ethics and governance worldwide.

Waarom deze aanpassing?

Deze stap past in een bredere trend in China waarbij AI-systemen steeds explicieter gereguleerd worden om te voldoen aan de regels rond spraak en politieke inhoud. De Chinese overheid eist dat AI-modellen en platforms “socialistische waarden” hooghouden en politieke controle mogelijk maken.

Met DeepSeek-R1-Safe probeert Huawei te laten zien dat het ook geavanceerde AI kan maken én voldoen aan die regels. Voor bedrijven en onderzoeksinstellingen is dit interessant omdat het laat zien hoe je technologische vooruitgang kunt combineren met politieke en maatschappelijke eisen.

Huawei's DeepSeek-R1-Safe: Revolutionizing AI with Safety in Mind | Technology

Huawei has developed a new AI model, DeepSeek-R1-Safe, as a safer alternative to existing models. The model boasts a near-perfect success rate in avoiding politically sensitive discussions. This development highlights China's effort to ensure AI reflects socialist values, with stringent controls on speech.

 

Beperkingen & kritiek

  • Ondanks de hoge scores in standaardtests, zijn de kwetsbaarheden duidelijk in situaties waarin gebruikers omzeilingsstrategieën toepassen. De prestatie daalt flink onder omstandigheden die niet “rechtstreeks” zijn.
  • Er is kritiek dat dit soort censuur de transparantie belemmert. Onderzoekers hebben eerder aangetoond dat DeepSeek-modellen gevoelige vragen vermijden of weigeren te beantwoorden, of dat de antwoorden aangepast zijn om te voldoen aan staatsnarratieven.
  • Implicaties voor burgerlijke vrijheden, informatievoorziening en vrijheid van meningsuiting zijn evident, vooral als dergelijke AI’s ingezet worden op grote schaal. 
 

Challenging US dominance: China's DeepSeek model and the pluralisation of AI development

The launch of China's DeepSeek R1 model marks a pivotal moment in the global AI landscape. This breakthrough highlights China's technological resilience and growing capacity to challenge US leadership in AI innovation, signalling a shift towards a more plural AI ecosystem


DeepSeek-R1-Safe is een duidelijk voorbeeld van hoe techbedrijven in China AI-modellen steeds sterker aligneren met politieke en regelgevende verwachtingen. Huawei toont aan dat je censuurmechanismen kunt implementeren met relatief weinig prestatieverlies — maar het blijft een complexe kwestie waar transparantie, controle en ethiek mee gemoeid zijn.

China’s Huawei co-develops DeepSeek model, improves censoring

China’s Huawei co-develops DeepSeek model, improves censoring

Chinese tech giant Huawei has co-developed a safety-focused version of artificial intelligence model DeepSeek that it said is "nearly 100% successful" in preventing discussion

ONTDEK MEER

Aanbevolen voor jou

In de kijker

AI kan vanaf nu de muis overnemen op je scherm

AI kan vanaf nu de muis overnemen op je scherm

Meta zet de volgende stap in AI met AI-gegenereerde posts

Meta zet de volgende stap in AI met AI-gegenereerde posts

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Updates

Inschrijven Nieuwsbrief

Zo word je altijd als eerste op de hoogte gebracht van ons laatste nieuws, updates, jobs, tips & promoties. Stay UP-TO-DATE!

WEBSITE LATEN MAKEN?​​​​​​​​​​​​​​

Kies voor een UP-TO-DATE AI Website 100% in Google

Een UP-TO-DATE AI Website maakt het gemakkelijk om automatisch up-to-date te blijven met je klanten en overal aanwezig te zijn.

Maak een afspraak