Een tussenstap in de AI-race
De Chinese AI-startup DeepSeek heeft recentelijk zijn nieuwste model DeepSeek-V3.2-Exp geïntroduceerd, dat door het bedrijf wordt gezien als een “intermediate step” op weg naar een toekomstige, geavanceerdere architectuur. In een bericht op het ontwikkelaarsplatform Hugging Face legt DeepSeek uit dat dit model efficiënter is in trainen en beter presteert bij het verwerken van lange tekstcontexten dan eerdere versies.
China's DeepSeek launches next-gen AI model. Here's what makes it differentThe Chinese artificial intelligence startup has now released DeepSeek-V3.2-Exp, an experimental version of its current model DeepSeek-V3.1-Terminus. |
Sparse attention: Het technische hart
Het opvallendste kenmerk van V3.2-Exp is de toepassing van een sparse attention-mechanisme (DeepSeek Sparse Attention, DSA), waarmee het model niet langer alle token-combinaties in een lange tekst volledig hoeft te verwerken. Hierdoor dalen de rekenkosten aanzienlijk, zonder dat de prestaties substantieel verslechteren in benchmarks met codering of agent-taken.
DeepSeek’s V3.2-Exp LLM Halves API Costs with Sparse AttentionChinese startup DeepSeek unveiled DeepSeek-V3.2-Exp, an experimental LLM featuring sparse attention that halves API costs for long-context tasks while maintaining strong performance in coding and agent benchmarks. |
Halvering van API-prijzen
Tegelijk met de lancering kondigde DeepSeek aan dat het zijn API-prijzen met meer dan 50 % verlaagt. Dit prijssignaal kan concurrentie op de Chinese én mondiale AI-markt aanwakkeren, zeker tegenover spelers zoals Alibaba’s Qwen of OpenAI.
![]() |
China’s DeepSeek unveils experimental version of its AI foundation modelThe industry is paying close attention to DeepSeek’s new products after the start-up said it would tailor its models for Chinese-made AI chips. |
Reacties en betekenis
Hoewel DeepSeek zelf stelt dat V3.2-Exp geen radicale revolutie wordt zoals eerdere releases, kan het model de druk opvoeren op zowel binnenlandse als internationale concurrerende LLM’s. Als DeepSeek erin slaagt om prestaties op peil te houden — tegen sterk gedaalde kosten — kan dat een strategisch wapen zijn.
DeepSeek launches new open-source AI model with Huawei, Cambricon, Hygon supportDeepSeek unveiled its next-generation large language model, DeepSeek-V3.2-Exp, on September 29, 2025, and released it as open source on Hugging Face. |
Achtergrond: DeepSeek in de schijnwerpers
DeepSeek verwierf eerder aandacht met modellen als V3 en R1, die al werden geprezen om hun relatief lage trainingskosten. Zo meldde het bedrijf dat het R1-model voor slechts $294.000 werd getraind, een bedrag dat ver onder de gebruikelijke kosten voor vergelijkbare supermodellen ligt. Die financiële efficiëntie heeft DeepSeek gepositioneerd als een uitdager in de global AI-arena.
![]() |
DeepSeek’s New Release! API Costs Slashed by Over 50%The team led by DeepSeek founder Wenfeng Liang has launched a new experimental model, DeepSeek-V3.2-Exp, on September 29, marking a significant step in explorin... |