De Chinese AI-onderzoeksstudio DeepSeek heeft stilletjes maar krachtig versie V3.1 van zijn generatieve taalmodel openbaar gemaakt via Hugging Face. Dit model beschikt niet alleen over een enorme 685 miljard parameters, maar biedt ook een ongekend lange contextlengte van 128 000 tokens — ongeveer gelijk aan een tekst van 400 pagina’s. Met ondersteuning voor meerdere tensorformaten (BF16, F8_E4M3, F32) biedt het model zowel efficiëntie als veelzijdigheid.
DeepSeek Releases New Version of Model Behind Its AI Chatbot | PYMNTS.comChinese AI startup DeepSeek has released a new version of the open-source AI model behind its controversial chatbot. |
Een stille lancering met grootse impact
DeepSeek koos bewust voor een bescheiden lancering. Zonder veel publiciteit verscheen V3.1 alsnog prominent in de trendinglijsten van Hugging Face, en kreeg onmiddellijke aandacht van onderzoekers wereldwijd. Dankzij zijn prestaties, waaronder een score van 71,6 % op de Aider–codeerbenchmark, positioneert het zich als een waardige uitdager van modellen zoals Claude Opus 4 – met een veel lagere kost.
|
|
Chinese Startup DeepSeek Unveils AI Model Surpassing Meta and OpenAI | ForkLogChinese AI startup DeepSeek has introduced its own large language model, which has outperformed competitors from Meta and OpenAI in tests. |
Technische innovaties die het verschil maken
De grootste technische vooruitgang is zonder twijfel de contextvenster-extensie: een verdubbeling tot 128 000 tokens. Dit maakt het model ideaal voor langlopende contexten, zoals uitgebreide documenten verwerken of complexe dialogen voeren. Daarnaast maakt het gebruik van een Mixture-of‑Experts (MoE)-architectuur, waarbij slechts 37 miljard parameters per token worden geactiveerd — wat zorgt voor lage inferentiekosten.
DeepSeek releases V3.1: Here’s what’s newIn a quiet yet impactful move, DeepSeek, the Hangzhou-based AI research lab, has unveiled DeepSeek V3.1, an upgraded version of its already impressive V3 large language model. Announced on August 19, 2025 |
China daagt Silicon Valley uit
De release van V3.1 komt op een cruciaal moment in de wereldwijde AI-race. In een sector gedomineerd door Amerikaanse giganten als OpenAI en Anthropic, zet DeepSeek een stap in de open-source richting met krachtige, toegankelijke technologie. Voor bedrijven betekent dit een potentieel heroverwegen van AI-aanbestedingen — open-source en Chinees zijn ineens relevante alternatieven.
How DeepSeek's AI Is Forcing Silicon Valley to AdaptDeepSeek says its newest AI model is as good as those of its American rivals, was cheaper to build and it’s available for free. What does that mean for US AI supremacy? |
DeepSeek’s V3.1 is een technisch huzarenstuk: een model van 685 miljard parameters, lange contextcapaciteit, lage kosten, en open toegankelijk — allemaal zonder veel heisa. Voor de open-source AI-gemeenschap biedt het kansen; voor bedrijven, een nieuwe keuze; en voor geopolitiek, een nieuwe wapenwedloop in ontwikkeling.









