In het eerste weekend van 2026 heeft de Chinese kunstmatige-intelligentiespeler DeepSeek een technisch onderzoeksdocument gepubliceerd waarin een nieuw trainings-architectuurconcept wordt geïntroduceerd dat de efficiëntie en schaalbaarheid van grote taalmodellen (LLM’s) aanzienlijk zou kunnen verbeteren.
De methode, genaamd Manifold-Constrained Hyper-Connections (mHC), werd ontwikkeld door DeepSeek-onderzoekers en mede-ondertekend door oprichter Liang Wenfeng. Ze beweren dat deze aanpak de manier waarop neurale netwerken intern informatie delen en leren kan optimaliseren, zonder de training onstabiel te maken of extreem duur qua rekenkracht.
China's DeepSeek kicked off 2026 with a new AI training method that analysts say is a 'breakthrough' for scalingDeepSeek has released a new AI training method that analysts say is a "breakthrough" for scaling large language models. |
mHC: Een technische vernieuwing met potentieel
Trainen van grote taalmodellen is traditioneel een enorme technische uitdaging. Naarmate modellen groter worden, proberen ontwikkelaars meer informatie intern te laten ‘rondgaan’ binnen de lagen, maar dat kan leiden tot instabiliteit en inefficiënte training. DeepSeek’s nieuwe mHC-architectuur construeert deze interne communicatie zodanig dat het stabiliteit bewaart terwijl het schaalvoordeel behoudt — iets wat veel AI-onderzoekers als een belangrijke technische hobbel beschouwen.
Volgens insiders kan deze aanpak modellen laten trainen met minimale extra rekenkosten én minder energieverbruik, wat een belangrijke stap kan zijn in een tijd waarin AI-training extreem duur en energieverslindend is.
Deepseek says new method can train AI more efficiently and cheaplyThe new research could be a harbinger of the company's next big model release after the R1. |
Wat betekent dit voor het AI-landschap?
Analisten noemen DeepSeek’s vooruitgang een doorbraak en een voorteken van hoe de technische grenzen van AI-architecturen in 2026 kunnen verschuiven.
DeepSeek zelf is geen onbekende speler: het bedrijf uit Hangzhou wist in 2025 al wereldwijd aandacht te trekken met zijn R1-model, dat volgens critici de concurrentie aanging met gevestigde modellen als ChatGPT dankzij hogere efficiency en lagere trainingskosten. Wikipedia
Hoewel de nieuwe mHC-architectuur nog niet in een commercieel product is verwerkt, zien veel experts het als een belangrijk signaal: DeepSeek streeft ernaar niet alleen snelle modellen te bouwen, maar fundamenteel te vernieuwen hoe AI-modellen worden geleerd.
|
DeepSeek proposes fundamental AI shift with ‘mHC’ architecture to upgrade ResNetThe paper comes at a time when most AI start-ups have been focusing on turning AI capabilities in LLMs into agents and other products. |
De race om AI-dominantie intensifieert
DeepSeek’s stap onderstreept de groeiende rol van Chinese AI-bedrijven in de wereldwijde technologieoorlog. Terwijl Westerse techreuzen blijven innoveren, tonen startups zoals DeepSeek dat innovatie niet alleen uit Silicon Valley komt — maar juist ook uit hubs zoals Hangzhou, waar startups samenwerken en experimenteren aan de frontlinie van AI-onderzoek. Wikipedia
Of deze nieuwe methode de komende jaren de standaard zal worden in de industrie, blijft afwachten. Maar één ding is zeker: de AI-wetenschapsstrijd is in 2026 nog lang niet voorbij.









