Nvidia versnelde AI: 10× sneller met nieuwe server

Nvidia versnelde AI: 10× sneller met nieuwe server

Snellere AI-servers, grotere sprong voor open-source

De tech-wereld staat op z’n kop door de nieuwste aankondiging van Nvidia: hun gloednieuwe AI-serverplatform — de GB200 NVL72 — weet krachtige open-source AI-modellen tot tien keer sneller te laten draaien dan voorheen.

Dat is niet zomaar een kleine update: modellen van gerenommeerde namen zoals Moonshot AI en DeepSeek toonden indrukwekkende prestaties in tests — de snelheid bij inferentie (het uitvoeren van modellen) nam spectaculair toe.

Mixture of Experts Powers the Most Intelligent Frontier AI Models, Runs 10x Faster on NVIDIA Blackwell NVL72

Mixture of Experts Powers the Most Intelligent Frontier AI Models, Runs 10x Faster on NVIDIA Blackwell NVL72

Kimi K2 Thinking, DeepSeek-R1, Mistral Large 3 and others run 10x faster on NVIDIA GB200 NVL72.

Waarom deze sprong mogelijk is

De ‘mixture-of-experts’ (MoE) aanpak is essentieel voor dit succes: in plaats van bij elke taak het volledige model te gebruiken, activeert MoE enkel de relevante “experts”. Zo blijft de rekenefficiëntie hoog en het energieverbruik beperkt.

 

Nvidia runs MoE models ten times faster

Nvidia presents new benchmarks showing that mixture-of-experts models run up to ten times faster on the GB200 NVL72 platform.

De kracht van de NVL72-server schuilt in de hardware: 72 GPU’s met een gedeeld geheugen, gekoppeld via een razendsnelle NVLink-infrastructuur. Dit maakt dat de GPU’s samenwerken alsof ze één superprocessor zijn — waardoor communicatie en parallelle verwerkingen veel vlotter verlopen dan bij oudere systemen.

Wat dit betekent voor de toekomst van AI

  • Open-source modellen krijgen een boost: modellen die voordien al efficiënt waren – zoals die van Moonshot AI en DeepSeek – worden nu echt “productieklaar.” Dankzij de performance-sprong kan inference op grote schaal betaalbaar én energie-efficiënt.
  • Meer concurrentie voor commerciële AI-reuzen: het voordeel van open-source – vrijheid én snelheid – maakt het moeilijker voor bedrijven om closed-source monopolies te behouden.
  • Efficiëntere datacenters én meer milieubewustzijn: door betere performance-per-watt kunnen centra die AI hosten hun energieverbruik en kosten drukken, wat een duurzamere infrastructuur ondersteunt. 
Nvidia claims 10x speed boost on new server for DeepSeek-style AI models - TechInformed

Nvidia claims 10x speed boost on new server for DeepSeek-style AI models - TechInformed

Nvidia has released new benchmark data showing its GB200 NVL72 rack-scale server can deliver up to a tenfold improvement in performance-per-watt for certain


Kritische kanttekeningen

Toch is de sprong niet per se een volledige “game changer” voor elk AI-model: de prestaties hangen sterk af van modeltype, optimalisatie en workloads. Niet alle modellen zullen automatisch 10× sneller draaien — maar voor MoE-modellen is de vooruitgang overduidelijk.

Bovendien staan concurrenten als AMD en Cerebras klaar met hun eigen multi-chip servers, die mogelijk volgend jaar opduiken. De race om inferentie-dominantie is dus nog lang niet voorbij. 

Aanbevolen voor jou

In de kijker

AI kan vanaf nu de muis overnemen op je scherm

AI kan vanaf nu de muis overnemen op je scherm

Meta zet de volgende stap in AI met AI-gegenereerde posts

Meta zet de volgende stap in AI met AI-gegenereerde posts

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Updates

Inschrijven Nieuwsbrief

Zo word je altijd als eerste op de hoogte gebracht van ons laatste nieuws, updates, jobs, tips & promoties. Stay UP-TO-DATE!

WEBSITE LATEN MAKEN?​​​​​​​​​​​​​​

Kies voor een UP-TO-DATE AI Website 100% in Google

Een UP-TO-DATE AI Website maakt het gemakkelijk om automatisch up-to-date te blijven met je klanten en overal aanwezig te zijn.

Maak een afspraak