Apple heeft met zijn nieuwe M5-chip een flinke stap gezet in de richting van lokaal draaien van grote taalmodellen (LLM’s) en AI-werk op de Mac. Waar vorige generaties nog deels afhankelijk waren van cloud-ondersteuning, maakt de M5 het mogelijk om AI-taken veel sneller en efficiënter op het toestel zelf uit te voeren.
Apple shows how much faster the M5 runs local LLMs on MLX - 9to5MacA new post on Apple’s Machine Learning Research blog shows how much the M5 improved over the M4 when it comes to running a local LLM. |
Wat maakt de M5 anders?
De kern van de vernieuwing zit ‘m in meerdere technische upgrades:
- De geheugenbandbreedte is opgetrokken naar 153 GB/s, wat zo’n 30% meer is dan bij de M4.
- Apple heeft in elke GPU-kern een zogeheten Neural Accelerator ingebouwd, zodat AI-berekeningen rechtstreeks veel effectiever verlopen.
- In tests bleek dat de M5 bij het genereren van tekst (“token generation”) circa 19-27% sneller is dan de M4.
- Grafisch en voor ray-tracing zijn er ook sprongen: tot 45% beter dan M4 volgens sommige analyses.
You can turn a cluster of Macs into an AI supercomputer in macOS Tahoe 26.2Apple is making it easier to turn a bunch of Macs into an AI supercomputer with Thunderbolt 5 clustering. |
Waarom lokaal AI draaien belangrijk is
Voorheen werd veel AI- en LLM-werk uitgevoerd in de cloud: modellen draaien op servers, data moet heen en weer. Met voldoende rekenkracht in het toestel zelf ontstaan nieuwe mogelijkheden:
- Privacy: data hoeft niet meer extern verwerkt te worden.
- Latentie: directere respons, want geen wachttijd voor netwerkverkeer.
- Efficiëntie: minder afhankelijkheid van externe infrastructuur, wat aantrekkelijk is voor professionele workflows.
De M5 belooft dus niet alleen snellere prestaties, maar ook een verandering in hoe en waar AI-modellen kunnen draaien — dichterbij de gebruiker, op het apparaat zelf.
|
Apple confirms up to 4x MLX AI performance boost with macOS 26.2 – Apple Must
|
Voor wie is dit vooral relevant?
- Creatieve professionals die beelden of video bewerken en AI-tools gebruiken op de Mac.
- Ontwikkelaars die lokale LLM-inference willen draaien, zonder cloudkosten of vertraging.
- Zakelijke gebruikers die snelle AI-interactie willen, bijvoorbeeld voor realtime transscriptie, modellering of analyse.Als je al een recente Mac met M4 hebt, is het geen must om direct over te stappen — maar voor wie maximale prestaties wil, is de M5 een interessante stap.
How Apple tech can deliver your very own private AI answersOn-premises AI is achievable today. |
Wat betekent dit voor de komende tijd?
Met de M5 zet Apple de lat hoger voor op-device AI. Maar:
- De echte waarde hangt af van software-optimalisatie: modellen en apps moeten aangepast zijn voor deze architectuur.
- De concurrentie (bijv. andere chipmakers) zal volgen — de race om AI-op-chips trekt aan.
- Voor gebruikers betekent het dat we langzamerhand AI-ervaringen krijgen die niet meer strikt afhankelijk zijn van externe servers.
Why Apple's M5 Pro Mac Mini Might Be A Game-Changer For AI Data Centers In 2026Apple's new Thunderbolt 5 feature renders a M5 Pro Mac mini cluster as a viable alternative for energy-stressed, memory-starved data centers. |
De M5-chip van Apple markeert een duidelijke verschuiving: van toestel als passieve client van cloud-AI naar een krachtig platform dat zélf AI-taken kan uitvoeren. Voor professionele gebruikers en ontwikkelaars opent dit nieuwe deuren — privacy, efficiëntie en snelheid worden samengebracht in de machine zelf. Apple zet met deze stap een stevige marker voor de toekomst van lokaal AI-gebruik op Mac-hardware.
|
Apple's macOS: AI for the rest of usA small but important feature in macOS 26.2 will unleash AI cluster super powers for Macs. |









