Onderzoekers beweren dat ze een belangrijke bottleneck in AI-hardware hebben doorbroken: voortaan kunnen berekeningen uitgevoerd worden met… licht.
Wat is er gebeurd?
Een team rond de Aalto University presenteerde een radicaal nieuwe architectuur voor optische computing — genaamd Parallel Optical Matrix‑Matrix Multiplication (POMMM) — die het mogelijk maakt om meerdere tensor-bewerkingen gelijktijdig uit te voeren met één enkele laserpuls.
In traditionele AI-systemen (met GPU’s en elektronische circuits) worden gegevens opgeslagen in “tensors”, gestructureerde data-constructies die gebruikt worden voor alles van beeldherkenning tot taalmodellen. Maar elektronica stoot op fysieke limieten: snelheid, energieverbruik en schaalbaarheid vormen een rem op hoe groot en krachtig AI-modellen kunnen worden.
|
Scientists say they've eliminated a major AI bottleneck — now they can process calculations 'at the speed of light'A new architecture replaces traditional bottlenecks with a passive, single-shot light-speed operation that could become the foundational hardware for AGI, scientists argue. |
Hoe werkt POMMM precies?
In het nieuwe optische systeem worden data gecodeerd in de amplitude en fase van lichtgolven — met andere woorden: de informatie wordt “vertaald” naar eigenschappen van licht. Wanneer die lichtgolven zich voortbewegen en samensmelten, voeren ze spontaan complexe wiskundige bewerkingen uit (zoals matrix- en tensorvermenigvuldigingen), essentieel voor deep learning.
Cruciaal: deze berekeningen gebeuren passief — er is geen actieve schakel nodig, geen extra energie, geen elektronische schakelaars. Daardoor kan het systeem veel energiezuiniger én razendsnel werken.
Dankzij POMMM kunnen meerdere tensor-bewerkingen parallel verlopen met één enkele laserpuls — een doorbraak ten opzichte van eerdere licht gebaseerde systemen die slechts sequentieel konden werken.
Waarom is dit een game-changer voor AI?
- Snelheid & schaalbaarheid: de rekensnelheid van AI-modellen kan — ten minste theoretisch — ver boven die van de huidige elektronische hardware uitgroeien.
- Energie-efficiëntie: doordat bewerkingen passief gebeuren, daalt het energieverbruik drastisch — cruciaal bij het trainen en runnen van zeer grote AI-modellen.
- Toekomst van AI-chips: de onderzoekers stellen dat dit concept binnen pakweg 3 à 5 jaar geïntegreerd kan worden in fotonische chips en mainstream AI-platforms.
- Stap richting AGI?: sommige wetenschappers zien in POMMM een van de ontbrekende puzzelstukjes voor next-generation AI, mogelijk richting een breed inzetbare, algemene AI-architectuur.
Maar: Geen magie — wél fysica
De term “rekenen aan de snelheid van licht” moet je niet letterlijk zien als snelheid in meter per seconde. Wat POMMM betekent, is dat de onderliggende wiskundige bewerkingen getransformeerd worden naar fysieke processen van licht — waardoor de praktische beperkingen van elektronische schakelingen vervallen. Sommige sceptici waarschuwen dat we voorzichtig moeten zijn met overhaaste claims.
Toch is het onmiskenbaar: dit is niet zomaar een kleine optimalisatie, maar een fundamenteel andere manier om AI-computing te denken.
Wat betekent dit voor de toekomst van AI en technologie
- Op middellange termijn zou hardware op basis van POMMM het mogelijk kunnen maken om veel grotere AI-modellen te draaien met veel lagere energiebehoefte.
- Dit kan de deur openen naar toepassingen die vandaag onpraktisch zijn — realtime AI op mobiele toestellen, enorme taalmodellen zonder miljarden GPUs, of AI-systemen met veel minder CO₂-voetafdruk.









