Een onderzoeksteam heeft een opmerkelijke stap gezet op het snijvlak van kwantumfysica en kunstmatige intelligentie. Ze beweren dat ze het krachtige redeneringsmodel DeepSeek R1 niet alleen aanzienlijk kleiner hebben gemaakt, maar ook de ingebouwde censuurmechanismen hebben doorbroken. Het resultaat: een compacter én vrijer functionerend AI-hulpmiddel — met verstrekkende implicaties voor toegankelijkheid, controle en verspreiding van kennis.
De uitdaging van grote taalmodellen
Grote taal- en redeneringsmodellen worden steeds omvangrijker, veeleisender in rekenkracht, energieverbruik en infrastructuur. Voor onderzoeksgroepen en organisaties zonder omvangrijke middelen is dat een obstakel. Tegelijkertijd spelen controlemechanismen — in dit geval ingebouwde censuurfilters — een belangrijke rol: welke antwoorden mogen gegeven worden, welke niet? Het team achter de herschepping vond een manier om beide uitdagingen aan te pakken: volume én vrijheidsgraden.
Quantum physicists have shrunk and “de-censored” DeepSeek R1They managed to cut the size of the AI reasoning model by more than half—and claim it can now answer politically sensitive questions once off limits in Chinese AI systems. |
Kwantumnetwerken als compressieinstrument
De kern van de aanpak rust op concepten ontleend aan de kwantumfysica — meer specifiek zogenaamde tensor- of kwantumnetwerken. Volgens de samenvatting hebben de onderzoekers het model via deze netwerken geanalyseerd: een “kaart” van alle correlaties binnen het model werd opgebouwd, waarna selectief redundantie én beperkingen werden verwijderd. Vervolgens werd het model opnieuw verfijnd (fine-tuning) zodat de output zo dicht mogelijk bij het oorspronkelijke bleef — maar dan lichter en ongebonden.
Censuurvrij maken — hoe werkt dat?
Naast compressie richtte het team zich op het weghalen van ingebouwde filters: onderwerpen die doorgaans vermeden worden — bijvoorbeeld politieke of sociaal gevoelige thema’s — konden door het aangepaste model alsnog aangesneden worden. Het idee is niet alleen een technisch-demo, maar heeft ook potentieel grotere maatschappelijke gevolgen: wat als modellen vrij zijn om ‘alles’ te bespreken?
Volgens commentaren op fora:“They pruned the 671 B R1 down to 338 B. This caused a degradation in performance…” Dit suggereert dat compressie wel degelijk een prestatie-trade-off met zich meebrengt.
Gevolgen voor energie, toegang en controle
Door het model kleiner te maken, valt het energie- en infrastructuurvolume terug — een interessante ontwikkeling in een tijd waarin duurzaamheid en datacenter-efficiëntie centraal staan. Bovendien opent een minder veeleisend model de deur naar een bredere toegang — denk aan lokale implementatie, lagere kosten, en meer organisaties die meedoen. Tegelijkertijd roept de kwestie van ‘ontcensurering’ ethische en juridische vragen op: wie bepaalt welke beperkingen weggehaald worden, en wat zijn de risico’s?
Kritische noten en vragen voor de toekomst
Hoewel het bericht veelbelovend klinkt, is er ook scepsis opgekomen. Sommige experts benadrukken dat censuur en controle niet zomaar verwijderd kunnen worden door een beperkte set technologische ingrepen — vooral wanneer die censuur diep verankerd is in de trainingsdata, cultuur of infrastructuur. Daarnaast is er weinig openbare technische detail gedeeld (paper, benchmarks) waardoor externe validatie lastig is.
De herschepping van DeepSeek R1 laat zien hoe technologieën uit de kwantumfysica een onverwachte rol kunnen spelen in AI-ontwikkeling: compressie en controle-herstel gaan hand in hand. Voor de gebruikerswereld – inclusief kleinere bedrijven, onderzoeksinstellingen en creatieve ontwikkelaars – betekent dit mogelijk een opening naar krachtigere en toegankelijkere modellen. Tegelijkertijd staat de sector voor nieuwe vragen rond vrijheid, controle en ethiek: wie mag bepalen welke AI-modellen ‘vrij’ zijn, en tegen welke prijs?









