Het onderzoeks-team van DeepMind heeft opnieuw zijn ambitie getoond: deze keer niet in bordspellen of videogames, maar in het domein waar wiskundigen liever werken dan praten — het maken van formele bewijzen. Met hun nieuwe systeem, intern aangeduid als AlphaProof, willen ze AI inzetten om complex wiskundig redeneren te automatiseren. Volgens een recent artikel van Ars Technica blijkt dat dit al ver gevorderd is — maar nog lang niet vlekkeloos.
Wat is AlphaProof?
DeepMind’s aanpak begint met het idee van hun eerdere successen in spelsituaties zoals AlphaZero — een combinatie van een groot neuraal netwerk, versterkend leren en boomzoekalgoritmes. Voor AlphaProof gebruikten ze: a) een enorm neuraal netwerk (met miljarden parameters) dat via trial-and-error leert werken binnen de formaliseringstaal van bewijzen, en b) een boomzoek-component die mogelijke bewijspaden systematisch onderzoekt.
Het netwerk kreeg een “beloning” voor elk bewezen of weerlegde stelling, en werd “gestraft” voor elke extra stap in het redeneringsproces – daarmee wilden de onderzoekers korte, elegante bewijzen stimuleren.
Waarom is dit belangrijk?
Wiskundige bewijzen zijn voor computers lange tijd een obstakel geweest. Het gaat niet alleen om patroonherkenning, maar om nieuw redeneren — het vinden van een pad van axioma’s naar conclusie, met een formele verificatie-tool. Het automatiseren daarvan opent potentieel aan meerdere fronten:
- Versnelling van wiskundig onderzoek: minder tijd gespendeerd aan “sleuren door redeneringen”.
- Ondersteuning van human-mathematiciëns: een partner-AI die bewijstechnisch kan sparren of inzicht geven.
- Versterking van AI-redenering buiten oppervlakkige taalmodellen: de brug tussen “woorden” en “bewijzen”.
De beperkingen: Nog niet perfect
Hoewel veelbelovend, is AlphaProof niet de definitieve wonder-machine. Het artikel van Ars Technica wijst erop dat het systeem in veel scenario’s hulp nodig heeft – bijvoorbeeld bij het opzetten van de juiste formalisering of het hanteren van bredere wiskundige contexten.
Met andere woorden: het werkt goed als de opgave scherp is geformaliseerd, maar als de vraag breder of vager is, stuit de AI op grenzen. Dit betekent dat menselijke wiskundigen voorlopig zeker niet overbodig zijn — de AI versterkt wel, maar vervangt nog niet.
DeepMind’s AlphaProof is een power-move in de richting van wiskundige automatisering: indrukwekkend qua techniek en symbolisch qua betekenis voor AI-redenering. Maar het is ook een reminder dat automatisering niet simpelweg betekent: “zet AI in, mens eruit”. Het betekent: mens én machine samenwerken — en vernieuwende rollen ontstaan. Voor jou als blogger biedt dit verhaal rijke stof voor analyses over de toekomst van werk, AI als creatieve partner, en de opkomst van nieuwe cognitieve toolkits.









