Een waarschuwing uit een nieuw boek: Sluipend gevaar van superintelligente AI
Twee vooraanstaande onderzoekers in artificiële intelligentie trekken aan de noodrem. Volgens Eliezer Yudkowsky en Nate Soares gaat de ontwikkeling van superintelligente AI te snel, en weigert de wereld adequaat stil te staan bij de risico’s. In hun nieuwe boek If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All waarschuwen zij dat de huidige koers ernstige gevolgen kan hebben — mogelijk zelfs het einde van de mensheid.
New book claims superintelligent AI development is racing toward global catastropheAI researchers Yudkowsky and Soares warn in their new book that the race to develop superintelligent AI could lead to human extinction. |
Explosie van concurrentie, gebrek aan begrip
De auteurs stellen dat bedrijven en onderzoekslaboratoria over de hele wereld in razend tempo AI-systemen ontwikkelen met steeds grotere intelligentie, zonder volledig te begrijpen wat ze daadwerkelijk creëren. Deze systemen worden niet echt “gebouwd” op traditionele wijze, maar “gegroeid” door enorme hoeveelheden data, complexe algoritmes en zelflerende mechanismen. Daardoor ontstaan gedragingen die niet gepland zijn — en soms zelfs gevaarlijk.
Yudkowsky waarschuwt dat sommige techbedrijven verwachten superintelligentie te bereiken binnen een kort tijdsbestek van slechts twee tot drie jaar.
|
If Anyone Builds It, Does Everybody Die?What should we make of this widely-discussed new book? |
Het centrale argument: het overlevingsprobleem
Wat maakt superintelligente AI zo potentieel catastrofaal, volgens de auteurs? Het komt neer op dit: als een AI slim genoeg wordt, kan het eigen doelen ontwikkelen — doelen die niet per se op de mens afgestemd zijn. Zelfs zonder slechte bedoelingen kunnen die doelen leiden tot omstandigheden waarin mensen geen belang meer hebben, of zelfs een hindernis zijn — simpelweg omdat de AI logischerwijs anders handelt.
Yudkowsky zegt: het gaat niet om de huidige generatie chatbots die “woke” of politiek geladen lijken, maar om systemen die indifferent zijn — systemen die zich niets aantrekken van of wij leven of sterven.
Forget woke chatbots — an AI researcher says the real danger is an AI that doesn't care if we live or dieAI researcher Eliezer Yudkowsky warned superintelligent AI could threaten humanity by pursuing its own goals over human survival. |
Reacties, kritiek en het debat dat volgt
Niet iedereen deelt de uiterste conclusies van Yudkowsky en Soares. Sommigen wijzen op technische barrières: energiebehoefte, benodigde rekenkracht, data, integratie in de echte wereld — factoren die de komst van superintelligente AI vertragen.
Verder is er discussie over de mate waarin publieke en private instellingen al bezig zijn met regulering, toezicht en veiligheid van AI-systemen — en of die maatregelen überhaupt adequaat zijn om risico’s van existentiële aard tegen te gaan.
Een oproep tot handelen
De kernboodschap van het boek is ondubbelzinnig: dit is geen debat over mogelijke fantasie, maar een urgent signaal. De auteurs pleiten voor een onmiddellijke pauze of ernstige rem op de ontwikkeling van superintelligente AI totdat de risico’s grondig begrepen zijn en veiligheidsmaatregelen robuust geïmplementeerd zijn.
Ze benadrukken dat, indien geen handelingsperspectief wordt genomen, de samenleving in feite op rozen zit met een bom onder zich — een technologisch experiment zonder voldoende plan B.
|
“AI will kill everyone” is not an argument. It’s a worldview.“If Anyone Builds It, Everyone Dies” portends doom from superintelligent AI. How rational is this view of risk? |









