In het snel evoluerende landschap van kunstmatige intelligentie (AI) klinkt opnieuw urgentie uit de gelederen van toonaangevende onderzoekers. Terwijl sommige voorspellingen over superintelligentie zijn bijgesteld, waarschuwen experts dat de wereld mogelijk nog steeds te weinig tijd heeft om adequate veiligheidsmaatregelen in te richten.
What the UK-based researcher is warning about AI in about 5 years - The TribuneHis main concern is not today’s chatbots, but future AI systems that can do almost everything humans can do only faster, cheaper and better. |
Vertraging in superintelligentie-scenario’s
Eén van de meest besproken stemmen in de AI-veiligheidscommunity, voormalig OpenAI-onderzoeker Daniel Kokotajlo, heeft zijn eerdere voorspelling over de komst van superintelligente AI herzien. In zijn oorspronkelijk geschetste “AI 2027”-scenario stelde hij dat AI-systemen tegen 2027 volledig autonoom zouden kunnen leren en verbeteren – een ontwikkeling die hij koppelde aan existentiële risico’s. Nu schuift hij die mogelijke mijlpaal richting rond 2034, met daarmee ook een langere tijdspanne voordat zulke systemen mogelijk de risico’s vormen die in eerdere modellen werden geschetst.
|
Leading AI expert delays timeline for its possible destruction of humanityFormer OpenAI employee Daniel Kokotajlo says progress to AGI is ‘somewhat slower’ than first predicted |
Volgens Kokotajlo weerspiegelt deze wijziging een bredere trend binnen de AI-gemeenschap: erkenning dat de realiteit van AI-ontwikkeling complexer en minder lineair is dan sommige futuristische scenario’s deden vermoeden. Tegelijk blijven de uitdagingen op het gebied van echte autonomie, algemeen begrip en controle van systemen groot.
Superintelligent AI: What Is Superintelligent AI and Why Scientists Are Worried About ISuperintelligent AI refers to machines that surpass human intelligence in reasoning, problem-solving, and creativity. While it promises breakthroughs in science, medicine, and technology, many scientists and experts warn about potential risks, including loss of control, ethical dilemmas, and societal disruption. Watch this video to understand what superintelligent AI is, why it matters, and why experts are concerned. |
Maar: “Er is misschien geen tijd te verliezen”
Terwijl sommige tijdlijnen worden bijgesteld, klinkt er ook een verontrustend tegengeluid. David Dalrymple, programmeur en AI-veiligheidsdeskundige aan het Britse ARIA-agentschap, waarschuwt dat de technologische vooruitgang sneller gaat dan de veiligheidssystemen die we bouwen.
Humanity 'may not have time' to stop Terminator-style AI takeoverDavid Dalrymple, a leading figure at the Government's scientific research agency, says folk should be worried security is not keeping pace with bot development |
Dalrymple benadrukt dat AI-systemen sommige vaardigheden al zo snel ontwikkelen dat ze binnen een paar jaar in staat zouden kunnen zijn om complexe taken uit te voeren die traditioneel door mensen worden gedaan — inclusief taken in onderzoek en infrastructuur – wat kan leiden tot een versnellende feedbacklus van ontwikkeling zonder voldoende veiligheids-of regelgevingskaders.
‘We will be outcompeted’: Leading AI expert warns world may be running out of time to prepare for AI risks | MintAI safety expert David Dalrymple warns that rapid AI development may outpace safety measures. He says this could be risking destabilization of security and economy and emphasized the need for better control of advanced AI systems |
Volgens hem is de kloof tussen technologische capaciteit en maatschappelijke paraatheid groter dan velen beseffen. De sleutelvraag: kunnen regeringen, bedrijven en internationale samenwerkingsverbanden op tijd effectieve veiligheidsmaatregelen invoeren? Die twijfel blijft, en het risico op destabilisatie — economisch en sociaal — neemt volgens sommige experts toe.
Wat betekent dit voor de toekomst van AI?
De recente debatlijnen in de AI-wereld laten twee belangrijke zaken zien:
- Leiders in het veld blijven realistisch blijven over technische grenzen, en schuiven tijdlijnen op voor superintelligentie, wat ruimte geeft voor meer onderzoek en debat.
- Tegelijk waarschuwen veiligheidsexperts dat de snelheid van vooruitgang al uitdagingen creëert, vooral rond governance, controle en maatschappelijke paraatheid, zelfs als superintelligentie niet onmiddellijk voor de deur staat.
De kern van de discussie ligt niet alleen in de vraag wanneer AI “gevaarlijk” kan worden, maar vooral hoe snel de wereld kan leren om AI veilig, verantwoord en onder controle te houden. Met de huidige ontwikkelingstempo’s lijkt dat een race tegen de klok.
|
Microsoft AI CEO Warns of Existential Risks, Urges Global RegulationsMustafa Suleyman, Microsoft AI CEO and DeepMind co-founder, warns of existential risks from unchecked AI advancement, urging rigorous controls to prevent systems from becoming uncontrollable. He advocates for ethical boundaries, humanist superintelligence, and global regulations, emphasizing Microsoft’s readiness to abandon risky pursuits. His cautions highlight the need for balanced innovation. |









