In een tijd waarin kunstmatige intelligentie (AI) steeds dieper verweven raakt met ons dagelijks leven — van zoekmachines tot geavanceerde chatbots — groeit ook de vraag: hoe veilig zijn deze systemen eigenlijk? Een nieuwe AI-veiligheidsrapportkaart, samengesteld door het onafhankelijke Future of Life Institute (FLI), vergelijkt acht koplopers in de AI-sector op hun aanpak van veiligheidsrisico’s en transparantie.
|
AI Safety Index Winter 2025 - Future of Life InstituteThe Winter 2025 edition of our AI Safety Index, in which AI experts rate eight leading AI companies on key safety and security domains. |
De veiligheidscompetitie binnen Silicon Valley en daarbuiten
Het Future of Life Institute, een non-profit organisatie die bekendstaat om haar focus op het beperken van existentiële risico’s door technologie, bracht voor de Winter 2025-editie een beoordeling uit van de veiligheidspraktijken van acht toonaangevende AI-bedrijven.
De scorekaart omvat 35 indicatoren verdeeld over zes domeinen, waaronder risicobeoordeling, governance, informatie-deling en — misschien wel het zwaarst wegende — bestaansrisico’s voor de mensheid.
1. Anthropic: Hoogste score — maar nog geen ster in existentiële veiligheid
Anthropic kreeg de meest positieve beoordeling met een C+ algemeen cijfer, mede dankzij sterke resultaten in samenwerkingsonderzoek, beperkte training op gebruikersdata en een organisatievorm die veiligheid centraal stelt.
2. OpenAI & Google DeepMind: Net boven de middenmoot
OpenAI scoorde eveneens een C+, terwijl Google’s DeepMind een C ontving — wat laat zien dat zelfs technologiereuzen moeite hebben om volledig te voldoen aan de omvangrijke veiligheidscriteria.
3. Achteraan in de Rijtjes
Andere grote spelers zoals xAI, Z.ai, Meta, DeepSeek en Alibaba Cloud bleven steken op D-niveaus, wat aangeeft dat hun veiligheidskaders en transparantie nog flink tekortschieten.
Visualized: AI Safety Report Card of Leading Companies – RamaOnHealthcareKey TakeawaysAnthropic (creators of Claude) scored highest overall (C+), standing out for not training on user data, leading in alignment research, and |
Existentiële veiligheid: Het grootste gemis
Op één criterium faalden alle bedrijven: existentiële veiligheid — oftewel hun plan om superintelligente systemen onder controle te houden en rampzalig gebruik te voorkomen. Geen van de beoordeelde AI-leveranciers presenteerde een geloofwaardige strategie om bijvoorbeeld verlies van controle of misbruik van ultra-krachtige AI te voorkomen.
Deze conclusie sluit aan bij bredere analyse- en expertcommentaren die wijzen op een fundamentele onvoorbereidheid van de sector op de risico’s van geavanceerde AI-systemen.
|
AI firms ‘unprepared’ for dangers of building human-level systems, report warnsFuture of Life Institute says companies pursuing artificial general intelligence lack credible plans to ensure safety |
Waarom dit belangrijk is
De scorekaart laat een duidelijke kloof zien tussen publieke beloften van bedrijven om veiligheid serieus te nemen en de feitelijke uitvoering van die beloften. Hoewel sommige bedrijven beter presteren in aspecten zoals informatie-deling of risicobeoordeling, ontbreekt het nog aan concrete, meetbare beschermingsmechanismen tegen grootschalige risico’s.
Het rapport onderstreept ook het groeiende debat rond AI-regelgeving in de VS en Europa. Zonder bindende veiligheidsstandaarden en transparantie zouden bedrijven sneller kunnen kiezen voor marktvoordeel dan voor zorgvuldige risicobeheersing. Reuters
Slotbeschouwing: Meer transparantie nodig
De AI-veiligheidsrapportkaart fungeert als wake-up call: de technologische revolutie verandert snel, maar de beschermingsmechanismen lijken achter te blijven. Juist nu AI-toepassingen groeien in kracht én impact, worden transparantie en concrete veiligheidsstrategieën onmisbaar — niet alleen voor beleidsmakers en experts, maar voor iedereen die met AI werkt of ermee te maken krijgt.









