De grootste AI-bedrijven onder de loep: Wie scoren hoog op veiligheid

De grootste AI-bedrijven onder de loep: Wie scoren hoog op veiligheid

In een tijd waarin kunstmatige intelligentie (AI) steeds dieper verweven raakt met ons dagelijks leven — van zoekmachines tot geavanceerde chatbots — groeit ook de vraag: hoe veilig zijn deze systemen eigenlijk? Een nieuwe AI-veiligheidsrapportkaart, samengesteld door het onafhankelijke Future of Life Institute (FLI), vergelijkt acht koplopers in de AI-sector op hun aanpak van veiligheidsrisico’s en transparantie.

AI Safety Index Winter 2025 - Future of Life Institute

AI Safety Index Winter 2025 - Future of Life Institute

The Winter 2025 edition of our AI Safety Index, in which AI experts rate eight leading AI companies on key safety and security domains.

De veiligheidscompetitie binnen Silicon Valley en daarbuiten

Het Future of Life Institute, een non-profit organisatie die bekendstaat om haar focus op het beperken van existentiële risico’s door technologie, bracht voor de Winter 2025-editie een beoordeling uit van de veiligheidspraktijken van acht toonaangevende AI-bedrijven.

De scorekaart omvat 35 indicatoren verdeeld over zes domeinen, waaronder risicobeoordeling, governance, informatie-deling en — misschien wel het zwaarst wegende — bestaansrisico’s voor de mensheid.


1. Anthropic: Hoogste score — maar nog geen ster in existentiële veiligheid

Anthropic kreeg de meest positieve beoordeling met een C+ algemeen cijfer, mede dankzij sterke resultaten in samenwerkingsonderzoek, beperkte training op gebruikersdata en een organisatievorm die veiligheid centraal stelt.

2. OpenAI & Google DeepMind: Net boven de middenmoot

OpenAI scoorde eveneens een C+, terwijl Google’s DeepMind een C ontving — wat laat zien dat zelfs technologiereuzen moeite hebben om volledig te voldoen aan de omvangrijke veiligheidscriteria.

3. Achteraan in de Rijtjes

Andere grote spelers zoals xAI, Z.ai, Meta, DeepSeek en Alibaba Cloud bleven steken op D-niveaus, wat aangeeft dat hun veiligheidskaders en transparantie nog flink tekortschieten.

Visualized: AI Safety Report Card of Leading Companies – RamaOnHealthcare

Key TakeawaysAnthropic (creators of Claude) scored highest overall (C+), standing out for not training on user data, leading in alignment research, and

 

Existentiële veiligheid: Het grootste gemis

Op één criterium faalden alle bedrijven: existentiële veiligheid — oftewel hun plan om superintelligente systemen onder controle te houden en rampzalig gebruik te voorkomen. Geen van de beoordeelde AI-leveranciers presenteerde een geloofwaardige strategie om bijvoorbeeld verlies van controle of misbruik van ultra-krachtige AI te voorkomen.

Deze conclusie sluit aan bij bredere analyse- en expertcommentaren die wijzen op een fundamentele onvoorbereidheid van de sector op de risico’s van geavanceerde AI-systemen.

AI firms ‘unprepared’ for dangers of building human-level systems, report warns

AI firms ‘unprepared’ for dangers of building human-level systems, report warns

Future of Life Institute says companies pursuing artificial general intelligence lack credible plans to ensure safety

Waarom dit belangrijk is

De scorekaart laat een duidelijke kloof zien tussen publieke beloften van bedrijven om veiligheid serieus te nemen en de feitelijke uitvoering van die beloften. Hoewel sommige bedrijven beter presteren in aspecten zoals informatie-deling of risicobeoordeling, ontbreekt het nog aan concrete, meetbare beschermingsmechanismen tegen grootschalige risico’s. 

Het rapport onderstreept ook het groeiende debat rond AI-regelgeving in de VS en Europa. Zonder bindende veiligheidsstandaarden en transparantie zouden bedrijven sneller kunnen kiezen voor marktvoordeel dan voor zorgvuldige risicobeheersing. Reuters


Slotbeschouwing: Meer transparantie nodig

De AI-veiligheidsrapportkaart fungeert als wake-up call: de technologische revolutie verandert snel, maar de beschermingsmechanismen lijken achter te blijven. Juist nu AI-toepassingen groeien in kracht én impact, worden transparantie en concrete veiligheidsstrategieën onmisbaar — niet alleen voor beleidsmakers en experts, maar voor iedereen die met AI werkt of ermee te maken krijgt. 

Aanbevolen voor jou

In de kijker

AI kan vanaf nu de muis overnemen op je scherm

AI kan vanaf nu de muis overnemen op je scherm

Meta zet de volgende stap in AI met AI-gegenereerde posts

Meta zet de volgende stap in AI met AI-gegenereerde posts

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Updates

Inschrijven Nieuwsbrief

Zo word je altijd als eerste op de hoogte gebracht van ons laatste nieuws, updates, jobs, tips & promoties. Stay UP-TO-DATE!

WEBSITE LATEN MAKEN?​​​​​​​​​​​​​​

Kies voor een UP-TO-DATE AI Website 100% in Google

Een UP-TO-DATE AI Website maakt het gemakkelijk om automatisch up-to-date te blijven met je klanten en overal aanwezig te zijn.

Maak een afspraak