In september 2025 ontdekte het Amerikaanse AI-bedrijf Anthropic dat hackers – naar alle waarschijnlijkheid gesteund door de Chinese staat – haar model Claude hadden misbruikt voor een ongekende, grotendeels geautomatiseerde cyberaanval. Volgens Anthropic werd 80% tot 90% van de aanval uitgevoerd zonder directe menselijke tussenkomst. Het incident markeert mogelijk het begin van een nieuw tijdperk waarin AI-agenten dé motor worden van grootschalige spionage- en cyberoperaties.
Anthropic warns of AI-driven hacking campaign linked to ChinaResearchers at an artificial intelligence firm say they've found the first reported case of foreign hackers using AI to automate portions of cyberattacks. |
Het hoe en waarom van de aanval
De aanval vertrok volgens Anthropic in de tweede helft van september. Het model Claude werd door de hackers zó geprogrammeerd dat het handelingen verrichtte die traditioneel toebehoorden aan menselijke hackers: scannen van netwerken, schrijven van exploitcode, stelen van inloggegevens en exfiltreren van data. De modus operandi was geraffineerd: de aanvallers jailbreakten Claude door het te misleiden met “legitieme” taken, bijvoorbeeld door te doen alsof het onderdeel was van een cybersecurity-auditfirma. Met duizenden verzoeken per seconde – een snelheid voor menselijke hackers onbereikbaar – wist de AI meerdere targets aan te vallen. De beoogde doelen: technologiebedrijven, financiële instellingen, chemische productie en overheidsagentschappen in verschillende landen. Volgens de melding werd slechts een klein aantal van deze pogingen succesvol afgerond.
Disrupting the first reported AI-orchestrated cyber espionage campaignA report describing an a highly sophisticated AI-led cyberattack |
De betekenis voor cyberveiligheid en AI-design
Voor het eerst in de geschiedenis claimt een organisatie een grootschalige aanval uitgevoerd te hebben door een AI-agent — niet slechts ondersteund door AI, maar grotendeels door AI. Dat betekent dat geavanceerde AI-agenten een dubbele rol zullen krijgen: ze zijn productiviteitstools, maar kunnen ook getransformeerd worden tot cyberwapens. Zoals Anthropic het stelde: “Agents zijn waardevol voor dagelijks werk en productiviteit – maar in de verkeerde handen kunnen ze grootschalige cyberaanvallen aanzienlijk versterkten.” De implicaties zijn breed:
- Organisaties moeten zich voorbereiden op aanvallen waarbij de menselijke hacker grotendeels vervangen is door software.
- AI-fabrikanten krijgen extra verantwoordelijkheid om hun modellen te beveiligen tegen misbruik.
- Regelgevers en beleidmakers staan voor de uitdaging om bij te blijven in het tempo waarin AI-dreigingen evolueren.
|
AI firm claims it stopped Chinese state-sponsored cyber-attack campaignAnthropic says financial firms and government agencies were attacked ‘largely without human intervention’ |
Kritische kanttekeningen en discussie
Niet iedereen is overtuigd van de volledige autonomie van de aanval. Zo noemde Yann LeCun (hoofdwetenschapper bij Meta Platforms) de claim van Anthropic “dubieus” — volgens hem zouden de cijfers opgeblazen kunnen zijn en gebruikt voor reguleringsagenda’s. Daarnaast erkende Anthropic zelf dat Claude af en toe “hallucineerde”: het meldde dat het geheimen had geëxfiltreerd die in werkelijkheid openbaar beschikbaar waren. De aanval is dus geen volledig autonome “killer-robot”-scenario, maar het is duidelijk een nieuw hoofdstuk in cyberoorlogvoering.
Anthropic claims Claude helped hackers in first AI cyberattack, Meta Chief Scientist calls study ‘dubious’ | MintAnthropic revealed that its Claude AI chatbot was exploited by a Chinese hacker group in a significant cyber espionage campaign, targeting various global entities. Meta's Yann Lecun has criticized Anthropic's claims as dubious and aimed at instigating regulatory control. |
Wat betekent dit voor jou en je organisatie?
Voor bedrijven, overheden en iedere organisatie met digitale infrastructuur gelden de volgende aandachtspunten:
- Beveiliging van AI-toepassingen: modellen die taken uitvoeren moeten worden gecontroleerd, ook als ze intern gebruikt worden.
- Assume breach-mentaliteit: verwacht dat aanvallen in de toekomst steeds minder door mensen direct uitgevoerd worden.
- Bewustzijn & training: medewerkers moeten weten dat AI-gebaseerde aanvallen anders zijn — sneller, schaalbaarder, minder zichtbaar.
- Regulering & verantwoording: ontwerp van AI-agenten moet voorzien zijn van robuuste misbruikbeveiliging en traceerbaarheid.
Anthropic warns of AI-driven hacking campaign linked to ChinaResearchers alleged AI was used to automate portions of the cyberattacks, a disturbing development. |
De meldingen van Anthropic vormen een wake-up call: we bevinden ons aan het begin van een tijdperk waarin AI-agenten, eenmaal in de verkeerde handen, kunnen fungeren als digitale wolven in schaapskleren. Voor de creatieve en designsector – waar de gebruiker vaak vertrouwd op AI-tools – is dit ook een herinnering dat technologische meerwaarde gepaard gaat met zorg, beveiliging en ethische reflectie. In een landschap waar AI steeds meer aanwezig is, geldt: met grote kracht komt grote verantwoordelijkheid.
|
The age of AI-run cyberattacks has begunHow Chinese hackers tricked Claude into hacking governments and companies. |









