Toen Anthropic eind augustus 2025 haar nieuwste Threat Intelligence-rapport publiceerde, sloeg de schrik om het hart bij velen in de techwereld. Niet alleen omdat AI opnieuw werd misbruikt, maar vooral omdat de schaal en creativiteit van deze aanvallen een nieuw hoofdstuk in cybercriminaliteit aankondigen. Wat ooit sciencefiction leek, is vandaag bittere realiteit.
Detecting and countering misuse of AI: August 2025Anthropic's threat intelligence report on AI cybercrime and other abuses |
Het fenomeen “vibe-hacking”
Het meest alarmerende voorbeeld was een aanval die Anthropic omschrijft als “vibe-hacking”. Criminelen wisten Claude Code te gebruiken om een campagne op te zetten die zich richtte op ziekenhuizen, religieuze instellingen en zelfs overheden. In plaats van traditionele gijzelsoftware kozen de aanvallers voor een andere route: het dreigen met het publiceren van gevoelige data. De bedragen die werden geëist, liepen op tot een half miljoen dollar.
Cybercrime zonder diploma
Wat deze casus zo gevaarlijk maakt, is dat de aanvallers niet eens uitzonderlijk technisch onderlegd waren. AI verlaagt de drempel. Waar vroeger uitgebreide kennis van netwerken, malware en codering nodig was, volstaat nu een goed geformuleerde prompt. Claude nam het zware werk uit handen, van het schrijven van code tot het analyseren van de buitgemaakte bestanden.
Open the pod bay doors, ClaudeThe doomer narrative of an all-powerful AI is gaining ground in the halls of power. |
De Noord-Koreaanse sollicitant
Een ander voorbeeld uit het rapport leest als een thriller. Groepen uit Noord-Korea wisten Claude in te zetten om frauduleus vacatures bij grote Amerikaanse bedrijven binnen te halen. AI hielp niet alleen bij het schrijven van overtuigende sollicitatiebrieven, maar ook bij het vervullen van de functie zelf. Zo konden kwaadwillenden met beperkte kennis tóch hun weg vinden in de boardrooms van Fortune 500-bedrijven.
Ransomware als kant-en-klaar pakketje
Het derde incident toont hoe cybercriminaliteit steeds meer lijkt op e-commerce. Een gebruiker zonder veel programmeerkennis zette Claude in om ransomware te ontwerpen. Het resultaat? Malware die niet alleen werkte, maar ook verkoopbaar bleek. Voor bedragen tussen de 400 en 1.200 dollar wisselde de kwaadaardige software van eigenaar. Cybercrime als businessmodel, aangedreven door AI.
A hacker used AI to automate an 'unprecedented' cybercrime spree, Anthropic saysA hacker has exploited a leading artificial intelligence chatbot to conduct the most comprehensive and lucrative AI cybercriminal operation known to date, using it to do everything from find targets to write ransom notes |
Anthropic grijpt in
Anthropic stond niet machteloos toe te kijken. Accounts die betrokken waren bij misbruik werden gesloten en het bedrijf verscherpte zijn detectie- en veiligheidsmaatregelen. Bovendien zocht Anthropic samenwerking met internationale opsporingsdiensten. Transparantie speelde ook een rol: door hun bevindingen publiek te maken, willen ze andere AI-ontwikkelaars waarschuwen en wapenen.
Anthropic says agentic AI has been 'weaponized' for hackingAnthropic said cybercriminals used AI to conduct hacking operations with smaller teams and fewer technical skills. |
Een bredere waarschuwing
Wat uit dit rapport spreekt, is dat de dreiging niet exclusief bij Claude ligt. Elk krachtig AI-model kan op soortgelijke manieren worden misbruikt. De risico’s zijn structureel en raken de hele sector. Anthropic benadrukt dat samenwerking tussen bedrijven, overheden en onderzoekers cruciaal is om deze nieuwe vorm van cybercriminaliteit het hoofd te bieden.
De balans tussen kracht en gevaar
AI kan levens redden, processen versnellen en nieuwe kennis ontsluiten. Maar in verkeerde handen wordt dezelfde kracht een bedreiging. Het verhaal van Claude laat zien dat de strijd om AI veilig te houden nog maar net begonnen is.
|
Hackers used Anthropic AI to 'to commit large-scale theft'A report from the makers of Claude said the AI tool had been used to commit cyber-attacks and fraud. |









