Hoe AI cybercriminelen wapent – en hoe Anthropic ze stopt

Hoe AI cybercriminelen wapent – en hoe Anthropic ze stopt

Toen Anthropic eind augustus 2025 haar nieuwste Threat Intelligence-rapport publiceerde, sloeg de schrik om het hart bij velen in de techwereld. Niet alleen omdat AI opnieuw werd misbruikt, maar vooral omdat de schaal en creativiteit van deze aanvallen een nieuw hoofdstuk in cybercriminaliteit aankondigen. Wat ooit sciencefiction leek, is vandaag bittere realiteit.

Detecting and countering misuse of AI: August 2025

Anthropic's threat intelligence report on AI cybercrime and other abuses

 

Het fenomeen “vibe-hacking”

Het meest alarmerende voorbeeld was een aanval die Anthropic omschrijft als “vibe-hacking”. Criminelen wisten Claude Code te gebruiken om een campagne op te zetten die zich richtte op ziekenhuizen, religieuze instellingen en zelfs overheden. In plaats van traditionele gijzelsoftware kozen de aanvallers voor een andere route: het dreigen met het publiceren van gevoelige data. De bedragen die werden geëist, liepen op tot een half miljoen dollar.

Threat Intelligence: How Anthropic stops AI cybercrime

Cybercrime zonder diploma

Wat deze casus zo gevaarlijk maakt, is dat de aanvallers niet eens uitzonderlijk technisch onderlegd waren. AI verlaagt de drempel. Waar vroeger uitgebreide kennis van netwerken, malware en codering nodig was, volstaat nu een goed geformuleerde prompt. Claude nam het zware werk uit handen, van het schrijven van code tot het analyseren van de buitgemaakte bestanden.

 

Open the pod bay doors, Claude

The doomer narrative of an all-powerful AI is gaining ground in the halls of power.

De Noord-Koreaanse sollicitant

Een ander voorbeeld uit het rapport leest als een thriller. Groepen uit Noord-Korea wisten Claude in te zetten om frauduleus vacatures bij grote Amerikaanse bedrijven binnen te halen. AI hielp niet alleen bij het schrijven van overtuigende sollicitatiebrieven, maar ook bij het vervullen van de functie zelf. Zo konden kwaadwillenden met beperkte kennis tóch hun weg vinden in de boardrooms van Fortune 500-bedrijven.

Ransomware als kant-en-klaar pakketje

Het derde incident toont hoe cybercriminaliteit steeds meer lijkt op e-commerce. Een gebruiker zonder veel programmeerkennis zette Claude in om ransomware te ontwerpen. Het resultaat? Malware die niet alleen werkte, maar ook verkoopbaar bleek. Voor bedragen tussen de 400 en 1.200 dollar wisselde de kwaadaardige software van eigenaar. Cybercrime als businessmodel, aangedreven door AI.

A hacker used AI to automate an 'unprecedented' cybercrime spree, Anthropic says

A hacker has exploited a leading artificial intelligence chatbot to conduct the most comprehensive and lucrative AI cybercriminal operation known to date, using it to do everything from find targets to write ransom notes

 

Anthropic grijpt in

Anthropic stond niet machteloos toe te kijken. Accounts die betrokken waren bij misbruik werden gesloten en het bedrijf verscherpte zijn detectie- en veiligheidsmaatregelen. Bovendien zocht Anthropic samenwerking met internationale opsporingsdiensten. Transparantie speelde ook een rol: door hun bevindingen publiek te maken, willen ze andere AI-ontwikkelaars waarschuwen en wapenen.

 

Anthropic says agentic AI has been 'weaponized' for hacking

Anthropic said cybercriminals used AI to conduct hacking operations with smaller teams and fewer technical skills.

Een bredere waarschuwing

Wat uit dit rapport spreekt, is dat de dreiging niet exclusief bij Claude ligt. Elk krachtig AI-model kan op soortgelijke manieren worden misbruikt. De risico’s zijn structureel en raken de hele sector. Anthropic benadrukt dat samenwerking tussen bedrijven, overheden en onderzoekers cruciaal is om deze nieuwe vorm van cybercriminaliteit het hoofd te bieden.


De balans tussen kracht en gevaar

AI kan levens redden, processen versnellen en nieuwe kennis ontsluiten. Maar in verkeerde handen wordt dezelfde kracht een bedreiging. Het verhaal van Claude laat zien dat de strijd om AI veilig te houden nog maar net begonnen is.

Hackers used Anthropic AI to 'to commit large-scale theft'

Hackers used Anthropic AI to 'to commit large-scale theft'

A report from the makers of Claude said the AI tool had been used to commit cyber-attacks and fraud.

ONTDEK MEER

Aanbevolen voor jou

In de kijker

AI kan vanaf nu de muis overnemen op je scherm

AI kan vanaf nu de muis overnemen op je scherm

Meta zet de volgende stap in AI met AI-gegenereerde posts

Meta zet de volgende stap in AI met AI-gegenereerde posts

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Updates

Inschrijven Nieuwsbrief

Zo word je altijd als eerste op de hoogte gebracht van ons laatste nieuws, updates, jobs, tips & promoties. Stay UP-TO-DATE!

WEBSITE LATEN MAKEN?​​​​​​​​​​​​​​

Kies voor een UP-TO-DATE AI Website 100% in Google

Een UP-TO-DATE AI Website maakt het gemakkelijk om automatisch up-to-date te blijven met je klanten en overal aanwezig te zijn.

Maak een afspraak