Volgens een recent rapport van onderzoeksbureau Gartner heeft een overweldigende 62 % van de organisaties wereldwijd in het afgelopen jaar te maken gehad met deepfake-aanvallen. Deze vorm van geavanceerde desinformatie – waarbij stem, beeld of video vervalst wordt – is geen sciencefiction meer, maar een reële bedreiging geworden voor bedrijven. Daarnaast blijken ook AI-toepassingen zelf doelwit te zijn, want 29 % van de respondenten meldt dat hun AI-infrastructuur werd aangevallen.
In dit artikel belicht de auteur de opkomst van deze dreigingen, de gebruikte methoden, de impact op organisaties en hoe bedrijven zich kunnen wapenen.
Generative AI attacks are accelerating at an alarming rateTwo new reports from Gartner highlight the new AI-related pressures companies face, and the tools they are using to counter them |
Deepfakes: De sluipmoordenaar van vertrouwen
Deepfakes zijn nepcontent die gebruikmaakt van kunstmatige intelligentie om iemands stem, gezicht of gebaren overtuigend na te bootsen. Denk aan video’s waarin iemand iets zegt wat hij nooit zei, of audioboodschappen waarin een bekende stem klinkt. Deze technologie wordt steeds verfijnder en moeilijker te onderscheiden van de realiteit.
Deepfakes Are Everywhere, and Many Campaigns Aren't PreparedAudio and video manipulated by AI could mislead voters and hurt candidates. Many lawmakers’ campaigns have no plans in case they’re targeted. |
Waarom zijn bedrijven een aantrekkelijk doelwit?
Bedrijven beschikken over gevoelige informatie, reputatie en klantrelaties — troeven die voor kwaadwillenden veel waard zijn. Deepfakes kunnen ingezet worden om:
- Social engineering via neptelefoontjes of spraakberichten
- Manipulatie binnen vergaderingen met valse deelnemers
- Verdachte beslissingen te “rechtvaardigen” met vervalste beelden
- Vertrouwelijke AI-systemen te misleiden of te hacken
Volgens Gartner gebruikten 44 % van de organisaties audio-deepfakes, en 36 % video-deepfakes als aanvalsmethode.
|
Watch out - even small businesses are now facing threats from deepfake attacksAudio and video deepfakes are getting more popular, study warns |
AI als doelwit — niet alleen het instrument
Het rapport signaleert dat hackers niet alleen traditionele systemen aanvallen, maar nu ook AI-toepassingen zelf onder vuur nemen. Bij 29 % van de organisaties werd de infrastructuur van Generative AI (GenAI) aangevallen. Sommige aanvallen maken misbruik van “prompt-manipulatie”: kwaadwillenden geven subtiele input die een AI ertoe beweegt ongewenste of schadelijke output te genereren.
Why Deepfakes in Enterprise Communications are an Urgent Threat | PindropDeepfake fraud is escalating across contact centers and conferencing platforms. Discover insights from Opus Research and Pindrop on why enterprises must act now with a robust deepfake defense strategy. |
De evolutie van AI-bedreigingen
Naast klassieke deepfakes zien we nieuwe aanvalsvormen opduiken:
- Prompt injection: aanvallers sluipen kwaadaardige commando’s in wat een AI moet verwerken.
- Infrastructuuraanvallen: hackers proberen AI-servers, algoritmes of modellen te saboteren.
Deze combinaties maken het veiligheidslandschap complexer dan ooit.
How deepfakes threaten women and democracies – DW – 09/23/2025Politician Cara Hunter found a deepfake porn video with her face on the internet. Deepfakes are created by digitally superimposing a face on someone else’s body. AI fakes like these mostly target women. |
Vertrouwensverlies en reputatieschade
Wanneer klanten of medewerkers ontdekken dat video’s of stemopnames gemanipuleerd zijn, kan het vertrouwen snel wegsmelten. Reputatieschade is vaak moeilijk te herstellen.
Financiële gevolgen
Financiële fraude, afpersing, misleidende beslissingen, of kosten voor herstel en juridisch advies kunnen zware gevolgen hebben voor de balans van een bedrijf.
Interne chaos en besluitvorming
Als medewerkers of leidinggevenden verward raken door gemanipuleerde inhoud, ontstaan fouten in beslissingen, interne verdeeldheid en onzekerheid.
|
62% Firms Experienced Deepfake Attacks Globally In Last 12 Months, AI Apps New Target: ReportThe report was prepared based on a survey conducted from March-May 2025 among 302 cybersecurity leaders in North America, EMEA and Asia-Pacific. |
Hoe kunnen bedrijven zich wapenen?
1. Detectie en monitoring
Bedrijven moeten software implementeren die deepfakes kan herkennen — beeld- en audiomateriaal automatisch controleren op tekenen van manipulatie is een eerste verdedigingslinie.
2. Zero-trust en “least privilege”
Beperk toegangen, verifieer identiteiten constant, en geef systemen niet meer rechten dan strikt nodig is.
3. Red-teaming en green-teaming
Voer proactieve tests uit: laat ethische hackers (red teams) proberen binnen te dringen en laat beveiligingsteams (green teams) verdedigen. Zo ontstaan leerervaringen.
4. Bewustwording en training
Medewerkers moeten getraind worden in herkenning van misleiding, controlepraktijken en het betwijfelen van verdachte audiovisuele inhoud.
5. Beveilig AI-infrastructuren afzonderlijk
Bescherm modellen, prompt-interfaces en AI-servers met extra lagen veiligheidscontrole, isolatie en auditing.
De opkomst van AI heeft een nieuw front geopend in de wereld van cybercriminaliteit: deepfakes en aanvallen op AI zelf. Wanneer 62 % van de bedrijven al slachtoffer wordt, is dit geen slechts theoretisch gevaar meer — het is een realiteit die elke organisatie serieus moet nemen. Door detectie, streng toegangsbeleid, training én proactieve beveiliging kunnen bedrijven zich wapenen tegen deze geslepen aanvallen.
Sophos: AI deepfakes hit 62% of firms last yearA survey of cybersecurity leaders shows 62 percent reported AI-driven attacks against staff in the past year. These incidents, involving prompt-injection and |









