Er schuilt een nieuwe vorm van gevaar in de digitale wereld: niemand minder dan je eigen stem kan tegen je worden gebruikt. Cybercriminelen zetten geavanceerde AI-tools in om stemmen te klonen — waardoor zelfs een kort voicemail-fragment voldoende is om slachtoffers te misleiden. Volgens deskundige Brian Long van beveiligingsbedrijf Adaptive Security kan een standaard voicemail-bericht al genoeg zijn om een deepfake-stem te maken.
How to protect your voice from being used in AI scam callsThat automatic, robotic message you often get when your call gets sent to someone's voicemail is actually perfect for protecting your identity from being used in AI scam calls. |
Het nieuwe wapen van oplichters
Traditionele telefonische scams (valse bankmedewerkers, nep-overheid, enzovoort) kennen we al. Maar nu is daar een next-level variant: AI-stemimitatie. Met slechts enkele seconden aan stemmateriaal – bijvoorbeeld via je facebook-video, je voicemail of een sociale-media-clip – kunnen criminelen een stem nabootsen die je herkent.
Waarom die paar seconden al genoeg zijn
Brian Long maakt duidelijk dat het niet veel tijd of bronmateriaal vraagt: “Als je voicemailbericht jouw stem bevat, verwijder het dan en gebruik een standaard robotstem.” Het idee is angstaanjagend simpel: slachtoffers horen een vertrouwde stem die zegt “Help, ik zit in de problemen” — en handelen uit paniek.
|
Cybercriminals are using AI voice cloning tools to dupe victimsOne expert said he doesn't even answer unknown callers anymore and uses a code word with family members. |
Waar je moet op letten
- Beantwoord geen onbekende oproepen waarna standaard jouw stem opgenomen wordt.
- Laat je voicemailbericht niet je natuurlijke stem gebruiken; een neutrale, robotachtige begroeting is veiliger.
- Wees voorzichtig met het online delen van video’s of audio-fragmenten waarin jouw stem duidelijk hoorbaar is — ook die kunnen worden misbruikt.
Herkennen en handelen
Als je geconfronteerd wordt met een paniekerige stem aan de lijn die zegt ‘ik heb geld nodig’, stop dan even. Bel je familielid via een bekend nummer, of gebruik een afgesproken codewoord. Vertrouw nooit blind op de stem alleen — want hij kan nagemaakt zijn.
|
What the Tech? Voice cloning scamScammers are using AI to clone the voices of your loved ones in order to scam you out of money, but there are ways to avoid this scam. |
Wat dit betekent voor iedereen
Deze vorm van oplichting raakt ons allemaal — jong en oud, technisch of minder technisch. De drempel voor de dader is steeds lager geworden dankzij AI-tools, de slachtoffers worden steeds persoonlijker benaderd. In dit speelveld is bewustzijn de beste verdedigingslinie.
Member security: Be aware of AI voice scamsThe rise in artificial intelligence (AI) tools has made it possible to clone someone’s voice in a voicemail, voice text or even a live phone call. Find out how AI voice scams work, what to look out for, and how you can avoid this type of fraudulent activity. |
Het is een vreemde gedachte: dat je eigen stem, iets dat je vertrouwt, zich tegen je kan keren. Maar in deze tijd is dat geen science-fiction meer — het is realiteit. Door alert te zijn, eenvoudige voorzorgsmaatregelen te nemen, en te controleren bij twijfel, kun je voorkomen dat je slachtoffer wordt van deze moderne telefoonfraude.









