Wetenschappers slaan alarm: kunstmatig gegenereerde stemmen zijn nu zó geloofwaardig dat luisteraars vaak niet kunnen vaststellen of de stem écht is of door een algoritme gemaakt. Een recente studie, gepubliceerd op 24 september 2025 in PLoS One, toont aan dat deepfake-stemmen — klonen van bestaande menselijke spraakfragmenten — vaak worden aangezien voor echte mensenstemmen.
AI voices are now indistinguishable from real human voicesDo you think you'd be able to tell the difference between a real human voice and a deepfake? Most people can't. |
Diepere stemmen, grotere verwarring
In het onderzoek kregen proefpersonen fragmenten te horen van 80 stemmen: 40 menselijke en 40 kunstmatig gegenereerde. Die kunstmatige stemmen waren verdeeld in twee categorieën: generieke AI-stemmen, gemaakt “from scratch”, en stemmen die getraind waren op basis van een paar minuten opnames van echte personen (de klonen).
De uitkomst? Slechts 41% van de generieke AI-stemmen werd foutief als menselijk gelabeld, maar bij de gekloonde stemmen was dat percentage 58%. En opvallend: de werkelijke menselijke stemmen werden in 62% van de gevallen correct herkend als menselijk. Daarmee concludeerden de onderzoekers dat onze capaciteit om echte stemmen van kunstmatige stemmen te onderscheiden nauwelijks beter is dan bij toeval.
Gevaarlijke toepassingen: van identiteitsfraude tot politieke manipulatie
De implicaties van deze technologische vooruitgang zijn verstrekkend — en niet zonder gevaren:
- Misleiding en oplichting: Criminelen kunnen iemands stem klonen en zich voordoen als een geliefde of vertrouwenspersoon. In een bekend voorbeeld werd een vrouw ervan overtuigd dat haar dochter in nood was en stuurde ze $15.000 naar oplichters.
- Bypassen van stemgebaseerde beveiliging: Banken, telecomproviders of andere diensten die stemherkenning gebruiken als authenticatiemiddel lopen risico. Een bestaand stemprofiel kan worden gekopieerd en misbruikt.
- Desinformatie en politiek gebruik: Deepfake-stemmen kunnen uitgesproken meningen of verklaringen produceren namens publieke figuren, wat de waarheid kan vervormen en instabiliteit kan veroorzaken.
- Auteursrechten en stemrechten: Wanneer iemands stem wordt gekloond zonder toestemming, ontstaan juridische en ethische vragen rond eigendom en toestemming.
Toepassingen waar het wél goed kan zijn
Hoewel de risico’s niet onderschat mogen worden, opent deze technologie ook boeiende mogelijkheden:
- Toegankelijkheid en communicatie: Voor mensen die om medische redenen hun stem verloren zijn, kan een gekloonde stem (van henzelf) het verloren spraakvermogen deels terugbrengen.
- Onderwijs en luistermedia: Personalisering van spraak, zoals een luisterboek of educatief materiaal in een vertrouwde stem, kan de beleving verdiepen.
- Entertainment en gaming: AI-stemmen maken het mogelijk om dialogen te creëren zonder dure studio-opnames of acteurssessies.
Waar liggen we nu — en wat brengt de toekomst?
De stemmen die in het onderzoek werden gebruikt, zijn geen hypergeavanceerde experimenten: ze zijn gemaakt met commercieel verkrijgbare software en slechts enkele minuten aan spraakdata. Dit illustreert hoe toegankelijk en krachtig de technologie al is geworden.
Tegelijkertijd zijn er inspanningen om nepstemmen te herkennen. Onderzoekers ontwikkelen detectiemodellen die subtiele verschillen in frequentiepatronen, ademhaling of neuronale activatiepatronen analyseren. Maar die technieken staan nog in de kinderschoenen en zijn geen garantie tegen alle vormen van misbruik.
Gezien de ontwikkelingen is regelgeving en publieke bewustwording essentieel: stemherkenning kan niet langer blindelings vertrouwd worden. Beveiligingsprotocollen moeten zich aanpassen en mensen moeten leren kritisch te luisteren.









