De Britse regering kondigt een verbod op zogeheten ‘nudification’-apps aan: AI-toepassingen waarmee gebruikers foto’s of video’s kunnen bewerken zodat het lijkt alsof iemand zijn of haar kleding is uitgetrokken. De maatregel maakt deel uit van een bredere strategie om online misogynie aan te pakken en het geweld tegen vrouwen en meisjes in het Verenigd Koninkrijk te halveren.
Nieuwe wetgeving tegen een snelgroeiend misbruik
Met de aangekondigde wetgeving wordt het creëren én verspreiden van AI-tools die zulke bewerkingen mogelijk maken strafbaar. Daarmee gaat de regering verder dan de bestaande regels rond seksueel expliciete deepfakes en misbruik van intieme beelden. Volgens de overheid is dat noodzakelijk, omdat de technologie steeds realistischer wordt en het risico op misbruik snel toeneemt.
‘Technologie mag geen wapen worden’
“Vrouwen en meisjes hebben recht op veiligheid, online én offline,” verklaarde Liz Kendall, de Britse minister van Technologie. “We zullen niet toestaan dat technologie wordt ingezet om mensen te vernederen, te misbruiken of te exploiteren via niet-consensuele seksueel expliciete deepfakes.”
Het maken van expliciete deepfakebeelden zonder toestemming is al strafbaar onder de Britse Online Safety Act. De nieuwe wet gaat een stap verder door ook de tools zelf aan te pakken. Volgens Kendall zullen bedrijven en personen die hieraan verdienen “de volle kracht van de wet voelen”.
Hoe werken ‘nudification’-apps?
Zogenaamde ‘de-clothing’-apps maken gebruik van generatieve AI om kleding digitaal te verwijderen en zo een realistisch ogende naaktafbeelding te creëren. Experts waarschuwen al langer dat dit ernstige schade kan veroorzaken bij slachtoffers — zeker wanneer de technologie wordt misbruikt voor het vervaardigen van seksueel misbruikmateriaal van kinderen.
Oproep tot totaalverbod
In april pleitte de Britse Kindercommissaris Dame Rachel de Souza al voor een volledig verbod op deze technologie. Volgens haar is het niet alleen het maken van zulke beelden dat illegaal moet zijn, maar ook de onderliggende technologie die het mogelijk maakt.
Samenwerking met techbedrijven
De regering wil daarnaast de samenwerking met technologiebedrijven intensiveren om intieme beeldmisbruik beter te bestrijden. Zo werkt de overheid samen met het Britse veiligheidsbedrijf SafeToNet, dat AI-software ontwikkelt om seksueel expliciete content te detecteren en te blokkeren — zelfs al op het moment dat een camera dergelijke beelden probeert vast te leggen.
Die aanpak bouwt voort op bestaande systemen bij grote platforms zoals Meta, waar algoritmes al worden ingezet om mogelijk expliciete beelden te signaleren, vaak met als doel jongeren te beschermen.
‘Geen reden om te bestaan’
Kinderbeschermingsorganisaties reageren positief. De Internet Watch Foundation wijst erop dat bijna één op de vijf jongeren die misbruikbeelden rapporteerden, aangaf dat hun afbeeldingen (deels) waren gemanipuleerd.
“Deze apps hebben simpelweg geen bestaansrecht,” stelde directeur Kerry Smith. “Ze brengen echte kinderen in gevaar en voeden de donkerste uithoeken van het internet.”
Ook de NSPCC verwelkomt het verbod, maar plaatst kanttekeningen. De organisatie is teleurgesteld dat er nog geen verplichte bescherming op toestelniveau komt, zoals strengere maatregelen in privéberichten om de verspreiding van misbruikmateriaal tegen te gaan.
Ambitieus einddoel
De Britse regering stelt dat zij het uiteindelijk “onmogelijk” wil maken voor kinderen om naaktbeelden te maken, te delen of te bekijken op hun smartphone. Ook AI-tools die specifiek zijn ontworpen om seksueel misbruikmateriaal van kinderen te creëren of te verspreiden, moeten volledig verboden worden.









