De opmars van generatieve kunstmatige intelligentie beloofde talloze voordelen: van creatief beeldmateriaal tot slimme assistentie. Maar recent onderzoek en experimenten laten zien dat sommige gebruikers diezelfde AI-modellen misbruiken om foto’s van volledig geklede vrouwen te transformeren naar beelden waarin ze in bikini’s verschijnen — zonder toestemming van de gefotografeerde personen.
Google’s and OpenAI’s Chatbots Can Strip Women in Photos Down to BikinisUsers of AI image generators are offering each other instructions on how to use the tech to alter pictures of women into realistic, revealing deepfakes. |
Wat er precies gebeurt
Online gemeenschappen, met name op Reddit-forums, zijn recente plekken geworden waar gebruikers tips uitwisselen over hoe je modellen zoals Google’s Gemini en OpenAI’s ChatGPT kunt omzeilen om beelden te genereren van vrouwen in bikini-achtige outfits, op basis van originele foto’s van volledig geklede vrouwen.
Gebruikers hebben eenvoudige prompts geschreven in gewoon Engels waarmee deze AI-systemen diepgaande bewerkingen uitvoeren — zoals kleding “verwijderen” en vervangen door een bikini — zonder dat de vrouw op de foto hier ooit mee ingestemd heeft.
Guardrails bestaan, maar blijken niet waterdicht
Tech-bedrijven hebben richtlijnen die dit soort misbruik expliciet verbieden. Zowel Google als OpenAI stellen dat hun modellen niet bedoeld zijn om seksueel expliciete of niet-consensuele beelden te maken en dat er maatregelen zijn zoals accountbanen voor overtreders.
Google’s and OpenAI’s Chatbots Can Strip Women in Photos Down to Bikinis – The Gaming Boardroom
|
Toch laten tests van het artikel zien dat die beveiligingen omzeild kunnen worden, en dat sommige modellen — vooral nieuwe beeldgenererende varianten zoals Nano Banana Pro van Google en ChatGPT Images van OpenAI — beelden creëren die er hyperrealistisch uitzien wanneer de guardrails worden ondermijnd.
Waarom dit een probleem is
Deze ontwikkeling raakt diep aan vragen over privacy, consent en ethiek in het AI-tijdperk:
- Vrouwen worden zonder toestemming geobjectiveerd. Doordat gebruikers technieken delen om foto’s te manipuleren, kunnen afbeeldingen geproduceerd worden die anderen beschadigen of vernederen. Reddit
- Niet alleen de tools zijn kwetsbaar, maar ook de cultuur eromheen. Community’s als Reddit-subforums hebben lange tijd tips gedeeld voor het omzeilen van moderatie-regels, wat illustreert dat het probleem niet alleen technisch maar ook sociaal is. Threads
- Bedrijven beloven verbetering, maar antwoorden blijven vaag. Zowel Google als OpenAI benadrukken dat hun regels worden aangescherpt, maar concrete details over hoe effectief dit is blijven beperkt.
WIRED (@wired) on ThreadsUsers of AI image generators are offering each other instructions on how to use the tech to alter pictures of women into realistic, revealing deepfakes.... |
Wat experts zeggen
Organisaties zoals de Electronic Frontier Foundation waarschuwen dat dit soort “abusively sexualized images” een van de kernrisico’s zijn van generatieve AI-technologieën, en dat we moeten focussen op hoe de tools gebruikt worden — niet alleen op wat de makers erover zeggen.
De recente ontdekkingen laten zien dat generatieve AI-modellen krachtiger en tegelijk kwetsbaarder zijn dan veel gebruikers en ontwikkelaars beseffen. De capaciteiten om beelden realistisch te bewerken brengen enorme kansen, maar ook grote risico’s voor privacy en respect. Hoe die risico’s worden aangepakt — door bedrijven, platforms én ons als samenleving — zal bepalend zijn voor de manier waarop deze technologie de komende jaren onze beeldcultuur vormt.









