Hoe valse artsen echte vrouwen bespelen met supplementen
Onderzoekers van de factcheck-organisatie Full Fact stuitten recent op een verontrustende trend: op platforms als TikTok, Facebook, X (voorheen Twitter) en YouTube circuleren AI-gegenereerde video’s van zogenaamd echte artsen — die in werkelijkheid nooit zulke uitspraken hebben gedaan.
|
AI deepfakes of real doctors spreading health misinformation on social mediaHundreds of videos on TikTok and elsewhere impersonate experts to sell supplements with unproven effects |
In die video’s lijken medische professionals zich uit te spreken over aanvankelijk geloofwaardige klachten, gerelateerd aan de menopauze of “thermometer-leg” (een fictieve aandoening), en roepen ze vrouwen op supplementen te kopen bij een firma met de naam Wellness Nest. Onder de producten: probiotica en Himalaya-shilajit — zonder dat er wetenschappelijk bewijs is voor hun – zogenaamd genezende – werking.
Namen misbruikt: van echte professoren tot ex-gezondheidshoofden
Onder de slachtoffers van deze digitale vervalsing zit onder meer David Taylor‑Robinson, professor aan de Universiteit van Liverpool en gespecialiseerd in ongelijkheden in de gezondheidszorg. Hij ontdekte onlangs dat zijn beeld en stem — van een lezing uit 2017 over vaccinaties en een parlementaire hoorzitting — waren hergebruikt in minstens veertien deepfake-video’s waarvan hij beweerde dat hij verkeerde informatie verspreidde.
Ook Duncan Selbie, voormalig hoofd van de Britse gezondheidsdienst Public Health England, werd slachtoffer van manipulatie. Hij verschijnt in video’s waarin hij praat over menopauze en zogenaamd “thermometer-leg”. Volgens Selbie is het “volkomen nep — van begin tot eind.”
Waarom dit zo gevaarlijk is — en waarom platforms actie moeten ondernemen
De schokgolf die uitging van het onderzoek van Full Fact was groot. Het gaat immers niet louter over vage complottheorieën, maar over misbruik van de reputatie van gerespecteerde medici om geld te verdienen aan ongeteste supplementen. Critici spreken van een “sinistere en zorgwekkende nieuwe tactiek”.
Politieke stemmen en gezondheidsdeskundigen roepen op tot strengere regulering van AI-content — met name wanneer die content medische implicaties heeft. Waarom zouden individuen die zichzelf frauduleus voordoen als artsen niet strafbaar zijn? Sommigen pleiten dat het digitale equivalent van medisch bedrog dezelfde gevolgen moet krijgen.
Ondertussen zegt TikTok dat de gemelde video’s verwijderd werden wegens schending van hun richtlijnen tegen misleiding en impersonatie — al was dat pas nadat slachtoffers melding maakten.
Wat dit leert: Vertrouwen, technologie en verantwoordelijkheid
Deze affaire toont pijnlijk aan hoe krachtig en tegelijk misleidend kunstmatige intelligentie kan zijn wanneer ze wordt ingezet om het vertrouwen van het publiek te ondermijnen. Beelden van echte artsen kunnen opnieuw gebruikt worden om schijnbaar geloofwaardige gezondheidsclaims te ondersteunen — zelfs al is de “expertise” volkomen misbruikt.
Het is een waarschuwing dat in het digitale tijdperk:
- reputatie en autoriteit makkelijk gekopieerd kunnen worden,
- sociale media en algoritmes een krachtig wapen zijn voor (des)informatie,
- en dat controle-mechanismen dringend nodig zijn om het vertrouwen in medische communicatie te beschermen.









