Een reeks schokkende video’s, gecreëerd door kunstmatige intelligentie, verspreidt zich razendsnel op Facebook en zet vraagtekens bij de zekerheid van visuele bewijzen. De video’s tonen veronderstelde invallen van U.S. Immigration and Customs Enforcement (ICE) bij werkplekken — maar zijn in werkelijkheid gegenereerd met de tool Sora van OpenAI. Opmerkelijk is hoe het algoritme van Facebook juist beloont dat zulke ontregelde beelden massaal gedeeld worden.
|
AI-Generated Sora Videos of ICE Raids Are Wildly Viral on FacebookAn account is spamming horrific, dehumanizing videos of immigration enforcement because the Facebook algorithm is rewarding them for it. |
De beelden: Wat zie je?
- In één video staat een man met een Walmart-vest voor een bus waarop “IMMIGRATION AND CERS” staat — een duidelijke spelfout die wijst op manipulatie.
- Een agent met een vest waarop “ICE” én “POICE” staat, begeleidt de man richting de bus. Ondertussen loopt een collega op onnatuurlijke wijze: de voet lijkt door het been heen te lopen.
- De video is voorzien van Amerikaanse vlag-emoji’s en de tekst “Deportation”, en telt miljoenen weergaven, duizenden likes, reacties en shares.
Waarom gaat dit viraal?
De reden is tweeledig:
- Algoritmische beloningHet Facebook-algoritme lijkt gewend aan extreme beelden die sterke emoties losmaken — en verspreiding genereren. Videos waarin een dramatisch verhaal wordt verteld (zoals een vermeende deportatie) worden vaak gezien, geliket en gedeeld. In dit geval speelt het systeem de kaarten van kennis en emotie uit tegen betrouwbaarheid.
- Makkelijke AI-productieDe video’s zijn gemaakt met Sora, een door OpenAI vrijgegeven videogenerator. De makers verstopten bewust watermerken en gebruikten teksten over de video-watermerken heen om detectie te bemoeilijken. Zo kunnen gemanipuleerde beelden met schijn van echtheid zich ongehinderd verspreiden.
De impact: Waarom is dit zorgwekkend?
- Misleiding van publiek: Veel kijkers geloven dat de beelden authentiek zijn en denken dat de beelden een daadwerkelijke ICE-actie tonen. Maar het zijn geen echte invallen — de productie is digitaal.
- Verspreiding van propaganda: Door de vorm en toon van de video’s — gezinnen, kinderen, deportatie — raken ze aan gevoelige thema’s en kunnen ze ingezet worden om angst, woede of desinformatie te versterken.
- Vertrouwen in beeldmateriaal onder druk: Als AI-gegenereerde beelden met dergelijke overtuigingskracht circuleren, wordt het lastiger om te onderscheiden wat echt is en wat gemanipuleerd — wat gevolgen heeft voor journalistiek, veiligheid en publieke discussie.
Wat kan er gebeuren?
- Technische tegenmaatregelen: Platformen zoals Facebook zullen de uitdaging aangaan met betere detectie van AI-gegenereerde beelden, bijvoorbeeld via metadata-checks, watermerk-detectie of provenance-systemen.
- Publieke educatie: Gebruikers moeten bewuster worden van de kans dat beelden gemanipuleerd zijn; visueel ‘bewijs’ is niet per definitie authentiek.
- Regulering en ethiek: Makers van AI-tools en beleidsmakers zullen geconfronteerd worden met vragen over verantwoordelijkheid — wie is aansprakelijk als gemanipuleerde beelden massaal verspreid worden?
De virale verspreiding van deze door AI gegenereerde beelden laat zien hoe snel technologie en visuele manipulatie samenkomen in het publieke domein — en hoe het vertrouwen in wat we zien erdoor onder druk komt te staan. Voor iedereen die online content consumeert is het een wake-up call: zelfs wat op het eerste gezicht “echt” lijkt, kan een zorgvuldig geconstrueerde illusie zijn.









