Hoe een revolutionaire AI-video-app de grens tussen echt en nep vervaagt
OpenAI heeft onlangs Sora 2 gelanceerd — een app waarmee gebruikers in een oogwenk realistisch ogende video’s van tien seconden kunnen creëren, compleet met audio. Hoewel de technologie indrukwekkend is, luiden experts meteen de alarmklok: dit soort tools biedt oplichters en kwaadwillenden een ongekende springplank.
OpenAI wasn’t expecting Sora’s copyright dramaOpenAI changed its Sora generator’s copyright settings as well as people’s options for control of their likenesses after early feedback. |
Deepfake van geliefden: Wanneer technologie een erfenis misbruikt
Familieleden van overledenen zoals Robin Williams en George Carlin protesteren fel tegen het gebruik van hun gelijkenissen in AI-video’s. Zij voelen dat hun dierbaren, die niet meer kunnen instemmen of zich verzetten, zonder hun goedkeuring als “content” worden gebruikt. OpenAI verweert zich met het vrije-spraakargument, maar de juridische en ethische implicaties van postume gelijkenisrechten blijven grotendeels onontgonnen terrein.
Van Spongebob tot politieke deepfakes: Grenzen vervagen
Bij de lancering van Sora 2 bleek al snel dat de app, met een standaard “opt-out”-beleid voor rechtenhouders, gebruikers toestond om bekende karakters als SpongeBob, Pokémon en South Park te reproduceren — tenzij de rechthebbenden dat expliciet tegenhielden. Na felle kritiek zette OpenAI een pas op de plaats en belooft het nu “meer gedetailleerde controle” te geven aan eigenaars van auteursrechtelijk beschermd materiaal.
|
OpenAI promises more ‘granular control’ to copyright owners after Sora 2 generates videos of popular charactersCompany behind the AI video app says it will work with rights holders to ‘block characters from Sora at their request’ |
Scam-potentieel: Waar schuilt het gevaar?
AI-video’s worden gezien als een ‘goudmijn’ voor oplichters. Dankzij Sora kunnen vervalsingen zeer geloofwaardig overkomen — en sommige video’s kunnen zelfs onzichtbare watermerken hebben of die verwijderen. Reële risico’s zijn onder meer:
- Valse beweringen (bijv. “Ik ben jouw zoon en heb hulp nodig”)
- Vervalsde politieke boodschappen of manipulatieve campagnes
- Intimidatie of smaad met geënsceneerde beelden
OpenAI reageert (enigszins)
OpenAI biedt ondertussen extra tools om gebruikers beter te laten bepalen wat er met hun AI-beeld gebeurt: je kunt bijvoorbeeld instellen dat je cameo niet gebruikt wordt in politieke video’s, of bepaalde woorden vermijden. CEO Sam Altman erkent dat auteursrechten bij video complexer zijn dan bij stilstaande beelden, en belooft fijnmazigere opties voor rechtenhouders. Toch is het een race tegen de klok: de technologie evolueert, regelgeving blijft achter, en kwaadwillenden vinden altijd creatieve manieren om beperkingen te omzeilen.
Sam Altman says that intellectual property is a lot trickier for video: 'The video feels much more real and lifelike'OpenAI CEO Sam Altman was asked about Sora users creating viral videos depicting SpongeBob and Pikachu. |
Een nieuw medialandschap?
Sora is niet de eerste AI-tool, maar het verschuift de realiteit ingrijpend. Volgens experts vormt de groei van AI-video een bedreiging voor het vertrouwen in wat we “echt” noemen. We moeten ons afvragen: wanneer elk beeld betwistbaar wordt, welke waarde heeft dan visueel bewijs nog?
|
We’re swimming in AI slop. Here’s how to tell the difference.AI-generated video slop is filling feeds. It’s time to learn how we can tell if something is real. |
Tot slot
Sora laat zien dat we op technologisch vlak enorme sprongen maken. Maar elke sprong heeft gevolgen. De balans tussen innovatie, kunst, rechten en veiligheid staat op scherp. OpenAI, makers, gebruikers en wetgevers zullen samen moeten bepalen welke grenzen er gelden in deze nieuwe beeldende wereld.








