Twee Amerikaanse volksvertegenwoordigers hebben een voorstel ingediend dat de regels rond fraude met kunstmatige intelligentie (AI) ingrijpend wil aanscherpen. Het wetsvoorstel, bekend als AI Fraud Deterrence Act, zou het maken en verspreiden van “deepfakes” — denk aan vervalste beelden, video’s of audio die doen alsof een overheidsfunctionaris spreekt — expliciet strafbaar maken.
Met dit initiatief willen de indieners een dringend signaal geven aan misbruikers: gebruik van AI om mensen te misleiden moet dezelfde consequenties krijgen als klassieke fraude of identiteitsdiefstal.
|
AI fraud bill seeks to criminalize deepfakes of federal officialsThe AI Fraud Deterrence Act would update criminal definitions and penalties for fraud to account for the rise of AI. |
Waarom deze wet nu — en wat is er veranderd?
De impliciete dreiging van deepfakes werd vroeger vooral gerelativeerd: je zag zelden opvallende fouten zoals vreemde handen of vervormingen — iets wat vroeger typisch was voor amateur-deepfakes. Maar vandaag zijn AI-modellen dermate geavanceerd dat die klassieke herkenningspunten niet meer gelden.
Volgens voorstanders is dat reden genoeg om de bestaande wetgeving — die rekening hield met “oude” vormen van vervalsing — volledig bij te werken. De nieuwe regels zouden niet enkel traditionele fraude bestrijden, maar ook de almaar evoluerende bedreigingen via synthetische media.
Press Release: Congressman Ted Lieu and Congressman Neal Dunn Introduce AI Fraud Deterrence Act to Increase Penalties | Stock NewsCongressmen Lieu and Dunn introduced the AI Fraud Deterrence Act, increasing penalties for AI-relate |
Wat voorziet het wetsvoorstel precies?
- Straffen verdubbelen: het maximale boetebedrag voor fraude bij gebruik van AI zou stijgen.
- Deepfake-imitaties van overheidsfunctionarissen worden expliciet verboden — ook audio en video vallen eronder.
- De definitie van “fraude” wordt uitgebreid: wie AI inzet om iemand te misleiden of valse informatie te verspreiden, kan vervolgd worden onder strengere regels.
Bipartisan Legislation Targets Rising Threat of AI-Powered Impersonation and Fraud - DecryptThe bipartisan bill seeks to combat rising AI fraud threat with harsh penalties for wire fraud, money laundering, impersonation. |
Welke impact kan dit hebben op AI, media en internetgebruik?
Voor technologiebedrijven, creatieve studios en platformen kan dit nieuwe regime betekenen dat AI-tools — ook legitieme toepassingen — strikter onder de loep komen. Toepassingen die vandaag nog “innovatief” of “experimenteel” lijken, kunnen morgen juridisch problematisch worden.
Voor de gebruiker of burger is de basisvraag: hoe weten we nog wat echt is? En hoe beschermen we ons tegen misbruik? Het wetsvoorstel probeert een juridisch antwoord te geven. Maar de discussie over vrijheid van expressie, technologische innovatie en controle van AI-toepassingen staat nog maar net in de startblokken.









