Californië staat op het punt een nieuwe wet te ondertekenen die de inzet van kunstmatige intelligentie (AI) in politierapporten strenger wil regelen. S.B. 524 moet zorgen dat AI-geassisteerde documenten duidelijk herkenbaar zijn, dat de oorspronkelijke conceptversies bewaard blijven, en dat agenten persoonlijk garant staan voor de juistheid ervan. De wet is bedoeld om transparantie en verantwoording in wetshandhaving te vergroten — maar roept ook vragen op over privacy en betrouwbaarheid.
SB 524: Law enforcement agencies: artificial intelligence. | Digital DemocracyDigital Democracy overview of bill SB 524: Law enforcement agencies: artificial intelligence. |
Wat verlangt de wet precies?
- Verplichte vermelding van AIElk rapport dat deels of volledig met AI is opgesteld moet op elke pagina een disclaimer bevatten: de lezer moet weten dat AI hieraan heeft bijgedragen.
- Bewaren van eerste conceptenDe originele eerste versie — door de AI gegenereerd — moet bewaard blijven zolang het definitieve rapport wordt bewaard. Zo ontstaat een auditspoor waarin duidelijk wordt welke delen door de AI zijn geschreven.
- Handtekening van de agentDe agent die het definitieve rapport opstelt, moet bevestigen dat hij of zij de inhoud heeft nagekeken en de feiten correct zijn.
- Beperkingen voor externe leveranciersDe wet verbiedt dat AI-dienstverleners de door politieregio’s aangeleverde data doorverkopen, delen, of voor andere doeleinden gebruiken dan waarvoor ze zijn verstrekt.
![]() |
California, Tell Governor Newsom: Regulate AI Police Reports and SignThis mandates that police reports written by AI include disclaimers on every page or within the body of the text that make it clear that this report was written in part or in total by a computer, requires reports written by AI must retain their first draft, and requires officers to sign and verify that they read the report and its facts are correct. |
Waarom deze wet nu?
S.B. 524 komt voort uit groeiende bezorgdheid over hoe AI gebruikt wordt binnen politiële kaders. De Electronic Frontier Foundation (EFF) heeft onderzoekers gedaan, onder andere rond de tool “Draft One” van Axon, die volgens EFF opzettelijk verbergt welke delen van een rapport door AI zijn gemaakt vs. door mensen.
Men wil voorkomen dat AI wordt ingezet op een manier die de betrouwbaarheid, eerlijkheid, of het recht op verdediging ondermijnt. Gecontroleerde en transparante processen moeten het vertrouwen in rapportage versterken.
Mogelijke risico’s en kritiek
- Foutgevoeligheid van AIAI kan incorrecte of misleidende informatie genereren, vooral wanneer trainingsdata gebrekkig is. Zonder goede controle kunnen zulke fouten juridische consequenties hebben.
- Overmatig vertrouwen in technologieEr bestaat een risico dat agenten te veel leunen op AI, waardoor minder kritisch wordt gekeken naar de inhoud, of dat tools gebruikt worden als shortcut in plaats van bijlage.
- Privacy- & gegevensvertrouwenHoe worden de opgenomen beelden of audio beschermd? Wie heeft toegang tot de originele ruwe data? Het is belangrijk dat het auditspoor ook veilig wordt opgeslagen.
Police Professional | Responsible AI in law enforcementWith the right tools in place, agencies can uphold a clear chain of custody and maintain a complete audit trail – ensuring AI-driven processes are transparent, traceable and accountable, says Simon Randall. |
De status en wat nu?
De wet is aangenomen door het Californische parlement en ligt nu ter ondertekening bij gouverneur Gavin Newsom. De EFF roept burgers op om de gouverneur aan te zetten tot ondertekening, om zo de wet officieel in werking te laten treden.
Als S.B. 524 wordt goedgekeurd, zou het een van de eerste wetten zijn die concrete regels stelt voor het gebruik van AI in politieverslagen op deze manier.