In politiebureaus van San Francisco tot Washington wordt een stille revolutie uitgerold. Niet langer is het de agent die als eerste de pen oppakt om een rapport te schrijven. Tegenwoordig doet een algoritme dat. Het systeem heet Draft One, ontwikkeld door technologiebedrijf Axon. Met behulp van bodycam-beelden en audio zet het in enkele seconden een eerste verslag op papier. Wat ooit uren duurde, lijkt nu een kwestie van minuten.
Maar wie goed kijkt, ziet dat deze technologische sprong ook nieuwe vragen oproept: wat gebeurt er als de machine fouten maakt? Wie draagt dan de verantwoordelijkheid?
De belofte van snelheid
Agenten die met Draft One werken, ervaren vooral opluchting. Minder tijd achter de computer betekent meer tijd op straat, en minder administratieve rompslomp kan de werkdruk aanzienlijk verlichten. Vooral bij alledaagse zaken klinkt het aantrekkelijk: de AI schrijft alvast de feiten uit, waarna de agent het alleen hoeft na te lezen en bij te sturen.
Voorstanders benadrukken dat dit niet alleen tijd bespaart, maar ook de nauwkeurigheid kan vergroten. Een bodycam vergeet immers niets, terwijl een mens soms details mist.
Het ongemak van onzichtbare versies
Toch klinkt er achter de schermen onrust. Burgerrechtenorganisaties, zoals de ACLU, wijzen op een groot probleem: Draft One bewaart geen eerdere versies van een rapport. Elke aanpassing overschrijft de vorige, alsof de eerste woorden nooit bestaan hebben. Voor transparantie en verantwoording is dat een nachtmerrie.
Critici waarschuwen dat dit haaks staat op wetgeving die juist eist dat de herkomst van AI-verslagen volledig traceerbaar is. Hoe kun je controleren of een cruciaal detail is weggefilterd of verdraaid, als het oorspronkelijke ontwerp spoorloos verdwijnt?
Wantrouwen bij justitie
Niet alleen activisten trekken aan de bel. Ook in de rechtbank klinkt scepsis. Het Openbaar Ministerie van King County liet onlangs weten AI-rapporten simpelweg niet te accepteren. Te groot is het risico dat een fout van het algoritme, hoe klein ook, uitmondt in een verkeerd oordeel over schuld of onschuld. En wie draagt die schuld dan — de agent of de software?
AI die verder kijkt dan rapporten
Tegelijkertijd ontstaat er een bredere beweging binnen de wetshandhaving. Naast tools als Draft One wordt ook ‘agentic AI’ verkend: systemen die niet alleen rapporten maken, maar actief helpen misdrijven te voorkomen en bewijs te ordenen. Deze technologie kan patronen ontdekken, trends signaleren en taken automatiseren die normaal gesproken kostbare tijd van agenten opslokken.
Het idee is verleidelijk: agenten die minder met papier bezig zijn, en meer met het menselijk werk — gesprekken voeren, wijken veilig maken, kwetsbare groepen ondersteunen.
Een balans tussen mens en machine
Toch is de belofte van preventieve AI even dubbelzinnig als die van Draft One. Want wat als een algoritme besluit waar extra patrouilles nodig zijn? Kan dat leiden tot eerlijkere politiezorg, of versterkt het juist bestaande ongelijkheden in achtergestelde wijken?
Het antwoord hangt af van hoe open en zorgvuldig de technologie wordt toegepast. Transparantie, duidelijke communicatie met het publiek en scherpe verantwoordingsstructuren zijn onmisbaar.
Vertrouwen als sleutelwoord
De komst van AI in de politiepraktijk laat zich niet meer tegenhouden. De vraag is niet óf deze systemen gebruikt zullen worden, maar hoe. Zal AI het politiewerk menselijker maken, door agenten tijd te geven voor echt contact? Of wordt het een onzichtbare macht die fouten in stilte versterkt?
Wat duidelijk is: technologie alleen kan de rechtstaat niet beschermen. Daarvoor blijft vertrouwen nodig — tussen agent en burger, tussen rapport en waarheid, tussen mens en machine.









