Het gerechtelijk systeem van de Amerikaanse staat Alaska zette meer dan een jaar lang kunstmatige intelligentie in om een chatbot te bouwen die inwoners zou helpen bij complexe juridische vragen — vooral rond probate, het formele proces om nalatenschappen af te wikkelen. Wat aanvankelijk een snel project van enkele maanden had moeten worden, veranderde in een langdurige worsteling met onnauwkeurigheden, “hallucinaties” en technologische grenzen die veel verder reikten dan verwacht.
What Happened When Alaska's Court System Tried Answering Questions with an AI Chatbot? - SlashdotAn AI chatbot to answer probate questions from Alaska residents "was supposed to be a three-month project," said Aubrie Souza, a consultant with the National Center for State Courts told NBC News. "We are now at well over a year and three months, but that's all because of the due diligence that was... |
Waarom een AI-chatbot?
De Alaska Virtual Assistant — kortweg AVA — moest mensen zonder advocaat helpen om eenvoudige vragen over juridische formulieren en procedures te beantwoorden. Het idee was eenvoudig: maak toegang tot juridische informatie laagdrempeliger door AI-gestuurde begeleiding aan te bieden, zonder dat iemand een expert hoeft te bellen.
NBC ChicagoThe chatbot was meant to help residents navigate the tangled web of forms and procedures involved in probate, the judicial process of transferring... |
In theorie belooft AI een revolutie in publieke dienstverlening: snellere antwoorden, 24/7 hulp, en minder druk op schaarse overheidsmedewerkers. Maar de praktijk bleek veel weerbarstiger.
Technische uitdagingen werden snel groot
Wat de makers hoopten in drie maanden af te ronden, duurde meer dan een jaar. De belangrijkste reden? De chatbot moest 100% nauwkeurig zijn, wat volgens projectleiders cruciaal is bij juridische hulp. AI-modellen hebben echter een bekende zwakte: ze kunnen hallucineren. Dat betekent dat ze overtuigend klinkende maar feitelijk onjuiste antwoorden geven — en dat is in juridische context niet onschuldig.
Bijvoorbeeld: toen de ontwikkelaars AVA vroegen waar iemand juridische hulp kon vinden, antwoordde het systeem dat er een rechtenfaculteit in Alaska was en dat men via het alumninetwerk kon zoeken. Dat klopte simpelweg niet — er is geen juridische faculteit in de staat. Reddit
De strijd tegen hallucinerende AI
Om deze problemen aan te pakken hebben de ontwikkelaars hard gewerkt om de chatbot te beperken tot een gesloten kennisbasis — alleen documenten van het Alaska Court System zelf — en nauwgezette controles ingebouwd om te voorkomen dat er externe, onbetrouwbare informatie wordt opgepikt.
Toch blijft het een probleem dat generatieve AI-modellen uit zichzelf feiten kunnen verzinnen. In een juridische setting, waar elke uitspraak consequenties kan hebben voor iemands rechten of plichten, maakt dat het gebruik van dergelijke technologie extra delicaat.
Wat kostte het zoveel tijd?
Volgens bestuurders vereiste AVA een enorme hoeveelheid due diligence, voortdurende menselijke review en technische finetuning om zelfs maar in de buurt te komen van bruikbare antwoorden — en zelfs dan is er geen garantie dat de AI nooit fout zal zitten.
Dat illustreert een bredere realiteit: overheidsinstanties die AI willen gebruiken voor publieke dienstverlening lopen tegen dezelfde fundamentele uitdagingen aan als commerciële organisaties — maar met één groot verschil: de marges voor fouten zijn veel kleiner.
Het einde in zicht — maar niet zonder lessen
Uiteindelijk staat de lancering van de chatbot gepland voor eind januari. Hoewel AVA nog steeds een experiment is, toont het project hoe moeilijk het is om AI betrouwbaar te integreren in gevoelige, publieke processen. Eén ding staat vast: technologie alleen is niet genoeg — menselijke controle, transparantie en voorzichtigheid blijven essentieel.









