Hoe een advocaat in Californië $10.000 boete kreeg voor fictieve jurisprudentie
In Californië is het tot nog toe ongehoord: een advocaat werd beboet wegens het indienen van juridische stukken waarin 21 van de 23 aangehaalde citaten fictief bleken te zijn — bedacht door de AI-tool ChatGPT. De rechtbank bestempelde het dossier als “frivolous” (zinloos) en waarschuwde dat elke juridische indiening met citaten moet worden geverifieerd door de advocaat zelf.
California issues historic fine over lawyer’s ChatGPT fabricationsThe court of appeals issued an historic fine after 21 of 23 quotes in the lawyer's opening brief were fake. Courts want more AI regulations. |
De advocaat achter de zaak, Amir Mostafavi, gaf toe dat hij de door ChatGPT gegenereerde tekst niet grondig had nagelezen vóór hij het dossier indiende. Hij beweerde dat hij de AI had gebruikt om zijn eigen ontwerp te “verfijnen”, zonder te beseffen dat de tool zomaar casusverwijzingen zou kunnen toevoegen — inclusief verzinsels.
Verregaande gevolgen & juridische waarschuwing
De rechterlijke uitspraak, gepubliceerd door het hof van beroep in het 2ᵉ district van Californië, bevatte stevige taal: geen enkel stuk dat is ingediend bij de rechtbank mag citaten bevatten die de advocaat niet persoonlijk heeft gecontroleerd— ongeacht of die citaten afkomstig zijn van AI of een andere bron. De boete van $10.000 is waarschijnlijk de grootste tot nu toe in de staat voor AI-gerelateerde fabricatie. Bovendien werd Mostafavi verwezen naar de tuchtrechter van de advocatuur.
Opmerkelijk is dat de rechtbank geen vergoeding toekende aan de wederpartij voor proceskosten, ondanks de ontdekking van de valse citaten — omdat die partij de fictieve bronnen zelf niet tijdig had opgemerkt of gemeld.
A New Wrinkle in AI Hallucination Cases: Lawyers Dinged for Failing to Detect Opponent’s Fake CitationsA new decision from the California Court of Appeals adds an intriguing dimension to the growing body of AI hallucination sanctions cases, raising the question of a lawyer's duty to detect fabricated,... |
Meer dan een incident: Het breder patroon
Deze zaak is niet op zichzelf staand. Steeds vaker verschijnen juridische bescheiden met zogenoemde AI-hallucinaties: frases of jurisprudentie die de technologie verzint, zonder daadwerkelijke basis.
AI hallucinations in the legal context - Law360 CanadaRemember how skeptical people were of YouTube and content creation? This video tool became a creative outlet for many and led to the birth of occupations that did not exist before, like influencers. Now, the buzz is about TikTok. Think of AI for lawyers by analogy. |
Volgens Damien Charlotin, die AI-zaken in de advocatuur volgt, zijn het aantal incidenten gestegen van enkele per maand naar meerdere per dag. AI kan logisch klinkende maar onjuiste beweringen formuleren, vooral bij complexe juridische argumenten waar het “pleasen” van de gebruiker de kans op verzinsels vergroot.
Analyses van AI-onderzoekstools tonen tevens dat zelfs gespecialiseerde juridische AI’s niet vrij zijn van fouten: sommige systemen hallucineren tussen 17 % en 33 % van de tijd.
California Court Addresses Attorney Use of AI in Legal PracticeAfter discovery of AI use and fabricated claims in Sylvia Noland v Land of the Free LP, et al, California court published opinion addressing the reliability of AI to |
Wat betekent dit voor het juridische beroep?
- Verantwoordelijkheid blijft bij de advocaat: De uitspraak onderstreept dat, ongeacht technologische hulpmiddelen, de advocaat zelf moet instaan voor de juistheid van elke bron.
- Strengere ethische codes op komst: De Californische advocatenvereniging overweegt wijziging van haar gedragscode om AI-gebruik expliciet te reguleren.
- Voorzichtigheid geboden bij gebruik van AI in rechtspraktijk: Veel advocaten zien AI als een efficiënt hulpmiddel, maar de grens tussen productiviteit en misleiding is dun.
- Toename van sancties en toezicht: Rechters reageren steeds minder tolerant op twijfelachtige AI-inzendingen — boetes, verwijzingen en publicaties zijn in opkomst.
|
More people are using AI in court, not a lawyer. It could cost you money – and your caseResearchers found more than 80 cases of generative AI use in Australian courts so far – mostly by people representing themselves. That comes with serious risks. |









