In Alabama heeft een federale rechter streng opgetreden tegen een advocaat die kunstmatige intelligentie inschakelde om gerechtelijke stukken op te stellen waarin nepcitaten voorkwamen. Deze uitspraak onderstreept de gevaren van ongetoetste AI-toepassingen in juridische contexten.
De zaak in Alabama
De advocaat, James Johnson uit Loxley, werd door U.S. District Judge Terry Moorer beboet voor het indienen van documenten waarin hij onnauwkeurige of gefabriceerde gerechtelijke uitspraken had opgenomen — citaten die niet overeenkomen met werkelijke jurisprudentie.
Federal judge fines, reprimands lawyer who used AI to draft court filingsU.S. District Judge Terry Moorer fined Alabama lawyer James Johnson $5,000 for using artificial intelligence to create fake case citations in court filings. |
Volgens de rechter ging het niet om een loutere vergissing: “The insertion of bogus citations is not a mere typographical error … It is just wrong.”
Johnson kreeg een boete van 5.000 USD, en de rechter beval dat hij toekomstige en voormalige cliënten op de hoogte moest brengen van de fout. Daarnaast verwees Moorer de zaak door naar het raadgevend comité om te overwegen Johnson uit te sluiten van inzet als verdediger in rechtbankzaken.
AI-hallucinaties en juridische risico’s
Deze zaak is geen op zichzelf staand incident. Rechters en juridische waakhonden waarschuwen steeds vaker dat generatieve AI-systemen, zoals ChatGPT, de neiging hebben “hallucinaties” te produceren — dus uitspraken, citaten of beweringen die overtuigend klinken maar feitelijk onwaar of fictief zijn.
|
California issues historic fine over lawyer’s ChatGPT fabricationsThe court of appeals issued an historic fine after 21 of 23 quotes in the lawyer's opening brief were fake. Courts want more AI regulations. |
In meerdere staten — waaronder Californië — werden advocaten beboet wegens vergelijkbare praktijken: het indienen van stellingen of pleidooien waarin door AI gegenereerde citaten werden opgenomen die niet controleerbaar bleken. In een andere zaak legde een rechtbank boetes op aan advocaten die in een rechtszaak tegen Walmart nepcasussen hadden geciteerd via AI.
Rechter Moorer merkte op dat dit gedrag (“epidemie van nepcitaten”) niet langer getolereerd kan worden en dat strengere sancties nodig zijn om te ontmoedigen dat advocaten klakkeloos vertrouwen op AI zonder verificatie.
Verantwoord gebruik van AI in juridische praktijk
De kern van de juridische ethiek blijft onveranderd: advocaten hebben de plicht om nauwkeurig en eerlijk te werken, ongeacht of ze technologie inzetten of niet. AI kan een hulpmiddel zijn om tijd te besparen of bronnen te structureren, maar het kan niet de verantwoordelijkheid van de advocaat wegnemen om zelf te verifiëren wat wordt ingediend.
Sommige juridische instanties en rechtbanksystemen nemen maatregelen om het gebruik van AI te reguleren:
- In New York stelde het gerechtelijk systeem een interim-beleid vast dat enkel goedgekeurde AI-tools toestaat en verplicht stelt dat vertrouwelijke informatie niet in publieke AI-systemen wordt ingevoerd.
- In Californië werd een advocaat fors beboet omdat 21 van de 23 geciteerde uitspraken in een pleidooi door AI waren verzonnen.
- Andere staten overwegen sancties, oplegging van ethische richtlijnen en verplichte scholing voor advocaten.
De uitspraak in Alabama vormt een duidelijke waarschuwing: de juridische wereld kan niet blind vertrouwen op AI als vervanger voor zorgvuldige toetsing. Wie gebruikmaakt van generatieve AI in juridische werkzaamheden moet dat doen met de grootst mogelijke terughoudendheid, transparantie en controle. Anders loopt hij of zij het risico op ernstige sancties — zowel financieel als beroepsethisch.









