De inzet van generatieve kunstmatige intelligentie (AI) in professionele omgevingen, waaronder de advocatuur, nam de afgelopen jaren sterk toe. Toch komt er ook steeds duidelijker aan het licht dat deze tools niet onfeilbaar zijn — integendeel: ze kunnen “hallucinaties” genereren: volkomen verzonnen feiten, citaten of jurisprudentie. Zo blijkt uit onderzoek dat in de VS alleen al tientallen gerechtelijke stukken zijn ingediend met zogenoemde nep-citaties.
Mistake-filled legal briefs show the limits of relying on AI tools at workJudges around the world are seeing error-riddled legal briefs that were generated with the help of artificial intelligence. |
Voorbeelden uit de praktijk
Onderzoeker Damien Charlotin uit Parijs documenteerde minstens 490 zaken waarin AI-gegenereerde documenten fouten bevatten, zoals niet-bestaande rechtszaken of valse quotes. In één opvallend geval diende een advocaat namens MyPillow Inc. een memorie in met circa 30 defecte citaten. Volgens verslaggeving werden advocaten in Californië en andere staten financieel gesanctioneerd omdat zij vertrouwden op AI-uitvoer zonder deugdelijke controle.
Waarom gaat het mis?
Een belangrijk probleem is dat generatieve AI, zoals taalmodellen, geen echte “waarheidscheck” uitvoert: zij voorspelt tekst op basis van patronen in data, niet op basis van controleerbare feiten. Daarnaast spelen organisatorische druk en tijdsgebrek een rol. Advocaten en juridische teams staan vaak onder druk om snel resultaten te leveren — dan lijkt AI een aantrekkelijke shortcut, maar dat vergroot de kans op fouten.
Lawyers embrace AI tools amid lack of uniform rules in courtsFacebook Twitter WhatsApp SMS Email Print Copy article link Save Facebook Twitter WhatsApp SMS Email Print Copy article link Save Judges and legal experts are raising alarms as generative artificial intelligence tools flood the legal profession, bringing a wave of botched filings, fake case citations, and mounting concerns about fraud in evidence. The problem has […] |
Gevolgen voor advocaten en gerechtshof
De gevolgen zijn niet vrijblijvend: fouten in ingediende processen kunnen resulteren in berispingen, boetes of in het ergste geval beroepsethische sancties. Ook loopt het vertrouwen in de rechtspraak gevaar wanneer gerechtelijke stukken gebaseerd zijn op onjuiste of verzonnen informatie: de integriteit van de advocatuur en de rechterlijke macht komt zo onder druk te staan.
Richting een verantwoord gebruik van AI
Deskundigen benadrukken dat AI gezien moet worden als assistent, niet als vervanging van menselijk oordeel. Zij raden aan:
- Altijd verificatie toe te passen op door AI gegenereerde inhoud.
- Organisaties te investeren in AI-vaardigheden en training voor medewerkers.
- Transparant te zijn over het gebruik van AI in juridische workflows.
- Goede governance en ethische kaders op te zetten voordat AI grootschalig wordt toegepast.
De bredere betekenis voor business en industrie
Hoewel deze voorbeelden uit de juridische wereld komen, is de boodschap breder van toepassing: in marketing, customer service, lead-generatie, vertalingen en andere domeinen waar de gebruiker op AI-output vertrouwt, geldt: controleer, verifieer, blijf kritisch. In jouw werk rond B2B sales, marketing en AI-toepassingen is dit een belangrijke les: de technologie biedt enorme kansen, maar zonder menselijke lens ontstaat risico.
Balans tussen mens en machine
De recente incidenten laten zien dat AI-tools krachtige instrumenten zijn, maar geen zelfstandige professionals. Voor bedrijven, advocatenkantoren of marketing-teams betekent dit: omarmen van AI ja — maar met de juiste begeleidende hand, procescontrole en risicobewustzijn. De toekomst ligt in de symbiose van mens en machine, niet in een blind vertrouwen op algoritmen.









