Wat als een advocaat zich in de rechtszaal beroept op jurisprudentie die simpelweg niet bestaat? Het klinkt onwaarschijnlijk, maar het gebeurt. En met de opkomst van AI wordt dat risico alleen maar groter.

Bij Turnaround Advocaten zien we dat kunstmatige intelligentie steeds vaker wordt ingezet in de juridische praktijk. Dat biedt kansen, maar vraagt ook om extra scherpte. Want wie blind vaart op AI, loopt het risico om onjuiste informatie in een procedure te brengen, met alle gevolgen van dien. Een aantal recente zaken laat zien dat dit geen theoretisch risico meer is.

Niet-bestaande rechtspraak in de rechtszaal
In een huurzaak verwees een advocaat naar meerdere rechterlijke uitspraken ter onderbouwing van het verweer van haar cliënt. Op het eerste gezicht niets bijzonders, tot bleek dat deze uitspraken niet bestonden. De advocaat trok uiteindelijk acht verwijzingen in, omdat deze ‘niet traceerbaar’ waren. Volgens de kantonrechter bestaat zelfs één van de genoemde ECLI-nummers niet, terwijl andere nummers verwijzen naar totaal andere zaken, zoals een echtscheiding of strafzaak. De rechter vermoedt dat hier gebruik is gemaakt van een AI-tool zonder de uitkomsten te controleren (ECLI:NL:RBOBR:2026:909).

Deze zaken staan bovendien niet op zichzelf. In totaal hebben wij inmiddels zes uitspraken gevonden waarin sprake was van onjuiste of verzonnen jurisprudentie als gevolg van AI-gebruik.

In een Rotterdamse zaak werd in de conclusie van antwoord verwezen naar onjuiste rechtspraak. Volgens de advocaat was dit het gevolg van een probleem bij het converteren van PDF naar Word. De rechter wees er echter op dat dit onder de verantwoordelijkheid van de advocaat valt en dreigde zelfs met toepassing van artikel 21 Rv. Uiteindelijk bleef dit zonder gevolgen, omdat de betreffende partij geen voordeel had bij de onjuiste voorstelling van zaken (ECLI:NL:RBROT:2025:10388).

Ook in Groningen speelde een vergelijkbare kwestie. In die zaak bestond het vermoeden dat de aangehaalde jurisprudentie via ChatGPT was verkregen. Het ging om een strafzaak over een verkeersboete, terwijl de procedure zag op een civiele vordering (ECLI:NL:RBNNE:2025:5645). Ook hier werd verwezen naar niet-relevante en mogelijk zelfs verzonnen rechtspraak.

In een andere zaak kreeg de Rechtbank Oost-Brabant de indruk dat eiser bij het voeren van de procedure ‘juridisch advies’ had ingewonnen bij ChatGPT of een andere generatieve AI. De rechtbank wees er daarbij expliciet op dat zelfs de aangehaalde jurisprudentie niet bleek te bestaan. In niet mis te verstane woorden oordeelde de rechtbank dat eiser zich de kosten van het griffierecht had kunnen besparen als hij bij iemand die ter zake kundig is had gevraagd of het zinvol was om te procederen. Dat laatste was het namelijk niet (ECLI:NL:RBOBR:2026:934).

Waarom dit problematisch is
Rechters zijn duidelijk in hun oordeel: als dit het gevolg is van AI-gebruik, is dat kwalijk. Het raakt namelijk direct aan de kern van de rechtspleging.
  • De belangen van de cliënt worden geschaad
  • De wederpartij kan op het verkeerde been worden gezet
  • De rechter wordt geconfronteerd met onjuiste informatie

Daarmee komt ook de wettelijke waarheidsplicht onder druk te staan. Schending daarvan kan leiden tot stevige sancties.

AI ‘hallucineert’, en dat is het probleem
Wat hier gebeurt, is een bekend fenomeen binnen AI: hallucinerende output. AI-systemen genereren soms antwoorden die overtuigend klinken, maar feitelijk onjuist zijn. Zeker bij juridische vragen kan dat leiden tot verzonnen jurisprudentie of foutieve verwijzingen. Dat is geen bug, maar een inherent risico van de technologie.

Dit is geen incident
De hiervoor genoemde zaken zijn geen incidenten. Rechters signaleren vaker dat processtukken (deels) door AI zijn opgesteld zonder voldoende controle. In andere zaken is zelfs gesproken van ‘ondermaatse, door AI geproduceerde processtukken’ (ECLI:NL:RBOBR:2025:8495).

Dit soort ontwikkelingen laat zien dat AI niet langer een experimenteel hulpmiddel is, maar een factor die directe invloed heeft op de kwaliteit van processtukken, en daarmee op de uitkomst van procedures.

Wat betekent dit voor de praktijk?
AI kan een krachtig hulpmiddel zijn, maar neemt de verantwoordelijkheid van de advocaat niet over. Integendeel: die verantwoordelijkheid wordt misschien wel groter. Het gebruik van AI vraagt om een andere manier van werken. Niet alleen juridisch inhoudelijk, maar ook in hoe informatie wordt gecontroleerd en verantwoord richting de rechter.

Een paar praktische uitgangspunten:
  • Controleer altijd bronnen en jurisprudentie (bijvoorbeeld via ECLI)
  • Ga nooit uit van de juistheid van AI-output
  • Gebruik AI als hulpmiddel, niet als autoriteit
  • Blijf kritisch op wat je indient bij de rechter

Of anders gezegd: AI kan ondersteunen, maar ontslaat de gebruiker nooit van zijn verantwoordelijkheid.

Overzicht van relevante uitspraken
Voor wie verder wil kijken: hieronder staan de ECLI-nummers van de zes uitspraken waarin sprake was van onjuiste of verzonnen jurisprudentie als gevolg van AI-gebruik. Dit keer mét de juiste verwijzingen 😉

Vier van deze uitspraken zijn hierboven toegelicht:
  • ECLI:NL:RBNNE:2025:4814
  • ECLI:NL:RBNNE:2025:5645
  • ECLI:NL:RBOBR:2026:934
  • ECLI:NL:RBGEL:2025:9423
  • ECLI:NL:RBOBR:2026:909
  • ECLI:NL:RBROT:2025:10388

Tot slot
De inzet van AI in de juridische praktijk is onvermijdelijk. De voordelen zijn groot, maar de risico’s zijn dat ook. Deze ontwikkelingen onderstrepen dat zorgvuldigheid geen optie is, maar een vereiste. Want uiteindelijk geldt nog steeds: wat je indient bij de rechter moet kloppen. En dat kun je niet aan een algoritme overlaten.

Heb je vragen over het gebruik van AI in de juridische praktijk? Neem gerust contact met ons op via info@turnaroundadvocaten.nl