Omschrijving
AI-hallucinaties in conclusies
Jaargang
2025 - 2026 (89)
Pagina
522
Auteur(s)
J. Baeck, S. Van Ruymbeke
Trefwoorden

ARTIFICIËLE INTELLIGENTIE

Bijkomende informatie

Actualiteit

Coördinatie: Vincent Sagaert en Dirk Scheers

AI-hallucinaties in conclusies

Een arrest van het Gentse Hof van beroep van 18 september 2025 in een zaak over de erkenning van een kind zorgde recent voor opschudding. Niet zozeer de erkenningskwestie zelf, maar wel de door de advocate van de moeder neergelegde conclusie trok de aandacht: die bevatte talrijke verwijzingen naar onbestaande rechtspraak en rechtsleer, evenals een reeks onjuiste citaten uit bestaande wetteksten. Toen het hof om een afschrift van alle vermelde bronnen vroeg, bleek de advocate die zelf niet te kunnen terugvinden. Op de zitting verklaarde zij dat een medewerker de conclusie had opgesteld, dat zij die wel had nagelezen, maar de bronnen niet had gecontroleerd.

Het hof besteedt in zijn arrest maar liefst zes bladzijden aan het verifiëren van de aangehaalde bronnen en plaatst het incident in een bredere reflectie over artificiële intelligentie (AI) in de juridische praktijk. AI kan zonder twijfel een grote meerwaarde bieden, zo benadrukt het hof, maar het onoordeelkundig gebruik ervan bij het schrijven van conclusies leidt tot een aanzienlijk tijdsverlies, zowel voor de hoven en rechtbanken als voor de (andere) advocaten, met een (maatschappelijke) kost die in tijden van schaarse middelen binnen justitie niet te verantwoorden is.

Het is niet de eerste keer dat een advocaat betrapt wordt op het opnemen van door AI verzonnen bronnen in conclusies. In de Verenigde Staten deed de zaak «Mata v. Avianca» in 2023 veel stof opwaaien. Advocaten hadden in een conclusie niet-bestaande precedenten aangehaald en bleven die aanvankelijk verdedigen toen de rechtbank er vragen over stelde. Uiteindelijk gaven ze toe dat ze gebruik hadden gemaakt van ChatGPT en de door ChatGPT gegenereerde, maar verzonnen precedenten niet hadden gecontroleerd. De rechtbank legde de advocaten een boete van 5.000 dollar op, (o.a.) wegens het inroepen van lichtzinnige juridische argumenten (frivolous legal arguments).

Ook in Australië is recent opgetreden tegen een advocaat («mr. Dayal») die door AI verzonnen bronnen zonder controle in zijn conclusies had opgenomen. Toen de rechter de bronnen niet kon terugvinden, werd de advocaat ter verantwoording geroepen. De advocaat gaf toe dat hij een AI-tool van een commercieel juridisch softwarepakket had gebruikt, en de door die AI-tool gegenereerde informatie niet had geverifieerd. De advocaat bood zijn excuses aan en betaalde een vergoeding aan de tegenpartij. Nadien legde de Office of Victorian Legal Services Board de advocaat een zware sanctie op: hij mag (o.a.) niet langer als principal lawyer optreden en enkel nog als werknemer in een advocatenkantoor werken.

Wat leren deze zaken? Ten eerste dat de antwoorden van ChatGPT en andere generatieve chatbots (zoals Gemini en Claude) niet steeds betrouwbaar zijn. Dit vergt een minimaal inzicht in hun werking en beperkingen. Dergelijke AI-systemen begrijpen taal immers niet zoals een mens. Ze zijn getraind op enorme hoeveelheden tekst om statistische patronen in taalgebruik te herkennen. Door deze patronen te analyseren, leren zij hoe woorden en zinnen doorgaans samen voorkomen. Hierdoor kunnen zij voorspellen welk woord het meest waarschijnlijk volgt op een reeks voorgaande woorden, zonder inzicht in de betekenis van die woorden of de juistheid van de inhoud. Hierdoor kan het antwoord coherent klinken, maar toch onjuist zijn. Dat AI daarbij informatie of citaten kan verzinnen («hallucineren»), is geen randfenomeen, maar een bekend risico binnen de computerwetenschappen.

Ten tweede ligt de controleplicht steeds bij de advocaat: het door AI gegenereerde antwoord moet steeds worden afgetoetst aan betrouwbare rechtsbronnen. Dit sluit aan bij de richtlijnen van de Orde van Vlaamse Balies: het gebruik van AI door advocaten is toegestaan, maar de advocaat moet steeds de in een AI-resultaat vermelde wetgeving, rechtspraak en rechtsleer controleren. Gebeurt dat niet, dan dreigen beroepsaansprakelijkheid (bij schade) en tuchtsancties.

Besluit. AI kan een grote meerwaarde betekenen voor advocaten, maar mag geen excuus zijn om onjuiste of door AI verzonnen (juridische) informatie in conclusies op te nemen. Advocaten die AI gebruiken bij het opstellen van conclusies, doen dat op eigen verantwoordelijkheid en moeten het AI-antwoord nauwgezet controleren. Dit is geen rem op innovatie, maar een noodzakelijke voorwaarde voor een integer en vlot verloop van de procedure.

Joke Baeck en Stijn Van Ruymbeke

UGent