(On)terechte angsten: drie vragen rond de toekomst van de advocaat en AI cover

22 sep 2025 | Legal Tech (IT & IP)

(On)terechte angsten: drie vragen rond de toekomst van de advocaat en AI

Recente vacatures

Jurist
Ondernemingsrecht Vennootschapsrecht
2 jaar
Oost-Vlaanderen
Jurist
Ondernemingsrecht Vennootschapsrecht
0-1 jaar
Oost-Vlaanderen
Redacteur
3 - 7 jaar
Antwerpen
Coördinator opleidingen
3 - 7 jaar
Antwerpen

Aankomende events

​Dit artikel is het resultaat van de praktijkervaringen van haar auteurs Maarten Truyens en Senne Mennes. Beiden zijn voormalig advocaat en medeoprichters van ClauseBase, een bedrijf dat AI-gedreven software verkoopt om juristen te helpen bij het opstellen, onderhandelen en nakijken van juridische documenten. Deze software biedt een mix aan hulpmiddelen die zowel de nieuwste (generatieve’) vorm van AI, klassieke AI, als meer traditionele hulpmiddelen omvat.

Als bedrijf dat al de verschillende soorten technologie aanbiedt in haar software, hebben wij het voordeel dat wij een rechttoe-rechtaan analyse kunnen bieden van de huidige status van de markt. Wij zijn immers niet afhankelijk van één technologie waarvan we de loftrompet om commerciële redenen moeten steken. Die huidige status wordt immers gekenmerkt door twee extremen.

Enerzijds is de markt voor AI binnen de advocatuur het nieuwe Wilde Westen – er wordt slangenolie tegen de sterren op geproduceerd.

Anderzijds zijn er effectief veel taken waarbij technologie (niet enkel beperkt tot AI) op dit eigenste moment een meerwaarde kan bieden, maar waar de jurist weinig aandacht aan besteedt.

Hierna volgt dan ook onze poging om een dosis realisme te introduceren in het gesprek – geen hoofd in de wolken, geen kop in het zand – aan de hand van de meest populaire vragen die wij de laatste maanden hebben ontvangen rond de mogelijkheden van AI.

Kan AI juridisch advies verlenen?

Als u al eens een poging heeft gedaan om een AI-hulpmiddel als ChatGPT in uw adviesverlening te betrekken, dan zal u ongetwijfeld gemerkt hebben dat AI inderdaad enige mate van juridisch advies kan verlenen. Of beter gezegd: ChatGPT zal plichtsgetrouw zijn opdracht uitvoeren, ook al is het niet altijd op de hoogte van de lacunes in zijn kennis. Het antwoord op uw vragen zal dus vaak van wisselende kwaliteit zijn.

Hier botsen we namelijk op enkele fundamentele (en tot dusver onopgeloste) beperkingen van generatieve AI: toegang tot data en het zogenaamde contextvenster. We bekijken deze twee beperkingen om beurt.

De ‘grote taalmodellen’ (Large Language Models of LLM’s) die binnen de motor van ChatGPT zitten, hebben een bijzonder brede kennis gezien de brede aard van de informatie die op het publieke internet verkrijgbaar is en waarop zij getraind zijn. LLM’s kennen zeer veel van zeer veel domeinen, maar specifiek voor de juridische sector ontbreekt vaak diepe kennis. De data die een LLM heeft geabsorbeerd om die kennis te ontwikkelen is immers niet op het publieke internet verkrijgbaar. Denk aan alles dat u in uw betalende onderzoekstool kan terugvinden rond rechtsleer en selecte rechtspraak.

Bovendien zijn de algemene LLM’s niet ontwikkeld met juridische dienstverlening indachtig. Het gevolg is dat zij bepaalde associaties ontwikkelen tijdens hun training die een jurist nooit zou maken door bijvoorbeeld Nederlands en Belgisch recht te verwarren. Het juridische landschap is bovendien in constante evolutie, met als gevolg dat LLM’s vaak niet over up-to-date kennis beschikken om een accurate analyse te maken, omdat ze getraind werden op basis van verouderde informatie.

Deze beperkingen zijn inherent aan ‘fundamentele modellen’ als GPT, Claude, Mistral, Gemini, etc. Daarom proberen de makers van de LLM’s nu om informatie rechtstreeks ter beschikking te stellen van de LLM. ChatGPT, bijvoorbeeld, zal autonoom online opzoekingen doen wanneer dat gepast lijkt voor het voltooien van zijn opdracht.

Daar botsen we echter op de tweede fundamentele beperking van Generatieve AI – het ‘contextvenster’. LLM’s hebben, net als mensen, een eindige hoeveelheid werkgeheugen. Moderne LLM’s kunnen zo’n 300 pagina’s tekst aan nieuwe informatie verwerken. Dat is nuttig voor het nakijken van een doorsnee contract, maar veel minder nuttig wanneer het doel is om het ganse Belgische rechtssysteem te doorploegen. Bovendien verliezen LLM’s, net als mensen, zelfs binnen die limiet vaak de aandacht en slaan zij gehele stukken tekst over.

​Er zijn vandaag dus nog enkele fundamentele beperkingen aan de technologie die accuraat AI-gedreven juridisch onderzoek uitsluiten

Het gros van het onderzoek in legal tech over dit onderwerp situeert zich rond de vraag hoe we het gemakkelijker kunnen maken om enkel relevante informatie ter beschikking te stellen aan de LLM, zodat we zeker binnen deze limiet blijven. Dit gaat gepaard met het vullen van databanken vol informatie die – indien gepast – aan de LLM moet kunnen worden voorgelegd, mits voorfiltering om de relevante informatie eerst op te speuren. Die voorfiltering gebeurt aan de hand van een zoektocht naar semantische gelijkenis. Dit kan werken, maar te vaak glipt er belangrijke informatie door de mazen van het net.

Er zijn vandaag dus nog enkele fundamentele beperkingen aan de technologie die accuraat AI-gedreven juridisch onderzoek uitsluiten – hoezeer het soms kan lijken alsof AI er bijna (of al) is. Echter: als men de obstakels van vandaag vergelijkt met de obstakels van één jaar geleden, dan zien we dat de technologie bijzonder ver is gekomen. Wij sluiten absoluut niet uit dat binnen enkele jaren de technologie en informatie-infrastructuur errond voldoende op punt zal staan om betrouwbaar rechtsvragen te beantwoorden. Bedrijven die evenwel beweren dat deze technologie vandaag al de advocaat kan vervangen, verkopen gebakken lucht.

Kan AI juridische documenten opstellen?

Ook hier is het antwoord opnieuw overduidelijk ‘ja’. Vraag ChatGPT om een confidentialiteitsovereenkomst of licentieovereenkomst op te stellen en u ontvangt meteen een (in sommige gevallen) bruikbaar ontwerp. Ook hier zijn er echter belangrijke beperkingen.

Het contextvenster waarvan sprake hierboven beschrijft een probleem van input: LLM’s kunnen maar een beperkte hoeveelheid nieuwe informatie absorberen bij het produceren van een antwoord. Een even groot probleem is echter dat van de beperkte output: waar moderne LLM’s ongeveer 300 pagina’s tekst kunnen opnemen, kunnen zij maar 6 pagina’s tekst produceren. Dit is geen probleem als u geen inspiratie heeft voor het jaarlijkse kerstkaartje. Het aantal commerciële contracten of conclusies dat minder dan 6 pagina’s telt, is echter gering in onze ervaring.

Er bestaan oplossingen die deze beperking kunnen helpen omzeilen. Zo kan men een LLM vragen om het document in afzonderlijke blokken te genereren. Voor documenten die geen verregaande interne samenhang hebben, is dit een vrij eenvoudige oplossing.

​De output van LLM’s inherent onvoorspelbaar. Zelfs wanneer exact dezelfde vraag herhaald wordt, zal een LLM meestal een ander antwoord genereren

Juridische documenten vertonen echter bijzonder veel interne verbondenheid. Denk maar aan kruisverwijzingen, gekapitaliseerde terminologie en de daaraan verbonden definities die doorheen een contract gebruikt worden en consistent moeten blijven, alsook typische zinsneden zoals “onverminderd artikel x, …”. Om deze interne consistentie te garanderen, moeten ontwikkelaars hoogst fragiele orchestratielagen bouwen die het geheel samen moeten trekken.

Bovendien is de output van LLM’s inherent onvoorspelbaar. Zelfs wanneer exact dezelfde vraag herhaald wordt, zal een LLM meestal een ander antwoord genereren. Deze onvoorspelbaarheid is diep ingebakken in de technologie, want zorgt voor de broodnodige creativiteit. Onvoorspelbaarheid is daarom vaak zeer interessant, maar vormt tegelijk ook een enorm nadeel bij het opstellen van juridische documenten.

Tot slot speelt ook hier de hierboven vermelde problematiek: het is nog steeds te moeilijk om te garanderen dat output van AI in lijn is met vigerend recht.

Dit alles betekent dat de status quo rond AI-gedreven documentcreatie vooral een is die focust op het ondersteunen van de advocaat, eerder dan deze te vervangen.

De bestaande juridische modellen blijven ook hun waarde behouden, al was het maar om enige voorspelbaarheid te garanderen. De rol van traditionele automatiseringstechnologie – waarmee documenten op basis van vooraf bestaande modellen snel kunnen worden aangemaakt – is dan ook nog lang niet uitgespeeld.

Gebruiken AI-modellen mijn data om zichzelf verder te trainen?

De vrees die achter deze vraag schuilt, is terecht. Advocaten zijn onderworpen aan strenge wettelijke, ethische en contractuele vertrouwelijkheidsverplichtingen. Het is bovendien algemeen geweten dat LLM’s gigantische hoeveelheden data nodig hebben van menselijke origine om zichzelf verder op te trainen. Het opladen van een document waar vertrouwelijke gegevens in staan naar ChatGPT en consoorten, zou deze vertrouwelijkheidsverplichtingen in theorie kunnen schenden indien het model de input van een gebruiker integraal hergebruikt.

​Dat betekent ook dat de betalende versie van de LLM’s uw gegevens niet gebruiken om verder op te trainen

De vrees is dus ontvankelijk, maar is zij ook gegrond?

Kort gesteld: ja, maar enkel als u de gratis versie van populaire LLM’s gebruikt. Uiteraard gaan verschillende leveranciers op verschillende manieren om met dit vraagstuk, maar de rode lijn die men kan trekken door hun aanbod is deze: betaalt u niet voor het product, dan bént u het product.

Dat betekent ook dat de betalende versie van de LLM’s uw gegevens niet gebruiken om verder op te trainen. Dit principe geldt ook voor de oplossingen die door gespecialiseerde leveranciers worden geboden (inderdaad: ook ClauseBase) en die in de achtergrond LLM’s inschakelen. Zij betalen immers voor toegang tot de LLM als een soort motor die het voertuig dat zij errond bouwen, moet aandrijven.

Werkt u met legal tech software die gebouwd is op GPT, Claude, Mistral of een van de vele fundamentele modellen, of heeft u uw eigen betalende abonnement, dan is er dus niets te vrezen. De voornaamste uitzondering op dit principe is dat de leveranciers van de LLM’s (zoals Microsoft, Google, etc.) aan zogenaamde ‘abuse monitoring’ doen. Zoekt u met behulp van een LLM dus naar recepten voor een huisgemaakte bom of naar creatieve manieren om mensen op frauduleuze wijze van hun spaarpot te verlossen, dan kan de zoektocht automatisch gemarkeerd worden voor menselijke controle door de leverancier van de LLM.

De vrees dat uw data zullen worden gebruikt voor verdere training is dus ongegrond, al zien we dat in 2025 advocaten deze vrees nog steeds gebruiken om alles dat naar AI ruikt uit de weg te gaan. Een opmerkelijke strategie en een die de komende maanden waarschijnlijk nog niet veel negatieve vruchten zal afwerpen. De vraag blijft echter hoelang advocaten AI-geletterdheid uit de weg kunnen blijven gaan.

We zien bovendien dat sommige leveranciers op deze vrees kapitaliseren door eerst vertrouwelijke gegevens te ‘anonimiseren’ voor ze naar een LLM worden verzonden. Ten eerste is dit een imperfecte oplossing: échte anonimisatie is een verduiveld hardnekkig probleem, waar zelfs veel AI nog niet sterk genoeg voor is. Ten tweede is dit een oplossing op zoek naar een probleem – de gegevens die naar een AI-tool worden doorgestuurd, worden meteen weer vergeten.

En nu?

Op basis van bovenstaande kunnen we de voornaamste onterechte angst rond AI alvast wegnemen: de advocaat wordt niet meteen vervangen.

Wat nu dan? Opgelucht ademhalen en terug naar de status quo?

Dat is geen houdbare langetermijnstrategie. De doos van Pandora is geopend; de geest is uit de fles. Zelfs als de technologie op geen enkele manier meer verbetert, is haar impact gemaakt. Cliënten weten wat de mogelijkheden zijn en zullen navenante efficiëntie- en kwaliteitsverbeteringen van hun advocaten verwachten. Zelfs als generatieve AI hun juridische documenten niet kan schrijven, heeft deze technologie immers het aanmaken van ernstig luidende juridische documenten bijna gratis gemaakt.

​Er is maar één vereiste: experimenteren. U kent de noden van uw kantoor en de uitdagingen van uw cliënt het beste

Juristen hebben lang gewacht met het omarmen van informatica-hulpmiddelen omdat die hulpmiddelen niet zo goed konden omgaan met hun vakgereedschap, taal en woorden. Eindelijk is er nu een hulpmiddel dat daar wél vrij goed mee om kan.

Er is maar één vereiste: experimenteren. U kent de noden van uw kantoor en de uitdagingen van uw cliënt het beste. Aan u om af te toetsen waar AI een nuttig hulpmiddel kan zijn en waar uw menselijke toets onmisbaar is.

Maarten Truyens en Senne Mennes, Clausebase


Recente vacatures

Jurist
Ondernemingsrecht Vennootschapsrecht
2 jaar
Oost-Vlaanderen
Jurist
Ondernemingsrecht Vennootschapsrecht
0-1 jaar
Oost-Vlaanderen
Redacteur
3 - 7 jaar
Antwerpen
Coördinator opleidingen
3 - 7 jaar
Antwerpen

Aankomende events

Blijf op de hoogte

Schrijf je in voor de nieuwsbrief

0 Reacties

0 reacties

Een reactie versturen

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *