Begin december 2025 publiceerde de Nederlandse Orde van Advocaten (NOvA) aanbevelingen voor het gebruik van AI in de advocatuur.[1] In België publiceerden de Orde van Vlaamse Balies (OVB) en de Ordre des Barreaux Francophones et Germanophone de Belgique (OBFG) hun richtlijnen voor advocaten voor het gebruik van artificiële intelligentie reeds in januari 2025.[2]
De aanbevelingen van de NOvA zijn onderverdeeld in thema's over deskundigheid, vertrouwelijkheid, onafhankelijkheid, integriteit en partijdigheid. Per thema worden één of meerdere aanbevelingen gedeeld. De aanbevelingen worden vervolgens aangevuld met een lijst van veelgestelde vragen en antwoorden (FAQ) en een overzicht van enkele basisbegrippen (bijv. hallucinaties, sycofant gedrag en prompts).[3]
Gelijkenissen in grote lijnen
De belangrijkste gelijkenissen tussen beide documenten kunnen kort worden samengevat. Drie gelijkenissen vallen op:
- Er worden aanbevelingen geformuleerd, maar geen verplichtingen opgelegd.
- AI-geletterdheid is belangrijk.
- De advocaat blijft altijd de eindverantwoordelijke.
Niet afdwingbaar
Noch de aanbevelingen van de NOvA, noch de richtlijnen van de OVB/OBFG zijn geformuleerd als direct afdwingbare principes. Wel sluiten beide documenten aan bij de deontologische regels waaraan advocaten zich moeten houden. Ook de richtlijnen voor het gebruik van AI vertrekken van voor de advocatuur (deontologische) kernwaarden waaronder onafhankelijkheid, beroepsgeheim en partijdigheid.
AI-geletterdheid
Inhoudelijk stellen zowel de Belgische als de Nederlandse ordes vooreerst dat advocaten een minimumniveau aan kennis van artificiële intelligentie (AI) moeten hebben.[4] Erg verrassend is dat niet. Het pleidooi om AI-geletterdheid te verzekeren vinden we terug in brede maatschappelijke debatten, aanbevelingen zoals deze van de Deskundigengroep op hoog niveau inzake artificiële intelligentie[5] en kaders zoals de Europese Verordening Artificiële Intelligentie (AI-verordening)[6] of de Framework Convention on Artificial Intelligence van de Raad van Europa[7].
De NOvA aanbevelingen zijn op dit vlak wel gedetailleerder dan de Belgische richtlijnen. De NOvA adviseert om eveneens te investeren in kennis over GenAI door onder meer opleidingen te volgen over (generatieve) AI, LLM-principes, prompt-engineering, bias-mitigatie, hallucinaties, foutdetectie, juridisch relevante regelgeving en cybersecurity.
De eindverantwoordelijkheid ligt bij de advocaat
In beide documenten wordt de (eind)verantwoordelijkheid van de advocaat benadrukt. Niet alleen moet de advocaat de output van de AI-tool controleren, de advocaat is ook verantwoordelijk voor het grondig doornemen van de gebruiksvoorwaarden van elke AI-toepassing die hij of zij wenst te gebruiken. Ook dit principe hoeft uiteraard niet te verbazen. Uiteindelijk is een op AI gebaseerde softwaretoepassing, net als elke andere softwaretoepassing, slechts een middel dat gebruikt kan worden om tot een gewenst resultaat te komen. De keuze om én de beslissing over hoe dat middel ingezet wordt ligt evident bij de advocaat, maar die keuzes op zich doen de verantwoordelijkheid over het eindresultaat niet verschuiven.
Daarnaast moeten advocaten de gebruiksvoorwaarden van AI-toepassingen grondig doornemen vooraleer ze te gebruiken. Tot slot wordt er in beide richtlijnen aangegeven dat er bezorgdheid bestaat rond de invoer van vertrouwelijke en persoonsgegevens in bepaalde AI-toepassingen.
Verschillen in toepassing
Ondanks de gemeenschappelijke basis zijn er toch ook een aantal opmerkelijke verschillen terug te vinden. Op drie vlakken trekken de verschillen de aandacht:
- Transparantie over het gebruik van AI naar de cliënt toe.
- Gebruiksafspraken binnen een advocatenkantoor.
- Het voeden van vertrouwelijke gegevens aan AI-tools.
Hieronder worden de verschillen op deze drie vlakken uitgelicht.
Transparantie over het gebruik van AI
In beide documenten wordt ingegaan op de vraag of de advocaat de cliënt moet inlichten over het gebruik van AI-tools. De Belgische ordes stellen expliciet dat de advocaat niet verplicht is om te communiceren over het gebruik van AI. De Belgische ordes maken de vergelijking met andere IT-toepassingen. Ook t.a.v. de keuze van andere IT-toepassingen bestaat er geen verwachting dat de advocaat zou communiceren of verantwoorden waarom een bepaalde toepassing gebruikt werd en waarom deze wel of niet geschikt is. Wanneer er persoonsgegevens verwerkt worden door “prompts, input en/of andere documenten” te voeden aan een AI-toepassing, dan vereisen de Belgische ordes dat de advocaat wél transparant is en toestemming vraagt aan de betrokken persoon, behoudens in het geval er een andere rechtsgrond dan toestemming aanwezig is. De vereiste transparantie wordt in dit geval een eventuele uitzondering op het principieel verbod om ‘gevoelige’ gegevens te verwerken.[8] De verantwoordelijkheid om de meest geschikte rechtsgrond aan te duiden ligt bij de advocaat en kan uiteraard verschillen per type van verwerking, maar de vraag moet gesteld worden of en in hoeverre software met AI in dit opzicht verschilt van software zonder AI.
Anders dan de Belgische richtlijnen, beveelt de NOvA aan dat advocaten altijd toestemming vragen aan hun cliënt voor het gebruik van AI in een dossier. De NOvA beschouwt het vragen van de toestemming van de cliënt als een ‘privacy-by-design’-maatregel, maar legt geen expliciete link met de rechtsgrond voor de gegevensverwerking zoals de Belgische richtlijnen dat doen. De vraag rijst dan ook of de NOvA doelt op een AVG-conforme toestemming en of deze aanbeveling enkel van toepassing is wanneer de persoonsgegevens van particuliere cliënten worden verwerkt.
Daarnaast is het opvallend dat de FAQ die de NOvA aanbiedt deze aanbeveling lijkt af te zwakken.[9] Immers, in punt 3.b. wordt gesteld dat er in principe geen sprake is van een algemene meldplicht van AI-gebruik, maar dat deze plicht kan ontstaan in het geval van een datalek.
Hoewel de draagwijdte van deze aanbeveling om toestemming te vragen niet geheel duidelijk is, kan hier wel uit worden afgeleid dat de insteek tussen de Belgische ordes en de Nederlandse orde verschilt. De Nederlandse aanbevelingen lijken de toestemming van de cliënt als uitgangspunt te nemen. Door de toestemming te vragen, creëert men per definitie transparantie voor de cliënt. In België is toestemming noch transparantie bestempeld als uitgangspunt, behoudens bij de verwerking van persoonsgegevens.
Een interessant hierbij aansluitend gegeven is dat de Belgische richtlijnen wel al lijken te anticiperen op specifieke transparantieverplichtingen die geïnstalleerd worden op basis van artikel 50 van de AI-verordening. Artikel 50, §1 van de AI-verordening installeert een transparantieverplichting die in de eerste plaats gericht is tot de aanbieders van AI-systemen die voor directe interactie met natuurlijke personen zijn bedoeld. De richtlijn van de Belgische ordes om cliënten te informeren over het gebruik van een chatbot die een geautomatiseerd AI-systeem is, doet hier erg aan denken.
De verschillen in benadering van transparantie zijn opmerkelijk, maar niet beperkt tot België en Nederland. Kijken we naar de gids voor het gebruik van generatieve AI door advocaten zoals uitgewerkt door de Council of Bars and Law Societies of Europe (CCBE), dan zien we nog een derde (tussen)vorm.[10] De CCBE stelt dat transparantie aangewezen is wanneer er redelijkerwijs kan worden aangenomen dat een goed geïnformeerde cliënt bezwaar zou maken, voorwaarden zou stellen of anderszins bedenkingen zou hebben met betrekking tot het gebruik van GenAI voor het betreffende doel.
Gebruiksafspraken binnen het advocatenkantoor
De Belgische richtlijnen bevatten geen verplichting om een AI-beleid te implementeren op het niveau van het advocatenkantoor. In België ligt de focus op de individuele verantwoordelijkheid van de advocaat.
De NOvA beveelt wel expliciet aan om een kantoorbreed AI-beleid op te stellen, toezicht te voorzien op het gebruik van AI door medewerkers en cliënten te informeren over het AI-beleid. Het AI-beleid wordt in de FAQ van de NOvA omschreven als “een set interne afspraken over het gebruik van AI binnen het kantoor, inclusief toegestane tools, verantwoordelijkheden, controlemechanismen en evaluatieprocedures”.
De NOvA beschouwt deze maatregelen als een onafhankelijkheids- en integriteitswaarborg. De implementatie van een AI-beleid zal op zich onvoldoende zijn. Interne transparantie en bewustzijn over het risico op datalekken doordat AI-tools data gebruiken buiten de gedeelde prompt, worden dan ook beschreven als aanvullende maatregelen om de integriteit van het beroep te bewaken.
Met deze aanbevelingen maakt de NOvA het verantwoord gebruik van AI een gedeelde verantwoordelijkheid voor de advocaat en het advocatenkantoor.
Voeden van vertrouwelijke gegevens aan een AI-tool
In deze context hanteren zowel de OVB/OBFG als de NOvA het beroepsgeheim als basisprincipe, maar de concrete toepassing ervan verschilt.
De Belgische richtlijnen zijn eerder summier op dit vlak. De richtlijnen stellen dat stukken of informatie die gedekt worden door het beroepsgeheim of een vertrouwelijkheidsverplichting nooit mogen worden ingevoerd in een AI-tool, tenzij er absolute zekerheid is dat de AI-tool binnen een gesloten omgeving wordt gebruikt met voldoende waarborgen. Er is geen concrete invulling voorzien voor de draagwijdte van ‘absolute zekerheid’, ‘gesloten omgeving’ en ‘waarborgen’.
Wanneer er persoonsgegevens worden ingevoerd, stellen de Belgische richtlijnen dat deze gepseudonimiseerd moeten worden. In de toelichting staat echter dat de advocaat zich moet onthouden van het invoeren van persoonsgegevens in prompts, input en andere documenten bij het gebruik van AI-tools, tenzij wanneer dit essentieel is. In het geval de verwerking van persoonsgegevens essentieel is, moet de advocaat in principe de toestemming van de betrokken persoon verkrijgen, tenzij een andere rechtsgrond aanwezig is. Het is maar de vraag of een rechtsgeldige toestemming in dit kader mogelijk is.
De aanbevelingen van de NOvA zijn op zich gelijkaardig, maar gedetailleerder én meer toegespitst op gratis tools. Zo is het in principe niet toegelaten om vertrouwelijke gegevens in te voeren in gratis tools. In de toelichting staat onder meer dat advocaten bewust moeten zijn dat hoe minder er betaald wordt voor een tool, hoe meer data er waarschijnlijk gebruikt wordt. A contrario volgt uit deze aanbeveling dat dure tools volgens de NOvA wellicht veiliger zijn dan de goedkope tools. Hoewel dit aannemelijk klinkt, moeten we dit argument toch echt met een dikke korrel zout nemen. Kijkt u maar eens naar de verschillende door Google aangeboden pakketten. De ‘kostprijs’ op zichzelf biedt u geen bescherming. Het grootste onderscheid zit in het type van account waarmee u werkt. Een consument die betaalt, betaalt voor snelheid, niet voor privacy of confidentialiteit. Enkel indien u een professioneel account aankoopt krijgt u bijkomende garanties op het gebied van confidentialiteit.[11]
Daarnaast mogen vertrouwelijke en cliëntgegevens niet verwerkt worden in publieke AI-modellen volgens de NOvA. Het is niet duidelijk wat er concreet wordt bedoeld met publieke modellen en hoe het verschil met de aanbeveling rond ‘gratis tools’ moet worden begrepen, maar in de FAQ wordt verwezen naar ChatGPT bij wijze van voorbeeld. De FAQ nuanceert deze aanbeveling overigens en stelt dat vertrouwelijke gegevens kunnen gedeeld worden met AI-tools zoals ChatGPT wanneer er stevige contractuele waarborgen zijn of bij gebruik van on-premise oplossingen. Tot slot mogen advocaten enkel strikt noodzakelijke informatie delen met de AI-tool.
Gelijke doelstelling, verschillende invulling
Samenvattend beogen de respectievelijke ordes met deze documenten een concrete invulling te geven aan de geldende (deontologische) kernwaarden voor advocaten. De invulling van deze principes verschilt echter op essentiële punten waar men eigenlijk toch enige eensgezindheid mag verwachten.
Mr. Matthias Vandamme, assistent UGent en advocaat balie Antwerpen
Prof. Dr. Griet Verhenneman, professor UGent
Voetnoten
[1] NOvA, Aanbevelingen AI in de advocatuur, december 2025.
[2] OVB, Richtlijnen voor advocaten voor het gebruik van Artificiële Intelligentie, januari 2025.
[3] NOvA, AI in de advocatuur: basisbegrippen en veelgestelde vragen, januari 2025.
[4] De ordes geven niet aan wanneer er aan dit minimumniveau is voldaan. Daarnaast verschillen de beschrijvingen van AI.
[5] DESKUNDIGENGROEP OP HOOF NIVEAU INZAKE ARTIFICIËLE INTELLIGENTIE, Policy and investment recommendations for trustworthy AI, 26 juni 2019.
[6] Verordening (EU) 2024/1689 van het Europees Parlement en de Raad van 13 juni 2024 tot vaststelling van geharmoniseerde regels betreffende artificiële intelligentie en tot wijziging van de Verordeningen (EG) nr. 300/2008, (EU) nr. 167/2013, (EU) nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 en (EU) 2019/2144, en de Richtlijnen 2014/90/EU, (EU) 2016/797 en (EU) 2020/1828 (verordening artificiële intelligentie).
[7] Raad van Europa, 5 september 2024, Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law (CETS No. 225).
[8] Cumulatieve toepassing van artikel 6 en artikel 9 AVG.
[9] NOvA, AI in de advocatuur: basisbegrippen en veelgestelde vragen, december 2025, 2. Zie vraag 3.b.: “Ben ik verplicht AI-gebruik te melden aan mijn cliënt?” met als antwoord: “In geval van een datalek kan er een meldplicht zijn (zie Gedragsregel 16 en de AVG).”.
[10] CCBE, CCBE guide on the use of generative AI by lawyers, oktober 2025.
[11] Vergelijking tussen algemene privacyvoorwaarden Google One AI Premium abonnement en Gemini voor Google Workspace, op datum van schrijven van deze blog.



0 reacties