De adoptie van AI versnelt zichtbaar in de Belgische advocatuur. Volgens het Benchmarkrapport Advocatuur 2026 voor België van Wolters Kluwer gebruikt 55,2% van de respondenten vandaag actief AI-tools in de praktijk. Bij wie AI inzet, gaat het vooral om breed inzetbare tools zoals ChatGPT (89,2%) en juridische onderzoeksplatformen.
Die cijfers maken één ding duidelijk: AI is geen randfenomeen meer, maar een werkinstrument dat in steeds meer dossiers meespeelt. Tegelijk komt AI ook van de andere kant. Cliënten sturen een ontwerpovereenkomst “gemaakt met AI”, of een brief die ze zelf hebben laten opstellen, met de vraag om die na te lezen en bij te sturen. Dat verandert de klassieke verhouding: niet alleen de advocaat gebruikt nieuwe middelen, ook de cliënt doet dat. Dat maakt de vraag onvermijdelijk: hoe ga je als advocaat om met transparantie over AI-gebruik tegenover je cliënt? Informeer je cliënten proactief dat je zelf met AI werkt? Of laat je het pas ter sprake komen wanneer de cliënt er expliciet naar vraagt?
Die keuze is minder triviaal dan ze lijkt. Te weinig zeggen kan later wantrouwen creëren. Te veel zeggen kan onnodige discussies openen over ‘de meerwaarde van de advocaat’ en vooral over prijs en uurtarieven, terwijl het eigenlijk gaat over vertrouwelijkheid, controle en eindverantwoordelijkheid. Het debat gaat dus niet over de vraag óf AI een rol speelt, maar over de vraag hoe je er als kantoor verstandig over communiceert, zeker nu cliënten zelf steeds vaker met AI-teksten aan de deur staan.
Wat zegt de deontologie over transparantie rond AI?
De OVB-richtlijnen vertrekken van het uitgangspunt dat er geen algemene plicht om aan een cliënt te melden dat je AI gebruikt, behalve wanneer gebruik wordt gemaakt van een publiek toegankelijke AI-tool (zoals de gratis versie van ChatGPT). In dat geval moet je de cliënt correct informeren en zorgen dat je daarvoor ‘informed consent’ hebt.
Transparantie als troef: waarom het soms zinvol is om AI wél te benoemen
In de praktijk is zwijgen vaak de standaard, maar er zijn goede redenen om AI-gebruik toch proactief te benoemen. Niet omdat een cliënt nood heeft aan een technisch verslag van de interne werkwijze, wel omdat transparantie het vertrouwen kan versterken op precies die punten waar cliënten vandaag gevoelig voor zijn: discretie, voorspelbaarheid, kwaliteit en waarde. Bovendien verandert het gesprek over AI snel: wat vroeger als ‘experiment’ werd gezien, wordt steeds vaker verondersteld als onderdeel van moderne dienstverlening. Een kantoor dat daar bewust en helder over communiceert, vermijdt misverstanden en bepaalt zelf de context waarbinnen AI een rol speelt:
- Verduidelijking van de impact van de advocaat. Cliënten zien sneller conceptteksten verschijnen, krijgen sneller een eerste stand van zaken en horen steeds vaker dat “AI dit toch snel kan”. Zonder kader ontstaat dan al snel een verkeerde conclusie: als iets sneller gaat, is het per definitie minder diepgaand of minder waardevol. Een korte duiding kan dat corrigeren. AI kan helpen om sneller structuur te brengen, alternatieven te inventariseren of inconsequenties te signaleren, maar het eigenlijke juridische werk ligt in de toetsing, de risico-inschatting en het kiezen van een verdedigbare aanpak. Transparantie is in die zin ook verwachtingsmanagement: snelheid betekent niet ‘automatisch’, maar ‘efficiënt en gecontroleerd’.
- AI-cliënt. Cliënten leveren steeds vaker een AI-draft aan en vragen om “even te valideren”. Dat lijkt eenvoudig, maar zet de verhouding op scherp: de cliënt denkt een bijna-af product binnen te brengen, terwijl een advocaat vooral risico’s ziet die niet zichtbaar zijn in de taal. Net in die context is proactieve transparantie nuttig: het maakt duidelijk wat een juridische review werkelijk inhoudt. Het gaat niet om stijl of grammatica, maar om definities, samenhang met bijlagen, interne tegenstrijdigheden, afdwingbaarheid, bewijspositie, interpretatierisico’s en de praktische uitvoerbaarheid van wat er op papier staat. Door te benoemen dat AI intern wordt ingezet als hulpmiddel voor structuur en kwaliteitschecks, wordt ook zichtbaar dat het kantoor niet ‘achterloopt’ op de cliënt, maar net methodisch werkt: snel waar het kan, grondig waar het moet.
- Structureren van het prijsmodel en prijsafspraken. Zodra AI in beeld komt, verschuift voor sommige cliënten automatisch de focus naar uurtarieven: “als het sneller gaat, waarom is het dan nog zoveel?” Dat is precies waarom het nuttig kan zijn om het gesprek te herpositioneren. AI gaat niet enkel over tijdwinst, maar over voorspelbaarheid: sneller naar een eerste versie, minder rework en betere controle op consistentie. Die elementen maken het makkelijker om duidelijke afspraken te maken over deliverables en scope. In die zin kan transparantie net helpen om discussies over uurtarieven te vermijden of te ontmijnen: de cliënt begrijpt beter wat precies geleverd wordt (analyse, risico-inschatting, keuze van strategie), welke stappen daarbij horen en waarom de kern van de prestatie niet samenvalt met ‘typen’.
- Vertrouwenssignaal in gevoelige dossiers. Bij ondernemingen met compliance-eisen of bij dossiers met bijzondere discretie is de vraag niet of AI ‘handig’ is, maar of het veilig is. In die situaties is een korte, niet-technische duiding vaak geruststellend: dat het kantoor input beperkt tot wat noodzakelijk is, dat vertrouwelijke informatie niet zomaar in willekeurige systemen terechtkomt en dat er duidelijke interne grenzen bestaan. Het gaat daarbij minder om de details van de technologie en meer om het signaal dat het kantoor bewust omgaat met informatie en risico’s. De cliënt hoeft niet te weten hoe het systeem werkt, wel dat het kantoor het gebruik beheerst.
- Reputatie en professionaliteit. Naarmate AI normaler wordt, ontstaat er een nieuw kwaliteitscriterium: niet “gebruikt een kantoor AI of niet?”, maar “heeft het kantoor een doordachte aanpak?”. Proactief benoemen kan dan een manier zijn om professionaliteit uit te stralen, zeker bij nieuwe cliënten of bij intake: AI wordt niet gebruikt als gadget, maar als onderdeel van een gecontroleerde werkwijze. Dat is ook intern relevant: wanneer een kantoor extern communiceert over AI, dwingt het zichzelf om de werkwijze scherp te houden en om consistentie tussen medewerkers te bewaken.
De kern is dat proactieve communicatie vooral nuttig is wanneer zij de cliënt helpt om de dienstverlening correct te begrijpen. Transparantie is dan geen plicht en geen marketing, maar een instrument om het gesprek op het juiste spoor te houden: vertrouwen, kwaliteit, voorspelbaarheid en waarde.
Transparantie naar buiten vraagt afspraken naar binnen
Geloofwaardig communiceren over AI kan alleen als het kantoor intern weet wat het doet. Transparantie is geen losse zin op een website of in een opdrachtbevestiging, maar het gevolg van een werkmethode die binnen het kantoor gedragen wordt. Zodra cliënten vragen stellen over AI, wordt meteen duidelijk of er een lijn bestaat: wat wordt wel gebruikt, wat niet, en welke controles daarbij horen.
AI werkt pas echt goed wanneer het kantoor het gebruik op een consistente manier organiseert. Als elke medewerker zijn eigen tools, instellingen en werkwijze hanteert, kan de snelheid wel toenemen, maar verdwijnt de voorspelbaarheid. Dan ontstaan stijlverschillen, wisselende kwaliteit en vooral een moeilijker controleerbaar dossierverloop. In dat scenario wordt het bijna onmogelijk om extern helder te communiceren, omdat ‘AI-gebruik’ geen uniforme praktijk meer is, maar een verzameling individuele keuzes.
Daarom is een minimale kantoorpolicy essentieel. Niet zwaar of bureaucratisch, wel praktisch: welke toepassingen zijn toegestaan, welke types informatie mogen erin, hoe wordt output gecontroleerd en hoe wordt het resultaat in het dossier gedocumenteerd. Die afspraken zijn niet alleen bedoeld om risico’s te beperken, maar ook om de cliëntrelatie te beschermen. Want externe transparantie werkt alleen als ze overeenstemt met de realiteit van de interne werking. Wanneer die twee uit elkaar lopen, ontstaat precies het probleem dat transparantie eigenlijk wil vermijden: onduidelijkheid, discussie en verlies aan vertrouwen.
Slot
De vraag “moeten we proactief zeggen dat we AI gebruiken?” is vaak een proxy voor iets anders: hoe houd je vertrouwen hoog in een praktijk die sneller en technologischer wordt. Transparantie is daarbij geen marketingpunt en ook geen rituele disclaimer. Het is professioneel verwachtingsbeheer, afgestemd op wat voor de cliënt relevant is.
Wie dat goed organiseert, wint dubbel: cliënten begrijpen beter wat ze kopen en het kantoor vermijdt discussies achteraf.




0 reacties