De afgelopen maanden wordt binnen Justitie steeds nadrukkelijker geëxperimenteerd met artificiële intelligentie. Tools zoals Microsoft Copilot worden actief gepromoot als hulpmiddel om sneller te werken, teksten samen te vatten, documenten te structureren en zelfs om ontwerpbeslissingen te ondersteunen. De belofte is aantrekkelijk: minder administratieve last, meer efficiëntie, meer tijd voor het echte juridische werk.
Toch verdient deze evolutie meer dan vrijblijvende nieuwsgierigheid. Het gebruik van commerciële AI‑systemen binnen de rechterlijke macht roept fundamentele vragen op over onafhankelijkheid, vertrouwelijkheid, verantwoordelijkheid en rechtsstatelijke voorzichtigheid. Die vragen zijn niet technisch van aard, maar juridisch, institutioneel en ethisch. En precies daarom mogen zij niet worden weggewuifd met algemene geruststellingen of vage verwijzingen naar “voldoende waarborgen”.
AI‑toepassingen zoals Copilot zijn geen neutrale tekstverwerkers. Zij vormen een actieve verwerkingslaag bovenop bestaande digitale omgevingen. Alles wat een gebruiker invoert, raadpleegt of waartoe hij toegang heeft, kan door het systeem worden geanalyseerd, gecombineerd en verwerkt om nieuwe output te genereren. In een gerechtelijke context betekent dat concreet dat ontwerpvonnissen, interne nota’s, denkpistes, persoonsgegevens en dossierfragmenten technisch worden verwerkt door een extern systeem dat eigendom is van een private onderneming.
De cruciale vraag is niet of Microsoft belooft zorgvuldig om te gaan met data, maar of Justitie effectief kan controleren en afdwingen dat die belofte ook onder alle omstandigheden wordt nageleefd
Vaak wordt daarbij verwezen naar het begrip ‘enterprise data protection’. Dat klinkt geruststellend, maar het is geen juridisch anker. Het gaat om een contractueel en technisch kader dat door de leverancier zelf wordt gedefinieerd. Het is geen wettelijk begrip en biedt op zichzelf geen afdwingbare garantie. De cruciale vraag is niet of Microsoft (Copilot) belooft zorgvuldig om te gaan met data, maar of Justitie effectief kan controleren, auditen en afdwingen dat die belofte ook onder alle omstandigheden wordt nageleefd.
Daar wringt het schoentje. Microsoft is een Amerikaans bedrijf, onderworpen aan Amerikaanse wetgeving. Dat betekent dat, ongeacht waar data fysiek worden opgeslagen, Amerikaanse overheidsinstanties in bepaalde omstandigheden toegang kunnen vorderen. Wetgeving zoals de CLOUD Act of FISA 702 maakt die extraterritoriale toegang mogelijk. De vraag is dan niet of die toegang vandaag waarschijnlijk is, maar of zij principieel kan worden uitgesloten. Zolang dat niet het geval is, blijft een structureel risico bestaan voor de vertrouwelijkheid van justitiële gegevens.
In het Europese gegevensbeschermingsrecht is dat geen detail. Sinds het Schrems II‑arrest volstaat het niet meer om te verwijzen naar contractuele clausules of interne beleidsdocumenten. Er moet worden aangetoond dat doorgiften naar derde landen daadwerkelijk worden verhinderd, of dat er aanvullende technische en juridische waarborgen bestaan die het risico neutraliseren. Voor zover bekend is er voor het gebruik van Copilot binnen justitie geen specifieke transfer impact assessment uitgevoerd, laat staan publiek gemaakt.
Daar komt bij dat het onduidelijk is wie toezicht houdt op de naleving van die waarborgen. Bestaat er een logboek dat registreert wie wanneer toegang heeft tot welke gegevens? Heeft Justitie daar inzage in? Kan zij onafhankelijk controleren of het systeem correct functioneert? En wat gebeurt er bij een inbreuk? Zonder duidelijke antwoorden op die vragen blijft ‘bescherming’ een kwestie van vertrouwen, niet van rechtsstatelijke controle.
Naast gegevensbescherming is er een inhoudelijk risico dat vaak wordt onderschat. AI‑modellen zoals Copilot zijn niet getraind op Belgisch recht, maar op grote hoeveelheden voornamelijk Anglo‑Amerikaanse data. Zij reproduceren juridische denkpatronen, terminologie en assumpties die niet noodzakelijk aansluiten bij onze rechtsorde. De gegenereerde teksten kunnen vlot, coherent en overtuigend klinken, maar dat maakt ze niet correct, neutraal of geschikt voor toepassing in een Belgische context.
Het gebruik kan leiden tot het bevestigen van foutieve redeneringen, het gladstrijken van twijfel of het versterken van bestaande overtuigingen
Bovendien hebben deze systemen een inherente neiging om de gebruiker te bevestigen. Zij zijn ontworpen om behulpzaam te zijn, om aan te sluiten bij de vraagstelling en om plausibele antwoorden te genereren. Dat kan leiden tot het bevestigen van foutieve redeneringen, het gladstrijken van twijfel of het versterken van bestaande overtuigingen. In een beroepsgroep die traditioneel veel gewicht hecht aan autoriteit, overtuigingskracht en formulering, is dat geen onschuldig effect.
Daarmee raakt het debat aan de kern van de rechterlijke functie. Rechtspraak vergt onafhankelijkheid, reflectie en verantwoordelijkheid. Die verantwoordelijkheid kan niet worden uitbesteed aan een algoritme, noch worden geneutraliseerd door te verwijzen naar het feit dat een tool ‘beschikbaar’ of ‘toegelaten’ is. Elke magistraat blijft steeds persoonlijk verantwoordelijk voor de wijze waarop hij of zij tot een beslissing komt. Dit betekent dat hij of zij altijd de eindverantwoordelijkheid draagt voor het gebruik van generatieve artificiële intelligentie en de gevolgen daarvan. Die verantwoordelijkheid kan de rechter nooit op iemand anders afwentellen.
Opvallend is dat deze technologische evolutie zich voltrekt zonder een duidelijk, transparant en publiek debat over de randvoorwaarden. Er bestaat geen uitgewerkt kader dat afbakent wat wel en niet kan, geen duidelijke richtlijnen over toegelaten use‑cases, geen specifieke gedragscode voor magistraten en geen geïntegreerde risicoanalyse die rekening houdt met de bijzondere gevoeligheid van justitiële gegevens. Dat gebrek aan voorzorg staat in schril contrast met de voorbeeldfunctie die van Justitie mag worden verwacht.
Dit is geen oproep tot technologische stilstand. Artificiële intelligentie kan, mits zorgvuldige omkadering, nuttige toepassingen hebben, bijvoorbeeld bij administratieve taken of bij het ontsluiten van openbare informatie. Maar net omdat de inzet zo hoog is, verdient Justitie een doordacht, onafhankelijk en juridisch onderbouwd kader vóór grootschalige implementatie. Voorzichtigheid is hier geen conservatisme, maar een uitdrukking van rechtsstatelijke verantwoordelijkheid.
De vraag is uiteindelijk niet of Justitie efficiënter kan werken met AI, maar of zij dat kan doen zonder haar kernwaarden te ondergraven. Zolang die vraag niet helder en transparant wordt beantwoord, is terughoudendheid geen luxe, maar een plicht.
Pierre Thiriar


0 reacties