Les nouvelles armes du fisc européen : quels risques pour les contribuables ? cover

22 jun 2023 | Actualia, Expertise

Zal de toekomstige AI-richtlijn een succesverhaal worden in België?

Recente vacatures

Jurist
bestuursrecht internationaal recht Omgevingsrecht Publiek recht sociaal recht
Brussel
Advocaat
Ondernemingsrecht
3 - 7 jaar
Limburg
Paralegal
Vastgoed
0 - 3 jaar
West-Vlaanderen

Aankomende events

Sinds ChatGPT en de vele recente open brieven – die soms onnodig angst lijken te creëren – is artificiële intelligentie (AI) niet meer uit ons leven weg te denken. Het toenemende gebruik van AI voor verschillende doeleinden en in diverse sectoren doet veel vragen rijen waarop regelgeving en beleid een gepast antwoord moeten bieden. De zogenaamde Europese AI Act is daarvan een mooi voorbeeld. Vorige week was ze erg aanwezig in de media, omdat er over gestemd werd in het Europees Parlement. Ze is voorlopig echter nog niet van kracht. De AI Act hanteert een risico-gebaseerde benadering en verbiedt het gebruik van bepaalde AI-systemen. Daarnaast reguleert ze ook hoge-risico AI-systemen door die te onderworpen aan specifieke vereisten, zoals menselijk toezicht, transparantie of documentatieverplichtingen. Voor bepaalde AI-systemen – zoals chatbots of generatieve AI – zullen eveneens bijkomende transparantieverplichtingen gelden. De bedoeling van de AI Act is om de veiligheidsrisico’s van AI te reduceren, en de ontwikkeling en het gebruik van betrouwbare AI te verzekeren.

Op 28 september 2022 publiceerde de Europese Commissie (EC) echter een voorstel van een richtlijn die voor de eerste keer een gerichte harmonisatie van het nationale aansprakelijkheidsrecht voor AI met zich meebrengt. In tegenstelling tot de AI Act, probeert de richtlijn schade door AI-systemen dus niet te voorkomen, maar te genezen. Het voorstel bevat twee belangrijk onderdelen. Enerzijds wordt er onder bepaalde omstandigheden voorzien in een openbaarmaking (disclosure) van documenten door de aanbieder van een AIsysteem. Anderzijds wordt een vermoeden van causaliteit ingevoerd tussen de fout van een persoon en de output die diens AI-systeem genereerde, of net niét genereerde. Het voorstel komt met deze bepalingen tegemoet aan een aantal bezwaren/pijnpunten betreffende de zwakke positie van slachtoffers van AI-systemen. Het is een goede zaak dat er aandacht wordt besteed aan het belang van aansprakelijkheid in een AI-context. Toch is de richtlijn betreffende AI aansprakelijkheid problematisch vanuit verschillende perspectieven. Zo zal het implementatieproces van de richtlijn in ons Belgische aansprakelijkheidsrecht geen sinecure zijn. We bespreken hier kort een aantal van de moeilijkheden.

Ten eerste worden heel wat begrippen gebruikt die verdere verduidelijking en interpretatie vereisen. Denk aan de termen ‘zorgvuldigheidsplicht’, ‘noodzakelijk’ en ‘evenredig’. Deze concepten kunnen een verschillende invulling krijgen in de EU-Lidstaten wanneer ze omgezet worden door de nationale wetgevers en vervolgens geïnterpreteerd worden door nationale rechters.

Ten tweede vertrekt/gebruikt de richtlijn bepaalde concepten die in ons Belgische aansprakelijkheidsrecht niet bestaan, aan discussie onderhevig zijn, of anders worden ingevuld. Kortom, een afwijkend begrippenkader maakt de implementatie van de richtlijn uitdagend. Denk aan het begrip ‘zorgvuldigheidsplicht’. Dat kennen wij niet. We kennen daarentegen wel de ‘zorgvuldigheidsnorm’ en ‘de schending van een specifieke gedragsnorm’. De richtlijn lijkt bovendien uit te gaan van de relativiteitsleer, maar die leer wordt in ons recht haast unaniem verworpen. Daarnaast geeft de richtlijn een eigenzinnige invulling aan het schadebegrip die moeilijk te verenigen lijkt met onze definitie van schade als ‘aantasting van een belang’.

Ten derde is het onzeker of de voorgestelde antwoorden in de richtlijn effectief tegemoetkomen aan de ‘zwakkere’ positie van slachtoffers. Het openbaar maken van informatie over een AI-systeem waarborgt bijvoorbeeld niet per definitie dat slachtoffers deze informatie begrijpen, en er iets mee kunnen doen. Het is dus helemaal niet zo zeker dat deze openbaarmaking de bewijslast van slachtoffers van AI-systemen op een effectieve wijze verlicht. Daarnaast zijn de voorwaarden waaronder het vermoeden van causaliteit geldt zodanig streng dat het onwaarschijnlijk is dat het succesvol kan worden ingeroepen. Een slachtoffer zal bijvoorbeeld nog steeds de ‘fout’ van een aanbieder moeten aantonen, wat in de praktijk verre van evident is.

Het blijft dus onzeker welke impact de richtlijn zal hebben op de situatie waarin personen schade lijden door AI-systemen en hoe compatibel ze is met het Belgische aansprakelijkheidsrecht. Hoewel ze veel problemen wil oplossen, lijkt het er vooral op dat de richtlijn veel problemen zal creëren. Wat moet er volgens ons dan gebeuren om schade door AI-systemen adequaat aan te pakken? Een aantal zaken.

Ten eerste moet er worden gezorgd voor een gericht ingrijpen in het juridische kader. De leemtes die reeds werden geïdentificeerd in de rechtsleer moeten een concreet antwoord krijgen. De vraag is of harmonisatie van (een deel van) de foutaansprakelijkheid daar wel het meest geschikte middel toe is, gezien de sterke nationale verankering ervan. Volgens ons zorgt dat voor meer rechtsónzekerheid, dan rechtszekerheid. Dat ligt anders voor bijvoorbeeld productaansprakelijkheid. Dat is een aansprakelijkheidsgrond die zijn bestaan te danken heeft aan het Europees recht. In dit verband is de herziening van de Richtlijn Productaansprakelijkheid een stap in de goede richting. De kwalificatie van software als product is bijvoorbeeld lange tijd onzeker geweest, maar wordt nu toch duidelijk: software is een product onder de productaansprakelijkheid, althans in het voorstel.

Ten tweede moet in België de denkoefening worden gemaakt of het toekomstige, nieuwe boek 6 van ons Burgerlijk Wetboek helemaal futurproof is en aangepast is aan de AI-realiteit. In het 200 pagina’s tellende huidige voorstel en de toelichting ervan is geen enkel woord gewijd aan AI. Toch zijn een aantal nieuwigheden relevant in het licht van AI. In de nieuwe concipiëring van de vereiste van een causaal verband (artikel 6.19) wordt in een aantal uitzonderingen voorzien op de equivalentieleer. Zo is er geen aansprakelijkheid indien het verband tussen het tot aansprakelijkheid leidende feit en de schade dermate verwijderd is dat het kennelijk onredelijk zou zijn de schade toe te rekenen aan de persoon die wordt aangesproken. Bij deze beoordeling wordt in het bijzonder rekening gehouden met het onvoorzienbare karakter van de schade. Rechtvaardigt schade veroorzaakt door een AI-systeem zo’n uitzondering? Dit is slechts een van de vele vragen die rijzen in verband met de toepasbaarheid van het nieuwe boek 6 op schade veroorzaakt door AI-systemen. Door een dergelijke analyse kunnen leemtes worden vastgesteld, en vervolgens geremedieerd.

Ten derde blijft interdisciplinariteit van groot belang. Wetgeving rond aansprakelijkheid en AI kan niet alleen door juristen worden gemaakt. Zo heeft een jurist een andere invulling van ‘gebrekkige’ AI dan een AI-ontwikkelaar. Informatici, ethici en juristen moeten samenwerking om tot een evenwichtige en effectieve regulering van AI te komen. Tot slot zou de piste van het toekennen van rechtspersoonlijkheid aan AI opnieuw onder de aandacht moeten worden gebracht. De recente ontwikkelingen tonen aan dat AI razendsnel, en soms onvoorspelbaar, evolueert. Daarom moet men durven creatief nadenken over oplossingen.

Victor Schollaert, doctoraatsonderzoek Antwerp Liability Law and Insurance Chair, Universiteit Antwerpen
Jan De Bruyne, onderzoeksexpert AI en recht KU Leuven Centre for IT & IP Law (CiTiP); senior onderzoek Kenniscentrum Data & Maatschappij; Universitair docent eLaw, Leiden

Recente vacatures

Jurist
bestuursrecht internationaal recht Omgevingsrecht Publiek recht sociaal recht
Brussel
Advocaat
Ondernemingsrecht
3 - 7 jaar
Limburg
Paralegal
Vastgoed
0 - 3 jaar
West-Vlaanderen

Aankomende events

Blijf op de hoogte

Schrijf je in voor de nieuwsbrief

0 Reacties

0 reacties

Een reactie versturen

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.