CICERO LawPack

CICERO LawPack is al meer dan 30 jaar gespecialiseerd in software voor advocaten, onder meer door een zeer persoonlijke aanpak en de voortdurende verbeteringen en de ontwikkeling van nieuwe toepassingen die uw werk gemakkelijker en efficiënter maken.

In eerdere artikelen hebben we geduid hoe kunstmatige intelligentie bevooroordeeld blijkt en hoe dit probleem hardnekkig blijft bestaan. Nu artificiële intelligentie (AI) steeds meer ingang vindt, levert dit meerdere ethische problemen op. De vraag werd gesteld of de industrie kan worden vertrouwd om zichzelf te reguleren, dan wel of wettelijke kaders nodig zijn. In dit artikel verkent Cicero Lawpack de huidige initiatieven voor de regulering van kunstmatige intelligentie. Initiatieven binnen de industrie tot regulering van kunstmatige intelligentie krijgen aandacht net als de pogingen om een wettelijke kader voor artificiële intelligentie te creëren. Maar eerst en vooral: waarom is regulering nodig of wenselijk?

Waarom is regulering van artificiële intelligentie nodig?

Vorig jaar publiceerde de Raad van Europa een document waarin zij concludeerde dat een juridisch kader nodig was omdat er inhoudelijke en procedurele lacunes waren. Ook UNESCO heeft in haar Aanbeveling over de Ethiek van Kunstmatige Intelligentie (Recommendation on Ethics in Artificial Intelligence) een aantal belangrijke punten opgesomd. Ook de Mozilla Foundation noemt in haar Witboek over Betrouwbare AI (White Paper on Trustworthy AI) een reeks belangrijke uitdagingen die moeten worden aangepakt en die regulering wenselijk maken. Dit zijn:

  • Monopolie en centralisatie: Grootschalige AI vereist veel middelen en momenteel beschikt slechts een handvol Tech-giganten daarover. Dit heeft een verstikkend effect op innovatie en concurrentie.
  • Gegevensprivacy en -beheer: Voor de ontwikkeling van complexe AI-systemen zijn enorme hoeveelheden gegevens nodig. Veel AI-systemen die momenteel door grote technologiebedrijven worden ontwikkeld, verzamelen persoonsgegevens van mensen via invasieve technieken en vaak zonder hun medeweten of uitdrukkelijke toestemming.
  • Vooringenomenheid en discriminatie: Zoals in eerdere artikelen is besproken, berust AI op rekenmodellen, gegevens en kaders die bestaande vooroordelen weerspiegelen. Dit leidt dan weer tot bevooroordeelde of discriminerende resultaten.
  • Verantwoording en transparantie: Veel AI-systemen presenteren slechts een uitkomst zonder te kunnen uitleggen hoe die uitkomst tot stand is gekomen. Dit kan het gevolg zijn van de gebruikte algoritmen en technieken voor machinaal leren, maar het kan ook bedoeld zijn om bedrijfsgeheimen te bewaren. Transparantie is nodig om verantwoording af te leggen en validering door derden mogelijk te maken.
  • Industrie-normen: Technologiebedrijven hebben de neiging snel technologie te bouwen en in te zetten. Bijgevolg zijn veel AI-systemen ingebed in waarden en veronderstellingen die tijdens de ontwikkelingscyclus niet ter discussie of in vraag worden gesteld.
  • Uitbuiting van werknemers: Uit onderzoek blijkt dat technologiewerkers die het onzichtbare onderhoud van AI uitvoeren kwetsbaar zijn voor uitbuiting en overwerk.
  • Uitbuiting van het milieu: De hoeveelheid energie die nodig is voor AI-datamining maakt het zeer milieuonvriendelijk. De ontwikkeling van grote AI-systemen verhoogt het energieverbruik en versnelt de ontginning van natuurlijke grondstoffen.
  • Veiligheid en beveiliging: Cybercriminelen hebben AI omarmd. Zij kunnen steeds geraffineerdere aanvallen uitvoeren door AI-systemen te misbruiken.

Om al deze redenen is regulering van AI noodzakelijk. Veel grote technologiebedrijven propageren nog steeds het idee dat de industrie zelf moet overgaan tot regulering, en dat dit niet de taak is van overheden. Veel landen, en ook de EU, vinden daarentegen dat de tijd rijp is voor overheden om een wettelijk kader op te leggen om AI te reguleren.

Initiatieven binnen de industrie tot regulering van kunstmatige intelligentie

Firefox en de Mozilla Foundation

De Mozilla Foundation is een van de leiders op het gebied van het bevorderen van betrouwbare AI. Ze hebben al verschillende initiatieven gelanceerd, waaronder campagnes voor belangenbehartiging, verantwoordelijke computerwetenschappelijke uitdagingen, onderzoek, fondsen en beurzen. De stichting wijst er ook op dat "de ontwikkeling van een betrouwbaar AI-ecosysteem een grote verschuiving vereist in de normen die ten grondslag liggen aan onze huidige computeromgeving en samenleving. De veranderingen die we willen zien zijn ambitieus, maar ze zijn mogelijk." Ze zijn ervan overtuigd dat de "beste manier om dit te realiseren is om te werken als een beweging: samenwerken met burgers, bedrijven, technologen, overheden en organisaties over de hele wereld."

IBM

Ook IBM bevordert een ethische en betrouwbare AI en heeft een eigen ethische commissie opgericht. IBM vindt dat AI op de volgende principes moet worden gebaseerd:

  • Het doel van AI is de menselijke intelligentie te vergroten.
  • Gegevens en inzichten behoren toe aan de maker.
  • Technologie moet transparant en verklaarbaar zijn.

Daartoe heeft het vijf pijlers geïdentificeerd waaraan we iedere applicatie moeten toetsen:

  • Uitlegbaarheid: Een naadloze ervaring vereist niet dat de transparantie opgegeven wordt.
  • Eerlijkheid: Goed gekalibreerd kan AI mensen helpen eerlijkere keuzes te maken.
  • Robuustheid: Aangezien systemen worden ingezet om cruciale beslissingen te nemen, moet AI veilig en robuust zijn.
  • Transparantie: Transparantie versterkt het vertrouwen, en de beste manier om transparantie te bevorderen is openbaarmaking.
  • Privacy: AI-systemen moeten voorrang geven aan de privacy en de rechten van de consument op het gebied van gegevensbescherming.

Google

Google zegt dat het “ernaar streeft technologieën te creëren die belangrijke problemen oplossen en mensen helpen in hun dagelijks leven. We zijn optimistisch over het ongelooflijke potentieel van AI en andere geavanceerde technologieën om mensen mondiger te maken, de huidige en toekomstige generaties op grote schaal ten goede te komen en te werken aan het algemeen belang. [Applicaties moeten]

  1. Sociaal voordelig zijn.
  2. Het creëren of versterken van oneerlijke vooroordelen vermijden.
  3. Zijn gebouwd en getest op veiligheid.
  4. Verantwoordelijk zijn voor mensen.
  5. Privacydesign-principes integreren.
  6. Hoge normen van wetenschappelijke uitmuntendheid handhaven.
  7. Beschikbaar worden gesteld voor gebruik dat in overeenstemming is met deze beginselen.”

Het maakte ook duidelijk dat het “geen AI zal ontwerpen of inzetten in de volgende toepassingsgebieden:

  1. Technologieën die algemene schade veroorzaken of kunnen veroorzaken. Wanneer er een materieel risico op schade bestaat, gaan wij alleen verder wanneer wij van mening zijn dat de voordelen aanzienlijk groter zijn dan de risico's en zullen wij passende veiligheidsbeperkingen inbouwen.
  2. Wapens of andere technologieën waarvan het voornaamste doel of de toepassing is mensen letsel toe te brengen of dit rechtstreeks te vergemakkelijken.
  3. Technologieën die informatie verzamelen of gebruiken voor toezicht waarbij internationaal aanvaarde normen worden geschonden.
  4. Technologieën waarvan het doel in strijd is met algemeen aanvaarde beginselen van internationaal recht en mensenrechten.”

Het voegt eraan toe dat die lijst kan evolueren. Toch lijkt Google een problematische relatie te hebben met ethische AI. Het maakte geen goede indruk toen het in 2019 zijn volledige ethische raad heeft ontslagen, om die te vervangen door een team van ethische AI-onderzoekers. Toen vervolgens, bij afzonderlijke gelegenheden, ook twee leden daarvan werden ontslagen, kwam dat opnieuw in het nieuws.

Facebook/Meta

Terwijl anderen het hebben over betrouwbare en ethische AI, heeft Meta (het moederbedrijf van Facebook) daarentegen andere prioriteiten en spreekt het over verantwoordelijke AI. Ook Meta onderscheidt vijf (of tien) pijlers:

  1. Privacy en veiligheid
  2. Eerlijkheid en inclusiviteit
  3. Robuustheid en Veiligheid
  4. Transparantie en Controle
  5. Verantwoording en Bestuur.

Juridische kaders voor kunstmatige intelligentie

Naast deze initiatieven binnen de sector zijn er ook voorstellen voor wettelijke kaders. Het bekendst is de AI-wet van de EU. Andere landen volgen dit voorbeeld.

De Verordening betreffende Kunstmatige Intelligentie van de EU

De EU omschrijft haar ontwerp voor een Verordening betreffende Kunstmatige Intelligentie als een voorgestelde Europese wet inzake kunstmatige intelligentie (AI) – de eerste wet inzake AI van een belangrijke regelgever waar dan ook. De verordening deelt toepassingen van AI in drie risicocategorieën in. Ten eerste worden toepassingen en systemen die een onaanvaardbaar risico vormen – zoals sociale scoring door de overheid, zoals bv. in China – verboden. Ten tweede zijn toepassingen met een hoog risico, zoals een instrument voor het scannen van cv's dat sollicitanten rangschikt, onderworpen aan specifieke wettelijke voorschriften. Ten slotte worden toepassingen die niet uitdrukkelijk verboden zijn of als risicovol zijn aangemerkt, grotendeels ongereguleerd gelaten.

De tekst kan misleidend zijn omdat het voorstel in feite geen drie maar vier risiconiveaus voor AI-toepassingen onderscheidt: 1) onaanvaardbaar risico, waarvoor een verbod geldt, 2) hoog risico, waarvoor specifieke wettelijke voorschriften moeten gelden, 3) laag risico, waarvoor meestal geen regelgeving nodig is, en 4) geen risico, waar geen enkele regelgeving voor nodig is.

Door een categorie “onaanvaardbaar risico” op te nemen, introduceert het voorstel het idee dat bepaalde soorten AI-toepassingen verboden moeten worden omdat ze fundamentele mensenrechten schenden. Alle toepassingen die menselijk gedrag manipuleren om gebruikers hun vrije wil te ontnemen, alsmede systemen die sociaal scoren mogelijk maken, vallen in deze categorie. Uitzonderingen zijn toegestaan voor militaire doeleinden en wetshandhaving.

Systemen met een hoog risico “omvatten biometrische identificatie, beheer van kritieke infrastructuur (water, energie, enz.), AI-systemen bestemd voor toewijzing in onderwijsinstellingen of voor personeelsbeheer, en AI-toepassingen voor toegang tot essentiële diensten (bankkredieten, overheidsdiensten, sociale uitkeringen, justitie, enz)”. Ook hier zijn er uitzonderingen voorzien, waarvan vele te maken hebben met gevallen waarin biometrische identificatie is toegestaan. Het gaat bijvoorbeeld om vermiste kinderen, verdachten van terrorisme, mensenhandel en kinderporno. De EU wil een database aanleggen die alle risicovolle aanvragen bijhoudt.

Toepassingen met een beperkt risico of een laag risico omvatten bv. diverse bots die bedrijven gebruiken om met hun klanten te interageren. Het idee hier is dat transparantie vereist is. Gebruikers moeten bijvoorbeeld weten dat zij in interactie zijn met een chatbot en tot welke informatie de chatbot toegang heeft.

Voor alle AI-systemen die geen risico vormen voor de rechten van de burger is geen regulering nodig. Deze toepassingen omvatten spelletjes, spamfilters, enz.

Op wie is de EU Verordening betreffende Kunstmatige Intelligentie van toepassing? Net als de Algemene Verordening Gegevensbescherming (AVG) is de EU Verordening betreffende Kunstmatige Intelligentie niet uitsluitend van toepassing op in de EU gevestigde organisaties en burgers. De verordening geldt ook voor iedereen buiten de EU die een AI-toepassing (product of dienst) binnen de EU aanbiedt, of als een AI-systeem informatie over EU-burgers of -organisaties gebruikt. Voorts is de wet ook van toepassing op systemen buiten de EU die gebruikmaken van resultaten die door AI-systemen binnen de EU zijn gegenereerd.

Een werk in uitvoering: de EU Verordening betreffende Kunstmatige Intelligentie is nog steeds een werk in uitvoering. De Commissie heeft haar voorstel gedaan en nu kunnen de wetgevers feedback geven. Momenteel zijn er reeds meer dan duizend amendementen ingediend. Sommige fracties vinden dat het kader te ver gaat, terwijl andere vinden dat het niet ver genoeg gaat. Een groot deel van de discussies gaat over het definiëren en categoriseren van AI-systemen.

Andere vermeldenswaardige initiatieven tot regulering

Naast de Europese de EU Verordening betreffende Kunstmatige Intelligentie zijn er nog enkele andere noemenswaardige initiatieven.

De Raad van Europa: de Raad van Europa (verantwoordelijk voor het Europees Verdrag voor de Rechten van de Mens) heeft een eigen Ad Hoc Comité voor Kunstmatige Intelligentie opgericht. Dit Ad Hoc Comité publiceerde in 2021 een paper, genaamd A Legal Framework for AI Systems. Het document was een haalbaarheidsstudie waarin werd onderzocht waarom een juridisch kader voor de ontwikkeling, het ontwerp en de toepassing van AI nodig is, dat gebaseerd is op de normen van de Raad van Europa inzake mensenrechten, democratie en de rechtsstaat. Er werden verschillende inhoudelijke en procedurele lacunes vastgesteld en er werd geconcludeerd dat een alomvattend rechtskader nodig is, waarin zowel bindende als niet-bindende instrumenten worden gecombineerd.

De UNESCO publiceerde een reeks aanbevelingen over de ethiek van kunstmatige intelligentie, die in november 2021 door 193 landen werden onderschreven.

De VS: op 4 oktober heeft het Witte Huis een Blueprint for an AI Bill of Rights uitgebracht om een kader op te zetten dat mensen kan beschermen tegen de negatieve effecten van AI.

In het Verenigd Koninkrijk bestaan nog geen overheidsinitiatieven. Maar de Universiteit van Cambridge heeft op 16 september 2022 een paper gepubliceerd over A Legal Framework for Artificial Intelligence Fairness Reporting.

Kristof De Neys (Cicero Lawpack)


Bronnen:

CICERO LawPack

CICERO LawPack is al meer dan 30 jaar gespecialiseerd in software voor advocaten, onder meer door een zeer persoonlijke aanpak en de voortdurende verbeteringen en de ontwikkeling van nieuwe toepassingen die uw werk gemakkelijker en efficiënter maken.

Bekijk alle artikelen

Reageer

Het e-mailadres wordt niet gepubliceerd.

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.