De gevaren van artificiële intelligentie cover

18 jul 2023 | Legal Tech (IT & IP)

De gevaren van artificiële intelligentie

Recente vacatures

Advocaat
Omgevingsrecht Publiek recht
0 - 3 jaar
Brussel
Jurist Paralegal
sociaal recht
0 - 3 jaar
Brussel
Jurist Paralegal
Verzekeringsrecht
3 - 7 jaar
Brussel
Paralegal
0 - 3 jaar
Brussel
Advocaat
Arbeidsrecht Burgerlijk recht Medisch recht Strafrecht
3 - 7 jaar
Antwerpen Brussel Limburg Oost-Vlaanderen Remote West-Vlaanderen

Aankomende events

Artificiële intelligentie (AI) is een krachtige technologie die de maatschappij veel voordelen kan bieden. AI brengt echter ook aanzienlijke risico’s en uitdagingen met zich mee die voorzichtig en verantwoordelijk moeten worden aangepakt. In dit artikel gaan we in op de vragen “Wat zijn de gevaren van kunstmatige intelligentie?” en “Biedt regulering een oplossing?”.

De mogelijke gevaren van artificiële intelligentie halen de laatste tijd de krantenkoppen. Eerst riepen Elon Musk en verschillende experts op tot een pauze in de ontwikkeling van AI. Ze waren bezorgd dat we de controle over AI zouden kunnen verliezen, gezien de vooruitgang die de laatste tijd is geboekt. Ze uitten hun zorgen dat AI een echt risico voor de samenleving zou kunnen vormen. Een tweede groep experts antwoordde echter dat Musk en zijn kompanen de risico’s zwaar overdreven en bestempelden hen als “onnodig paniekzaaiend”. Maar toen waarschuwde een derde groep opnieuw voor de gevaren van artificiële intelligentie. Tot deze derde groep behoorden mensen als Geoffrey Hinton, die de peetvader van AI wordt genoemd. Ze stelden zelfs expliciet dat AI zou kunnen leiden tot de vernietiging van de mensheid.

Sinds deze drie groepen hun mening hebben gegeven, zijn er veel artikelen geschreven over de gevaren van AI. En de roep om AI te reguleren is luider geworden dan ooit tevoren. (In november 2022 publiceerden we een artikel over initiatieven om AI te reguleren). Verschillende landen zijn begonnen met het nemen van initiatieven ter zake.

Wat zijn de gevaren van artificiële intelligentie?

Zoals met elke krachtige technologie het geval is, kan het worden gebruikt voor snode doeleinden. Het kan worden bewapend en gebruikt voor criminele doeleinden. Maar zelfs het normale gebruik van AI brengt risico’s met zich mee en kan tot ongewenste gevolgen leiden. Laten we dit eens nader bekijken.

In de media is al veel aandacht besteed aan de fouten, verkeerde informatie en hallucinaties van artificiële intelligentie. Tools zoals ChatGPT zijn geprogrammeerd om overtuigend te klinken, niet om nauwkeurig te zijn. Het haalt zijn informatie van het internet, maar het internet bevat veel informatie die niet correct is. De antwoorden zullen dit dus weerspiegelen. Erger nog, omdat het geprogrammeerd is om altijd een antwoord te geven als het kan, verzint het soms gewoon dingen. Zulke gevallen worden hallucinaties genoemd. In een rechtszaak in de VS moest een advocaat bijvoorbeeld toegeven dat de precedenten die hij had geciteerd niet bestonden en waren verzonnen door ChatGPT. (In een eerder artikel over ChatGPT waarschuwden we dat alle juridische feedback die het geeft, dubbel gecontroleerd moet worden).

Tools zoals ChatGPT zijn geprogrammeerd om overtuigend te klinken, niet om nauwkeurig te zijn.

Zodra ChatGPT beschikbaar werd, begonnen cybercriminelen het in hun voordeel te gebruiken. Een tweede reeks gevaren heeft daarom te maken met cybercriminaliteit en cyberveiligheidsbedreigingen: AI kan worden misbruikt om geavanceerde cyberaanvallen uit te voeren. Dit omvat het gebruik van AI-algoritmen om hacktechnieken te automatiseren en te verbeteren, kwetsbaarheden te identificeren en beveiligingssystemen te doorbreken. Phishingaanvallen zijn ook geavanceerder geworden en moeilijker te detecteren.

AI kan ook worden gebruikt voor cyberspionage en -surveillance. AI kan worden ingezet voor geavanceerde cyberspionageactiviteiten, waaronder het verzamelen van inlichtingen, surveillance en binnendringen in kritieke systemen. Hiermee samenhangend is het risico van inbreuk op de privacy en gegevensmanipulatie. AI kan enorme hoeveelheden persoonlijke gegevens uit verschillende bronnen verzamelen en analyseren, zoals sociale media, camera’s, sensoren en biometrische gegevens. Hierdoor kan AI gevoelige informatie afleiden over de identiteit, voorkeuren, gedragingen en emoties van mensen. AI kan deze gegevens ook gebruiken om de bewegingen, activiteiten en interacties van mensen te volgen. Dit kan een bedreiging vormen voor mensenrechten, zoals de vrijheid van meningsuiting, vereniging en vergadering.

Toenemend gebruik van AI zal ook leiden tot banenverlies door automatisering. AI kan veel taken sneller en goedkoper uitvoeren dan mensen, wat zal leiden tot werkloosheid en ongelijkheid. Een artikel op ZDNet schat dat AI 300 miljoen banen zou kunnen automatiseren. Ongeveer 28% van de huidige banen zou in gevaar kunnen komen.

Er is ook een risico op controleverlies. Naarmate AI-systemen krachtiger worden, bestaat het risico dat we de controle erover verliezen. Dit zou ertoe kunnen leiden dat AI-systemen beslissingen nemen die schadelijk zijn voor mensen, zoals het lanceren van een nucleaire aanval of het beginnen van een oorlog. Dit risico van controleverlies is een grote zorg m.b.t. de bewapening van AI. Naarmate de AI-technologie voortschrijdt, bestaat de zorg dat deze bewapend kan worden door statelijke of niet-statelijke actoren. Autonome wapensystemen die zijn uitgerust met AI kunnen mogelijk dodelijke beslissingen nemen zonder menselijke tussenkomst, wat leidt tot grote ethische en humanitaire zorgen.

We hebben het al gehad over fouten, verkeerde informatie en hallucinaties. Dat zijn onvrijwillige neveneffecten van AI. Een verwant gevaar van AI is de opzettelijke manipulatie en misinformatie van de samenleving via algoritmen. AI kan realistische en overtuigende inhoud genereren, zoals deepfakes, nepnieuws en propaganda, die de meningen en het gedrag van mensen kan beïnvloeden. AI kan ook gebruik maken van de psychologische vooroordelen en voorkeuren van mensen om hun keuzes en handelingen te manipuleren, onder meer bij online winkelen, stemmen en daten.

Generatieve AI gebruikt meestal bestaande gegevens als basis voor het creëren van nieuwe inhoud. Maar dit kan leiden tot problemen met de schending van intellectuele eigendomsrechten. (We hebben dit kort besproken in ons artikel over generatieve AI).

Een ander risico dat inherent is aan het feit dat AI leert van grote datasets is bias (vooringenomenheid) en discriminatie. Als deze gegevens vooroordelen bevatten, kan AI deze versterken en bestendigen. Dit vormt een groot gevaar op gebieden zoals wervingspraktijken, kredietbeslissingen en wetshandhaving, waarbij bevooroordeelde AI-systemen kunnen leiden tot oneerlijke uitkomsten. En als AI-technologieën niet voor iedereen toegankelijk of betaalbaar zijn, kunnen ze bestaande sociale en economische ongelijkheden verergeren.

Hiermee samenhangend zijn de ethische implicaties. Naarmate AI-systemen geavanceerder worden, kunnen ze voor ethische dilemma’s komen te staan, zoals beslissingen waarbij mensenlevens in het geding zijn of waarbij bepaalde waarden voorrang moeten krijgen. Denk bijvoorbeeld aan zelfrijdende auto’s wanneer een ongeluk niet vermeden kan worden: offer je de bestuurder op als dat betekent dat je meer levens redt? Het is cruciaal om ethische kaders en richtlijnen op te stellen voor de ontwikkeling en inzet van AI-technologieën. Het aanmoedigen van interdisciplinaire samenwerking tussen experts op het gebied van technologie, ethiek en filosofie kan helpen bij het navigeren door deze complexe ethische uitdagingen.

Op dit moment is er onvoldoende regelgeving met betrekking tot de aansprakelijkheid en transparantie van AI. Nu artificiële intelligentie steeds autonomer wordt, worden aansprakelijkheid en transparantie essentieel om de mogelijke onbedoelde gevolgen van AI aan te pakken. In een eerder artikel over robotwetgeving stelden we de vraag wie verantwoordelijk is wanneer een robot bijvoorbeeld een ongeluk veroorzaakt. Is het de fabrikant, de eigenaar of – naarmate AI steeds zelfbewuster wordt – kan het de robot zijn? Of wanneer ChatGPT onjuiste informatie verstrekt, wie is er dan aansprakelijk? In de VS ontdekte radiopresentator Mark Walters uit Georgia dat ChatGPT valse informatie over hem verspreidde en hem beschuldigde van het verduisteren van geld. Hij is een rechtszaak begonnen tegen OpenAI, de makers van ChatGPT.

Zoals het eerdergenoemde voorbeeld van de advocaat die niet-bestaande precedenten citeerde illustreerde, bestaat er ook een risico van afhankelijkheid en overafhankelijkheid. Te veel vertrouwen op AI-systemen zonder goed begrip of menselijk toezicht kan leiden tot fouten, systeemstoringen of het verlies van cruciale vaardigheden en kennis.

Te veel vertrouwen op AI-systemen zonder goed begrip of menselijk toezicht kan leiden tot fouten, systeemstoringen of het verlies van cruciale vaardigheden en kennis.

Tot slot is er de kwestie van superintelligentie waar verschillende experts voor waarschuwen. Zij beweren dat de ontwikkeling van autonome AI-systemen met een superintelligentie die de menselijke vermogens overtreft een potentieel existentieel risico inhoudt. Het vermogen van zulke systemen om zichzelf snel te verbeteren en beslissingen te nemen die het menselijke begrip te boven gaan, roept ook zorgen op over controle en ethische implicaties. Het beheersen van dit risico vereist voortdurend interdisciplinair onderzoek, samenwerking en een open dialoog tussen experts, beleidsmakers en de samenleving als geheel. Aan de andere kant zei een expert dat het ongegrond is om automatisch aan te nemen dat superintelligente AI destructief zal worden, alleen omdat het zou kunnen. Toch bevat het EU-initiatief de eis om een verplichte “kill switch” in te bouwen die het mogelijk maakt om de AI op elk moment uit te schakelen.

Biedt regulering van AI een oplossing?

De afgelopen weken hebben verschillende landen initiatieven aangekondigd om AI te reguleren. De EU had al een eigen initiatief. Eind mei zei Margrethe Vestager, het hoofd technologie van de EU, dat ze geloofde dat er “in de komende weken” een ontwerp voor een vrijwillige gedragscode voor generatieve AI zou kunnen worden opgesteld. De VS, Australië en Singapore hebben ook voorstellen ingediend om AI te reguleren.

Verschillende van de bovengenoemde gevaren kunnen worden aangepakt door middel van regelgeving. Laten we enkele voorbeelden bekijken.

Regelgeving rond cybercriminaliteit en cyberbeveiliging moet de nadruk leggen op sterke cyberbeveiligingsmaatregelen, versleutelingsnormen en voortdurende controle op AI-gestuurde bedreigingen.

Om risico’s op cyberspionage en -surveillance tegen te gaan, hebben we robuuste cyberbeveiligingspraktijken, geavanceerde technologie voor het opsporen van bedreigingen en wereldwijde samenwerking nodig om informatie te delen en normen tegen cyberspionage vast te stellen.

Regelgeving op het gebied van privacy en gegevensbescherming moet strikte normen afdwingen, veilige protocollen stimuleren en strenge straffen opleggen voor inbreuken, zodat individuen en bedrijven worden beschermd tegen AI-gebaseerde cybercriminaliteit.

Om banenverlies te voorkomen, moeten samenlevingen investeren in onderwijs en training voor werknemers om zich aan te passen aan de veranderende arbeidsmarkt en nieuwe mogelijkheden te creëren voor samenwerking tussen mens en artificiële intelligentie.

Het aanpakken van de bewapening van AI vereist internationale samenwerking, open discussies en het opstellen van normen, verdragen of overeenkomsten om de ongecontroleerde ontwikkeling en het gebruik van AI in militaire toepassingen te voorkomen.

Om deepfakes en propaganda te bestrijden, moeten we ethische normen en regels ontwikkelen voor het maken en verspreiden van AI-inhoud en mensen leren hoe ze informatie kritisch kunnen beoordelen en verifiëren.

Om bias en discriminatie aan te pakken, is het cruciaal om te zorgen voor diverse en representatieve trainingsgegevens, rigoureuze tests op bias uit te voeren en transparante processen te hebben voor het auditen en corrigeren van AI-systemen. Er moeten ethische richtlijnen en regels komen om eerlijkheid, verantwoordingsplicht en inclusiviteit te bevorderen.

Op het gebied van verantwoording en transparantie kunnen regelgevende kaders eisen dat ontwikkelaars en organisaties een duidelijke uitleg geven over de manier waarop AI-systemen beslissingen nemen. Dit zorgt voor een beter begrip, identificatie van mogelijke vooroordelen of fouten en de mogelijkheid om onbedoelde gevolgen te corrigeren.

Op het gebied van verantwoording en transparantie kunnen regelgevende kaders eisen dat ontwikkelaars en organisaties een duidelijke uitleg geven over de manier waarop AI-systemen beslissingen nemen.

Tegelijkertijd heeft regelgeving ook haar beperkingen. Hoewel het belangrijk is om bijvoorbeeld zaken als cybercriminaliteit of de bewapening van AI te reguleren, is het ook duidelijk dat regulering geen einde zal maken aan deze praktijken. Per definitie trekken cybercriminelen zich immers niets aan van regelgeving. En ondanks het feit dat verschillende soorten massavernietigingswapens verboden zijn, is het ook duidelijk dat ze nog steeds geproduceerd en gebruikt worden door verschillende actoren. Maar regelgeving helpt wel om overtreders verantwoordelijk te houden.

Het is ook moeilijk in te schatten hoe ontwrichtend de impact van artificiële intelligentie op de samenleving zal zijn. Afhankelijk van hoe ontwrichtend het is, kunnen aanvullende maatregelen nodig zijn.

Conclusie: voordelen groter dan risico’s

We hebben een stadium bereikt waarin AI zo geavanceerd is dat het de wereld en onze manier van leven zal veranderen. Dit zorgt nu al voor problemen die moeten worden aangepakt. En zoals met elke krachtige technologie het geval is, kan er misbruik van worden gemaakt. Ook die risico’s moeten worden aangepakt. Maar hoewel we deze problemen moeten erkennen, moet het ook duidelijk zijn dat de voordelen groter zijn dan de risico’s, zolang we niet op de zaken vooruitlopen. Op dit moment vormen mensen die AI misbruiken een groter gevaar dan AI zelf.

Cicero LawPack

Bronnen:

Recente vacatures

Advocaat
Omgevingsrecht Publiek recht
0 - 3 jaar
Brussel
Jurist Paralegal
sociaal recht
0 - 3 jaar
Brussel
Jurist Paralegal
Verzekeringsrecht
3 - 7 jaar
Brussel
Paralegal
0 - 3 jaar
Brussel
Advocaat
Arbeidsrecht Burgerlijk recht Medisch recht Strafrecht
3 - 7 jaar
Antwerpen Brussel Limburg Oost-Vlaanderen Remote West-Vlaanderen

Aankomende events

Blijf op de hoogte

Schrijf je in voor de nieuwsbrief

0 Reacties

0 reacties

Een reactie versturen

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.