AI-aanbevelingssystemen en manipulatieve beïnvloeding op sociale media cover

29 apr 2026 | Civil Law & Litigation

AI-aanbevelingssystemen en manipulatieve beïnvloeding op sociale media

Recente Jobs

Advocaat
Burgerlijk recht Familierecht Strafrecht
0 - 3 jaar
Oost-Vlaanderen West-Vlaanderen
Audit Medewerker
Accountancy Fiscaal recht
0 - 3 jaar
Vlaanderen
Assistent Advisor
Fiscaal recht
0 - 3 jaar
Vlaanderen
Legal advisor
Commercieel recht
3 - 7 jaar
Antwerpen Oost-Vlaanderen
Tax Advisor
Fiscaal recht
3 - 7 jaar
Vlaanderen

​De onzichtbare hand achter uw feed

Wanneer u vandaag een sociaal mediaplatform opent, lijkt het misschien alsof u gewoon door een stroom van berichten, video's en nieuwsitems bladert. In werkelijkheid wordt een groot deel van wat u ziet geselecteerd door algoritmische aanbevelingssystemen. Platformen zoals TikTok, Instagram, YouTube of Facebook gebruiken artificiële intelligentie om te voorspellen welke inhoud uw aandacht het best vasthoudt. Op basis van uw klikgedrag, kijktijd en andere interacties bouwen zij voortdurend een profiel van u op en passen zij de inhoud die u te zien krijgt daarop aan.

Voor gebruikers gebeurt dit grotendeels onzichtbaar. Toch kan het een grote invloed hebben op wat iemand online ziet en hoe lang hij of zij blijft kijken. Denk aan een tiener die begint te zoeken naar fitnessvideo's of dieetadvies. Het systeem stelt steeds meer gelijkaardige inhoud voor, waardoor die gebruiker geleidelijk in een zeer specifieke informatiestroom terechtkomt. Iemand die zich interesseert voor politieke onderwerpen kan op dezelfde manier steeds extremere of meer emotioneel geladen content te zien krijgen. Zo ontstaat een feedbacklus: het platform speelt niet alleen in op bestaande voorkeuren, maar versterkt ze ook stap voor stap.

Dat proces is niet louter technisch van aard. Deze systemen zijn gebouwd rond een eenvoudig principe: aandacht is geld waard. Hoe langer u kijkt, hoe meer gegevens u genereert en hoe waardevoller u bent voor het platform. Artificiële intelligentie maakt het mogelijk om die sturing voortdurend te verfijnen, op maat van elke gebruiker en op grote schaal. De gebruiker merkt daar meestal niets van.

Zulke dynamieken roepen bijzondere zorgen op bij jongeren of personen in een kwetsbare situatie. Aanbevelingssystemen kunnen, vaak zonder expliciete bedoeling, gedragspatronen versterken die niet in het belang van de gebruiker zijn. De beïnvloeding vindt plaats buiten het bewuste zicht van de gebruiker: u ervaart de gevolgen, maar herkent de oorzaak vaak niet. De feed voelt natuurlijk aan, alsof u vrij kiest. Intussen blijft het systeem uw online omgeving actief bijsturen.

In reactie op deze bezorgdheden heeft de Europese Unie met de AI Act een nieuw regelgevend kader ingevoerd. Artikel 5 neemt daarin een bijzondere plaats in: het verbiedt AI-praktijken die gebruikmaken van subliminale, manipulatieve of misleidende technieken om het gedrag van personen te beïnvloeden.[1] In de rechtsleer is echter reeds aanzienlijke kritiek geuit op dit artikel. De vraag rijst of het daadwerkelijk in staat zal zijn dit probleem doeltreffend te ondervangen. Tegelijk wordt steeds duidelijker dat regulering alleen niet volstaat. Daarom bespreekt het laatste deel van dit artikel hoe media- en AI-literacy gebruikers kan helpen zich te weren tegen dergelijke vormen van beïnvloeding.

Wat zegt de wet, en waarom volstaat dat niet?

Artikel 5 van de Europese AI Act bevat een lijst van AI-praktijken die verboden zijn omdat zij een onaanvaardbaar risico vormen. Het artikel verbiedt onder meer aanbevelingssystemen die gebruikmaken van subliminale, manipulatieve of misleidende technieken om het gedrag van mensen te beïnvloeden.

Denk aan systemen die inspelen op menselijke kwetsbaarheden of mensen onbewust in een bepaalde richting sturen. Wanneer zulke systemen ertoe leiden dat iemand een beslissing neemt die hij of zij anders niet zou hebben genomen, en dat bovendien tot aanzienlijke schade kan leiden, vallen zij buiten de grenzen van wat in Europa aanvaardbaar wordt geacht. Op papier lijkt de bescherming krachtig. Bij nadere blik blijkt de bepaling echter minder eenvoudig toe te passen dan ze op het eerste gezicht doet vermoeden.

Zo geeft de AI Act geen duidelijke definities van wat precies onder “manipulatieve”, “misleidende” of “subliminale” technieken moet worden verstaan. Wat voor de ene observator als manipulatie voelt, valt voor een andere misschien nog onder normale beïnvloeding. Technologiebedrijven hebben er alle belang bij om die grijze zone zo ruim mogelijk te interpreteren. Zonder scherpe definities en de juiste handhavingsmechanismen hebben zij juridisch de ruimte om dat te doen.

Daarnaast legt artikel 5 de lat vrij hoog. Het gedrag van een gebruiker moet merkbaar verstoord zijn én er moet sprake zijn van “significante schade”, een begrip dat op zichzelf vaag blijft. Veel moderne aanbevelingssystemen beïnvloeden gebruikers echter geleidelijk, zonder dat één specifieke interactie duidelijke schade veroorzaakt.

Ook de invulling van kwetsbaarheid roept vragen op. De wet noemt leeftijd, handicap of een specifieke sociale of economische situatie. In werkelijkheid zijn menselijke kwetsbaarheden vaak veel diffuser: cognitieve biases, emoties, tijdelijke omstandigheden. Die vallen niet altijd binnen de categorieën die de wet opsomt.

Dit betekent niet dat artikel 5 zonder betekenis is. Het vormt een belangrijke poging om een grens te trekken voor de meest problematische toepassingen van AI. Tegelijk laat de huidige formulering ruimte voor discussie: kan de bepaling alle vormen van manipulatieve beïnvloeding door moderne aanbevelingssystemen werkelijk vatten? En wordt aan technologiebedrijven voldoende verantwoordelijkheid opgelegd voor de manier waarop zij bepalen wat wij online te zien krijgen?

Wat u zelf kan doen

Regulering alleen volstaat niet. Zoals bleek uit de analyse van artikel 5, laat de huidige formulering te veel ruimte voor interpretatie. Veel vormen van subtiele digitale beïnvloeding vallen buiten het bereik van het verbod. Zolang aanbevelingssystemen draaien op aandacht en gedragssturing, biedt het recht onvoldoende tegenwicht. Gedrag van technologiebedrijven zal daardoor niet vanzelf veranderen. Bescherming begint bij de gebruiker zelf, met kennis, en dat vereist zowel media-literacy als AI-literacy.

Beide begrippen hangen nauw samen, maar zijn niet volledig gelijk. Media-literacy helpt gebruikers om inhoud kritisch te beoordelen: klopt deze informatie, welke emotie wordt aangesproken, wie heeft belang bij verdere verspreiding? In een gepersonaliseerde online omgeving volstaat dat echter niet meer. Aanbevelingssystemen sturen uw informatiestroom op basis van uw gedrag, waardoor u geleidelijk in een filterbubbel terechtkomt waarin bestaande interesses en overtuigingen worden versterkt.

AI-literacy voegt daar een extra laag aan toe. Zij maakt duidelijk dat een online feed geen neutrale weergave van de werkelijkheid is, maar een omgeving die actief wordt samengesteld door systemen die uw gedrag voorspellen en uw aandacht vasthouden. U hoeft daarvoor geen expert te zijn. Het volstaat te begrijpen dat platformen uw gedrag optimaliseren voor maximale betrokkenheid, niet voor uw welzijn of informatiekwaliteit. Functies zoals autoplay, oneindige scroll en gerichte notificaties zijn bewust ontworpen om uw aandacht te verlengen, wat het moeilijk maakt om nog bewust te kiezen wanneer u stopt.

U kunt die invloed deels doorbreken. Schakel meldingen uit, verlaat de app zodra u merkt dat u passief consumeert en zoek ook buiten aanbevelingen actief andere bronnen op. Stel uzelf kritische vragen: waarom zie ik dit, welke emotie wordt aangesproken, wie heeft er baat bij mijn aandacht? Zulke handelingen lijken klein, maar zij doorbreken precies het automatisme waarop veel platformen steunen. Wie verder wil gaan, kan ook bewust kiezen om platformen te steunen die de autonomie van gebruikers serieus nemen.

Ook onderwijs en opvoeding spelen hierin een cruciale rol. Traditionele mediavaardigheden, zoals het onderscheiden van feit en mening, volstaan niet meer in een omgeving waarin niet alleen de interpretatie maar ook de toegang tot informatie wordt gestuurd. Jongeren leren vaak niet hoe aanbevelingssystemen hun wereldbeeld vormgeven, terwijl ook volwassenen die dynamiek niet altijd begrijpen. Wil men toekomstige generaties beschermen, dan moeten media- en AI-literacy structureel deel uitmaken van het onderwijs. Ze lossen het probleem niet volledig op, maar helpen gebruikers wel om binnen een sterk gestuurde digitale omgeving een stuk autonomie terug te winnen.

Besluit

Media- en AI-literacy lossen het probleem niet volledig op. Bedrijven dragen een eigen verantwoordelijkheid, en het is aan de wetgever om die ook effectief af te dwingen. Maar zolang de handhaving tekortschiet en platformen hun praktijken niet fundamenteel herzien, blijft kennis uw meest directe verdedigingslinie. Uw autonomie is geen vanzelfsprekendheid in een omgeving die voortdurend uw aandacht en gedrag probeert te sturen. Ze begint bij het begrijpen van de mechanismen die u dagelijks beïnvloeden, en bij het bewust kiezen om daar niet zomaar in mee te gaan.

​Dean Geldof en Ousman Jalloh – Brussels Law School Consultancy


Voetnoten

[1] Ook de Digital Services Act (DSA) bevat relevante bepalingen inzake algoritmische transparantie en aanbevelingssystemen. Dit artikel beperkt zich echter tot artikel 5 AI Act omdat die bepaling specifiek manipulatieve en misleidende AI-technieken viseert.

Recente Jobs

Advocaat
Burgerlijk recht Familierecht Strafrecht
0 - 3 jaar
Oost-Vlaanderen West-Vlaanderen
Audit Medewerker
Accountancy Fiscaal recht
0 - 3 jaar
Vlaanderen
Assistent Advisor
Fiscaal recht
0 - 3 jaar
Vlaanderen
Legal advisor
Commercieel recht
3 - 7 jaar
Antwerpen Oost-Vlaanderen
Tax Advisor
Fiscaal recht
3 - 7 jaar
Vlaanderen

Blijf op de hoogte

Schrijf je in voor de nieuwsbrief

0 Reacties

0 reacties

Een reactie versturen

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *