Auteur
Léa Rogliano
In 2025 lanceerde FARI – AI for the Common Good Institute een nieuw pilootformaat genaamd « Anchoring sessions », om FARI-onderzoekers te ondersteunen die een luik burgerparticipatie aan hun onderzoek willen toevoegen. Een eerste sessie, opgezet als focusgroep, werd georganiseerd met Anastasia Karagianni van de LSTS-onderzoeksgroep (VUB).
Ben je een FARI-onderzoeker die een workshop wil organiseren om het sociale gereedheidsniveau van je project te verhogen, neem dan hier contact op (ceh@fari.brussels).
Anastasia Karagianni, doctoraat onderzoeker bij de LSTS-onderzoeksgroep van de Faculteit Recht en Criminologie aan de VUB en voormalig FARI-Scholar, initieerde een focusgroep rond het auditen van slimme wearables (bijv. verbonden & draagbare ringen, brillen) via een bottom-up benadering gebaseerd op gelijkheid en safety-by-design.
In dit artikel stelt Léa Rogliano, hoofd van de FARI’s Citizen Engagement Hub (CEH), enkele vragen aan Anastasia over haar ervaring en feedback.
Wat zoeken we wanneer we ons onderzoek openstellen voor derden? Wat kunnen we verwachten van zulke samenwerkingen? Wat zijn de beste methodes om tot een bevredigend resultaat te komen?
Het volgende artikel is een transcript van dit gesprek. De missie van de CEH is om uitwisselingen tussen onderzoekers en de burgermaatschappij te stimuleren en gezamenlijk innovatie voor het algemeen belang op te bouwen.
L.R: Wat betekent AI voor het algemeen belang voor jou als onderzoeker?
A.K: AI is een open veld dat onderzoekers uit verschillende disciplines vanuit diverse invalshoeken verkennen. Het is bijzonder belangrijk om het vanuit onze eigen positie kritisch te benaderen om bij te dragen aan een verantwoordelijke en inclusieve technologische toekomst. Voor mij als juridisch onderzoeker betekent dit dat ik mezelf voortdurend moet afvragen hoe nuttig AI-oplossingen zijn voor het algemeen belang, voor de burgers, voor de samenleving als geheel. Dit houdt ook in dat ik aandacht heb voor genderimplicaties, aangezien AI-systemen onbedoeld genderbias kunnen reproduceren of versterken wanneer ze worden ontwikkeld of ingezet zonder kritische benadering. Mijn doel is om manieren voor te stellen om juridische lacunes te dichten zodat AI kan worden ontwikkeld en gebruikt op een juridisch verantwoorde en sociaal gunstige manier, een manier die gelijkheid respecteert, eerlijkheid bevordert en ervoor zorgt dat geen enkele groep wordt benadeeld door technologische vooruitgang.
L.R: Dank je. Kan je iets vertellen over het concept verifeminication dat je hebt ontwikkeld in je doctoraatsonderzoek?
Ja, natuurlijk. In mijn thesis pas ik feministische epistemologieën toe. Tijdens mijn onderzoek kwam ik de verificatieprincipes tegen (bijv. model checking, dataverificatie) en verificatiestandaarden. Deze worden gebruikt om ervoor te zorgen dat een AI-systeem of model correct ontworpen is en functioneert zoals bedoeld. Ik vroeg me af hoe ik deze verificatieprocessen vanuit een feministisch perspectief kon interpreteren. Zo ontstond het concept “verifemmication”.
Je vraagt je misschien af waarom ik een feministische lens gebruikte? Omdat één op drie vrouwen te maken krijgt met gendergerelateerd geweld. Het is daarom opmerkelijk dat AI-ontwerpers en -leveranciers onvoldoende rekening houden met het risico dat hun systemen kunnen worden ingezet voor dergelijke schade, waaronder beeldgebaseerd seksueel misbruik. “Verifeminication” is daarom een benadering die beoogt feministische, gelijkheids- en rechtvaardigheidscriteria te integreren in verificatieprocessen vóór de inzet van een AI-systeem. Mijn punt is dat gelijkheid moet worden ingebed in de ontwerpbenadering van deze technologieën.
L.R: Dank je. Kan je uitleggen hoe je op het idee kwam om een focusgroep te organiseren?
A.K: Ik wilde het concept “verifeminication” testen om te evalueren of het voor andere doelgroepen zinvol is en hoe zij het in hun eigen domeinen kunnen gebruiken. Daarom nam ik contact op met FARI’s Citizen Engagement Hub.
In de workshop die we organiseerden, pasten we het concept “verifemmication” toe op slimme wearables. We focusten op de Ray-Ban Meta AI-bril die recent op de Europese markt werd gelanceerd. Ik koos dit voorbeeld omdat, hoewel ik dit product innovatief en potentieel nuttig in het dagelijks leven vind, ik me ook afvraag of het aanzienlijke privacyrisico’s met zich meebrengt. Zo bevat de bril een livestreamfunctie, en ik vroeg me af wat de privacygevolgen zijn voor omstaanders.
Ik vroeg me ook af of deze functie een toegangspunt zou kunnen vormen voor gendergerelateerd geweld, aangezien dit soort geweld helaas ook in digitale omgevingen voorkomt. Ik stelde me voor hoe iemand met schadelijke intenties deze technologie zou kunnen gebruiken. Door deze reflectie realiseerde ik me dat bepaalde risico’s onvoldoende in kaart waren gebracht voordat het product op de markt kwam.
L.R: Kan je ons iets vertellen over de structuur van de workshop?
A.K: Het eerste deel van de workshop focuste op het ontleden van de technologie en het verkennen van de functies van de bril. Zo onderzochten we in welke mate AI-technologie, gezichtsherkenning en spraakassistentie in de bril zijn ingebouwd, hoe gebruikers deze functies kunnen activeren en onder welke omstandigheden. We keken ook naar transparantiemechanismen, zoals het LED-lampje dat brandt wanneer de camera filmt.
In het tweede deel probeerden we ons in te beelden hoe een omstaander — iemand die de bril niet gebruikt — de passieve interactie met deze technologie ervaart. Vraagt de gebruiker bijvoorbeeld toestemming aan iemand die in beeld komt? Zou dat effectief zijn of niet?
In het laatste deel van de workshop doken we dieper in de “verifemmication”-benadering. We verplaatsten ons in de positie van de ontwerpers van dergelijke producten en vroegen ons af welke bijkomende functies we zouden toevoegen om de eerder geïdentificeerde risico’s te verminderen.
L.R: En wat met de mensen die deze brillen dragen? Zou je ook testgroepen met hen willen organiseren? En hoe zit het met socio-economische dynamieken, aangezien dit product vrij duur is?
A.K: Dank je voor deze vraag. Hoe meer ik me op dit onderwerp focus, hoe meer ik besef dat we weinig ruwe data hebben over de interacties tussen de gebruiker van het product en de mensen rondom hem of haar. Daarom hebben we in de workshop geprobeerd dit perspectief te integreren door een vragenlijst af te nemen bij iemand die de bril bezit. Dat was heel interessant, want de persoon was zich van sommige risico’s bewust, maar bij andere risico’s was de reactie: “Interessant, daar had ik nog niet aan gedacht.” Dit toont duidelijk aan dat er nood is aan bewustmaking over de potentiële risico’s van dit product.
Onlangs was ik op de luchthaven van Valencia en daar was een Ray-Ban-winkel waar ze deze/dit paar AI Meta-brillen verkochten. Er waren veel modellen. Het lijkt erop dat beide bedrijven, Ray-Ban en Meta, deze producten voortdurend proberen te verbeteren. En dat de betere versie telkens diegene is waarin meer AI-technologie is geïntegreerd. Maar voor mij is de betere versie van dit product net degene die privacyvriendelijker is.
L.R: Ook al heb je ons al veel elementen gegeven, wat zijn de belangrijkste inzichten die je uit de workshop meeneemt?
A.K: Als onderzoeker voel je je soms geïsoleerd. Je werkt in een universiteit, meestal achter een bureau, waar je theoretische artikels leest. Maar wanneer we het recht bestuderen, moeten we het altijd in de praktijk plaatsen. De workshop toonde me dat we eigenlijk meer praktische inzichten nodig hebben. We moeten nagaan wie baat heeft bij technologieën, wie niet, wat de voor- en nadelen zijn, wat de zakelijke implicaties zijn, en hoe burgers en gemeenschappen worden beïnvloed. Onderzoek moet een meer ethische aanpak aannemen, inclusief real-world testings, om te zien hoe de wet kan functioneren, want de wet geldt uiteindelijk voor de samenleving. We moeten dus maatschappelijke inzichten binnenbrengen en praktische inzichten verwerken in het onderzoek.
Wat de workshop zelf betreft, was een belangrijke conclusie dat we deze aanpak waarschijnlijk beter zouden testen met meer gerichte groepen. We zouden wellicht andere perspectieven en feedback krijgen als we enkel met beleidsmakers, enkel met onderzoekers of enkel met burgers zouden testen. Voor nu hebben we een overzicht, een groter beeld van wat de “verifemmication”-benadering is en hoe ze burgers kan helpen. Maar om specifieker te zijn, moeten we deze aanpak verder testen met meer doelgerichte groepen.
L.R: Ben je tijdens het proces moeilijkheden tegengekomen?
A.K: Ik zou niet zeggen dat ik grote moeilijkheden ben tegengekomen, maar omdat ik de workshop zowel online als in persoon wilde organiseren, was dit uiteindelijk wat ambitieus. Ik wilde echt met alle werkgroepen in gesprek gaan, maar we splitsten de deelnemers op in twee groepen, en ik kon niet met iedereen even intensief interageren. Volgende keer zal ik ofwel een workshop volledig in persoon organiseren, ofwel een volledig online workshop voor deelnemers die niet in Brussel zijn of enkel vanop afstand kunnen deelnemen. Ik zal deze formaten niet meer combineren.
L.R: Hoe lang duurde het om deze workshop te organiseren?
A.K: Het kostte me niet zoveel tijd, dankzij de steun van FARI’s CEH. Ik schat dat ik in totaal tussen vijf en acht uur heb besteed. We begonnen één à twee maanden vooraf met organiseren en hadden ongeveer om de twee weken een vergadering met FARI-collega’s (Alice Demaret). In die vergaderingen bespraken we de voortgang, updates, uitnodigingen en praktische organisatie van het event.
L.R: En hoe zat het met het opzetten van de structuur van je workshop?
A.K: Ik zou zeggen dat de meeste vragen en het format al voorbereid waren, omdat ik ze had opgesteld voor een eerdere conferentie-indiening die uiteindelijk werd afgewezen. Omdat het voorstel al bestond, duurde het ongeveer twee uur om het aan te passen voor deze workshop.
L.R: Ga je deze inzichten verwerken in je thesis of een artikel?
A.K: Ik zou deze inzichten graag opnemen in mijn thesis, maar zoals ik eerder aangaf, omdat mijn onderzoek niet empirisch maar theoretisch is, en om administratieve complicaties te vermijden, plan ik de inzichten in algemene lijnen samen te vatten in een paragraaf. Mijn thesis richt zich niet uitsluitend op de Ray-Ban Meta-bril; de vragen die ik bespreek zijn juridisch van aard.
L.R: Zou je interesse hebben om een artikel te schrijven over de focusgroep of om meer workshops te organiseren?
A.K: Ik zou graag in de toekomst meer workshops organiseren, omdat ik — zoals eerder uitgelegd — deze aanpak graag zou testen met meer doelgerichte groepen, bijvoorbeeld beleidsmakers, onderzoekers of burgers. Ik zou graag diverse perspectieven verzamelen om zo een vollediger beeld te krijgen van de uitdagingen en risico’s verbonden aan deze AI-producten.
L.R: Dus we spreken elkaar volgend jaar terug?
A.K: Ja, dank je. Ik kijk ernaar uit!
L.R: Welke raad zou je geven aan onderzoekers die burgerparticipatie willen opnemen in hun werk?
A.K: Enkel positieve uitkomsten, zoals vele waardevolle inzichten. Je zal waarschijnlijk een nieuwe dimensie van je onderzoek verkennen, want onderzoekers moeten volgens mij in contact blijven met de samenleving en die perspectieven in hun werk integreren.
Wat betreft het organiseren van de workshop, zou ik zeggen: “Zolang je een concreet idee hebt, komt alles in orde. En als je de steun van het FARI-team hebt, voel je je veilig en ondersteund. Je staat er niet alleen voor — zelfs als je iets vergeet, zal het FARI-team je waarschijnlijk opvangen.”
Delen
Andere nieuws