Auteur
Léa Rogliano
En 2025, FARI – AI for the Common Good Institute a lancé un nouveau format pilote intitulé « Anchoring sessions » pour soutenir les chercheurs affiliés à FARI souhaitant intégrer une composante de participation citoyenne dans leurs travaux. Une première session, organisée sous forme de groupe de discussion, a été menée avec Anastasia Karagianni du groupe de recherche LSTS (VUB).
Êtes-vous un·e chercheur·e FARI désireux·se d’organiser un atelier pour renforcer le niveau de préparation sociale de votre projet ? Contactez-les ici (ceh@fari.brussels).
Anastasia Karagianni, chercheuse doctorale au sein du groupe de recherche LSTS de la Faculté de droit et de criminologie de la VUB et ancienne boursière FARI, a initié un groupe de discussion sur l’audit des objets connectés portables (par ex. bagues, lunettes connectées) selon une approche ascendante fondée sur l’équité et la sécurité dès la conception.
Dans cet article, Léa Rogliano, responsable du Citizen Engagement Hub (CEH) de FARI, interroge Anastasia sur son expérience et son retour.
Que recherchons-nous en ouvrant nos recherches à des tiers ? À quoi peut-on s’attendre dans ce type de collaboration ? Quelles sont les meilleures méthodes pour obtenir un résultat satisfaisant ?
L’article suivant est la transcription de cette conversation. La mission du CEH est de stimuler les échanges entre chercheurs et société civile et de construire une innovation concertée au service du bien commun.
L.R : Que signifie pour vous l’IA pour le bien commun ?
A.K : L’IA est un champ ouvert que des chercheurs de diverses disciplines explorent sous différents angles. Il est essentiel de la questionner à partir de nos propres perspectives afin de contribuer à un futur technologique responsable et inclusif. En tant que chercheuse en droit, cela signifie pour moi que je dois constamment m’interroger sur la manière dont les solutions d’IA peuvent réellement servir le bien commun, les citoyens et la société dans son ensemble. Cela inclut également l’attention portée aux implications de genre, car les systèmes d’IA peuvent involontairement reproduire ou amplifier des biais de genre s’ils sont développés ou déployés sans regard critique. Mon objectif est de proposer des moyens de combler les lacunes juridiques afin que l’IA puisse être développée et utilisée de manière juridiquement solide et socialement bénéfique, respectueuse de l’égalité, promotrice de l’équité et garantissant qu’aucun groupe ne soit désavantagé par le progrès technologique.
L.R : Merci. Pourriez-vous dire un mot sur le concept de verifeminication que vous avez introduit dans votre thèse ?
Oui, bien sûr. Dans ma thèse, j’applique des épistémologies féministes. Au fil de mes recherches, j’ai rencontré les principes de vérification (par ex. vérification de modèles, vérification de données) et des normes de vérification. Ceux-ci servent à garantir qu’un système ou un modèle d’IA soit correctement conçu et fonctionne comme prévu. Je me suis demandé comment interpréter ces processus de vérification à travers un prisme féministe. C’est ainsi qu’est né le concept de « verifemmication ».
Vous vous demandez peut-être pourquoi j’ai adopté un regard féministe ? Parce que une femme sur trois subit des violences basées sur le genre. Il est donc frappant que les concepteurs et fournisseurs d’IA ne tiennent pas suffisamment compte du risque que leurs systèmes soient instrumentalisés pour de tels préjudices, notamment pour des abus sexuels fondés sur des images. La « verifemmication » est ainsi une approche qui cherche à intégrer des critères féministes, équitables et orientés vers l’égalité dans les processus de vérification avant le déploiement d’un système d’IA. Mon point est que l’équité doit être intégrée dès la conception de ces technologies.
L.R : Merci. Pourriez-vous expliquer comment vous est venue l’idée d’organiser un groupe de discussion ?
A.K : J’ai voulu tester le concept de « verifeminication » afin d’évaluer s’il est pertinent pour d’autres publics et comment ils pourraient l’utiliser dans leurs domaines. C’est pourquoi j’ai contacté le Citizen Engagement Hub de FARI.
Dans l’atelier que nous avons organisé, nous avons appliqué le concept de « verifemmication » aux objets connectés portables. Nous avons porté notre attention sur les lunettes Ray-Ban Meta AI récemment lancées sur le marché européen. J’ai choisi cet exemple car, bien que je considère ce produit innovant et potentiellement utile au quotidien, je me demande également s’il soulève des enjeux importants en matière de vie privée. Par exemple, les lunettes incluent une fonction de diffusion en direct, et je me suis interrogée sur les conséquences de cette fonctionnalité pour les personnes filmées à leur insu.
Je me suis aussi demandé si cette fonctionnalité pourrait créer une porte d’entrée pour des formes de violence basée sur le genre, sachant que ces violences se produisent également dans les environnements numériques. J’ai imaginé comment une personne malintentionnée pourrait détourner cette technologie. Cette réflexion m’a fait prendre conscience que certains risques n’avaient pas été pleinement considérés avant la mise sur le marché du produit.
L.R : Pourriez-vous décrire la structure de l’atelier ?
A.K : La première partie de l’atelier visait à déconstruire cette technologie et à explorer les fonctionnalités des lunettes. Nous avons examiné dans quelle mesure des technologies d’IA, la reconnaissance faciale et l’assistance vocale sont intégrées dans ces lunettes, comment les utilisateurs peuvent activer ces fonctionnalités et dans quelles circonstances. Nous avons également évalué la présence de mécanismes de transparence, tels qu’une lumière LED qui s’allume lorsque la caméra enregistre.
Dans la deuxième partie, nous avons tenté d’imaginer comment une personne tierce — quelqu’un qui ne porte pas les lunettes — percevrait l’interaction passive avec cette technologie. Par exemple, l’utilisateur demande-t-il le consentement des personnes susceptibles d’apparaître dans la vidéo ? Et cette demande serait-elle réellement efficace ?
Dans la dernière partie de l’atelier, nous avons approfondi l’approche de « verifemmication ». Nous nous sommes mis dans la position des concepteurs de tels produits et nous nous sommes demandé quelles fonctionnalités supplémentaires nous intégrerions pour prévenir les risques identifiés dans la deuxième partie.
L.R : Et qu’en est-il des personnes qui portent ces lunettes ? Souhaiteriez-vous organiser aussi des groupes de test avec elles ? Et qu’en est-il des dynamiques socio-économiques, puisque ce produit est assez coûteux ?
A.K : Merci pour cette question. Plus je me penche sur ce sujet, plus je réalise que nous avons très peu de données brutes sur les interactions entre la personne qui utilise le produit et celles qui l’entourent. C’est pourquoi nous avons essayé d’intégrer cette perspective dans l’atelier en réalisant un questionnaire auprès d’une personne possédant ces lunettes. C’était très intéressant, car la personne était consciente de certains risques, tandis que pour d’autres, la réaction était : « Intéressant, je n’y avais pas pensé. » Cela montre clairement qu’il est nécessaire de sensibiliser le public aux risques potentiels associés à ce produit.
J’étais récemment à l’aéroport de Valence, et il y avait une boutique Ray-Ban où l’on vendait ces/cette paire de lunettes Meta AI. Il y avait de nombreux modèles. Il me semble que Ray-Ban et Meta cherchent constamment à améliorer ces produits, et que la meilleure version, selon eux, est celle qui intègre davantage de technologie d’IA. Mais pour moi, la meilleure version serait celle qui protège le mieux la vie privée.
L.R : Même si vous nous avez déjà donné beaucoup d’éléments, quels sont les principaux enseignements que vous retirez de cet atelier ?
A.K : En tant que chercheur·e, on peut parfois se sentir isolé·e. On travaille à l’université, souvent derrière un bureau, en lisant des articles théoriques. Or, lorsque nous étudions le droit, nous devons toujours le confronter à la pratique. L’atelier m’a montré que nous avons réellement besoin de davantage d’enseignements pratiques. Nous devons nous demander qui bénéficie des technologies, qui n’en bénéficie pas, quels en sont les avantages et les inconvénients, quels enjeux commerciaux existent, et comment les citoyens et les communautés seront affectés. La recherche doit adopter une approche plus éthique, incluant des tests en conditions réelles pour évaluer comment le droit pourrait fonctionner — ou non — puisqu’il s’applique essentiellement à la société. Nous devons donc intégrer ces perspectives sociétales dans la recherche.
Concernant l’atelier lui-même, une conclusion essentielle était qu’il serait pertinent de tester cette approche avec des groupes plus ciblés. Nous obtiendrions probablement des perspectives et retours différents si nous ne travaillions qu’avec des décideurs politiques, ou uniquement des chercheurs, ou uniquement des citoyens. Pour le moment, à ce stade initial, nous avons une vue d’ensemble de ce qu’est l’approche de « verifemmication » et de son potentiel bénéfice pour les citoyens. Mais pour être plus précis, il faudra la tester davantage avec des groupes ciblés afin d’obtenir des enseignements plus spécifiques.
L.R : Avez-vous rencontré des difficultés ?
A.K : Je ne dirais pas que j’ai rencontré de grandes difficultés, mais comme j’ai essayé d’organiser l’atelier dans un format hybride (en ligne et en présentiel), cela s’est révélé un peu ambitieux. Je souhaitais vraiment interagir avec tous les groupes, mais comme nous avions divisé les participant·e·s en deux groupes, je n’ai pas pu échanger autant que je l’aurais voulu avec chacun·e. À l’avenir, j’organiserai soit un atelier entièrement en présentiel, soit un atelier en ligne uniquement pour les participant·e·s ne pouvant être à Bruxelles. Je n’associerai plus ces deux formats.
L.R : Combien de temps a pris l’organisation de cet atelier ?
A.K : Cela ne m’a pas pris trop de temps grâce au soutien du CEH de FARI. Je dirais que j’y ai consacré entre cinq et huit heures au total. Nous avons commencé à organiser l’atelier un à deux mois à l’avance et tenu une réunion toutes les deux semaines avec les équipes de FARI (Alice Demaret). Ces réunions nous ont permis de suivre l’avancement, de donner des mises à jour, d’envoyer des invitations et de coordonner toutes les questions pratiques.
L.R : Et concernant la conception de la structure de votre atelier ?
A.K : Je dirais que la plupart des questions et du format étaient déjà prêts, car je les avais élaborés pour une précédente proposition de conférence qui a finalement été rejetée. Comme la proposition existait déjà, il m’a fallu environ deux heures pour l’adapter à cet atelier.
L.R : Allez-vous intégrer ces résultats dans votre thèse ou dans un article ?
A.K : J’aimerais vraiment intégrer ces enseignements dans ma thèse. Cependant, comme je l’ai mentionné, ma recherche n’est pas empirique mais théorique, et afin d’éviter toute contrainte administrative (par ex. devoir justifier la méthodologie ou le choix des participant·e·s), je prévois de résumer ces enseignements de manière générale dans un paragraphe. Ma thèse ne porte pas uniquement sur les lunettes Ray-Ban Meta : les questions que j’y aborde sont juridiques.
L.R : Seriez-vous intéressée par la rédaction d’un article sur le groupe de discussion ou par l’organisation de nouveaux ateliers ?
A.K : J’aimerais organiser davantage d’ateliers à l’avenir, car comme je l’ai expliqué, j’aimerais vraiment pouvoir tester cette approche auprès de groupes plus ciblés : uniquement des décideurs politiques, uniquement des chercheurs, ou uniquement des citoyens. Je souhaiterais recueillir des perspectives variées afin de développer une compréhension plus complète des défis et risques associés à ces produits d’IA.
L.R : Très bien, alors on se recontacte l’année prochaine ?
A.K : Oui, merci. Avec plaisir !
L.R : Quel conseil donneriez-vous aux chercheurs qui souhaitent intégrer la participation citoyenne dans leurs travaux ?
A.K : Que du positif ! Vous obtiendrez de nombreux enseignements précieux. Vous explorerez probablement une nouvelle dimension de votre recherche, car les chercheurs doivent, selon moi, rester connectés à la société et intégrer ces perspectives dans leur travail.
En ce qui concerne l’organisation de l’atelier, je dirais : « Tant que vous avez une idée concrète en tête, tout se passera bien. Et si vous bénéficiez du soutien de l’équipe FARI, vous vous sentirez en sécurité et épaulé·e. Vous n’êtes pas seul·e — et même si vous oubliez quelque chose, l’équipe de FARI vous aidera certainement. »
Partager
Autres actualité