Auteur
Kenneth Hannaert, Laura Jousset
La Conférence FARI Bruxelles 2025 qui s’est tenue les 17e et 18e novembre, a marqué la quatrième édition de cet événement phare dédié à l’intelligence artificielle (IA), aux données et à la robotique au service du bien commun. Pendant deux jours, aux Studios Flagey (Journée de conférence, le 17e novembre) et à BeCentral (Journée des partenaires, le 18e novembre), la conférence a rassemblé chercheurs, décideurs politiques, entrepreneurs et citoyens afin d’explorer différentes questions autour du thème de cette année : « L’IA, les Robots, & Nous : Vivre avec des Agents Intelligents ? ».
Cette édition 2025 s’est concentrée sur la présence croissante des systèmes d’IA et des agents robotiques dans la vie quotidienne – des tâches domestiques et des services publics à la découverte scientifique, aux soins de santé et même à la sécurité. Les participants ont été invités à réfléchir à ce qui définit un « agent », à ce que signifie partager nos environnements avec eux, et à la manière de garantir que cette transition technologique reste compatible avec les valeurs démocratiques, la sécurité, et l’éthique.
Au cours d’une dizaine de sessions, plus de 800 participants et 26 intervenants ont pris part à la conférence de cette année, illustrant l’intérêt croissant pour une IA et une robotique responsables à Bruxelles et au-delà.
Ces dernières années, FARI – AI for the Common Good, un institut de recherche conjoint dirigé par la Vrije Universiteit Brussel (VUB) et l’Université Libre de Bruxelles (ULB), s’est positionné comme un acteur clé dans le rapprochement entre la recherche, les administrations publiques, l’industrie et les citoyens autour d’une IA, de données et d’une robotique dignes de confiance.
Avec les avancées de l’IA, des données et de la robotique, les questions relatives à leurs impacts éthiques et sociétaux se multiplient. La Conférence FARI Bruxelles visait à offrir une plateforme de réflexion critique, en rassemblant les participants afin de construire une communauté de pratique fondée sur le dialogue, l’apprentissage partagé et la collaboration. En 2025, la conférence a poursuivi cette mission en créant un espace d’échange et de réflexion collective sur la manière dont les agents intelligents peuvent être développés et gouvernés, de façon à servir la société dans son ensemble avec les humains, tout en soulevant des questions liées à l’autonomie, à la responsabilité et au contrôle.
La conférence de cette année a été rendue possible grâce au précieux soutien de nos sponsors et partenaires, parmi lesquels Wallonie Bruxelles International ; visit.brussels avec la STIB/MIVB ; lifetech.brussels (hub.brussels) ; BruBotics (Vrije Universiteit Brussel) ; l’Ambassade britannique ; Red Hat ; EY et Fulbright. Nous avons également bénéficié de partenariats médiatiques avec BRUZZ et la RTBF.

© Thierry Geenen
La première journée de la Conférence FARI Bruxelles 2025 aux Studios Flagey s’organisait en plusieurs séances plénières articulées autour du thème « L’IA, les Robots, & Nous : Vivre avec des Agents Intelligents ? ». Tout au long de la journée, des experts en informatique, robotique, droit, sciences sociales, éthique et politiques publiques ont partagé leurs perspectives sur la manière dont les agents intelligents transforment nos sociétés.
L’atmosphère à Flagey était à la fois réflexive et concrète : au-delà des présentations, les participants ont pris part à des sessions de questions-réponses, à des échanges informels et à des moments de réseautage, reliant différentes communautés autour de préoccupations communes concernant l’avenir que nous construisons avec, et à travers, les agents intelligents.
Nous avons eu l’honneur d’ouvrir la journée par un mot de bienvenue de Carl Morch, co-directeur de FARI, suivi de l’intervention de Marius Gilbert, vice-recteur à la Recherche et à la Valorisation et vice-recteur à la Culture et à la Médiation scientifique de l’Université Libre de Bruxelles, qui a mis en lumière la forte collaboration entre l’ULB et la VUB. Nous avons également eu le plaisir d’accueillir Anne Sherriff, ambassadrice britannique en Belgique, qui a officiellement lancé l’événement et donné le ton des échanges.
Comme lors des éditions précédentes, la conférence 2025 a été rythmée par des conférences plénières portées par des voix internationalement reconnues dans les domaines de l’IA, de la robotique, de l’éthique, de la culture et des politiques publiques. Bien que issues de disciplines différentes, elles ont convergé vers un message commun : les agents intelligents doivent rester au service des personnes et de l’intérêt général, et non l’inverse.
Les sessions plénières ont invité les participants à dépasser l’engouement autour de l’IA et de la robotique pour se concentrer sur des capacités concrètes, leurs limites et les arbitrages qu’elles impliquent. Les intervenants ont examiné dans quels domaines les agents intelligents peuvent contribuer de manière pertinente à relever des défis sociétaux, où ils risquent d’introduire de nouvelles formes de dépendance ou d’exclusion, et dans quels cas le choix de ne pas déployer certains systèmes peut constituer l’option la plus responsable.
Une autre réflexion clé de la journée a été la nécessité d’un contrôle démocratique et d’une implication citoyenne. De la conception des algorithmes à leur déploiement dans les villes, les lieux de travail ou les institutions publiques, les conférenciers ont souligné que les questions de pouvoir, de représentation et de voix sont centrales. Les agents intelligents devraient renforcer le jugement humain et la prise de décision collective, et non les remplacer.
La conférence a débuté par une session plénière inspirante de Marion Carré, suivie d’un spotlight talk de Martin Isaksson, qui ont tous deux donné le ton de la journée. Après le lunch, le professeur renommé Arvind Narayanan a prononcé sa conférence plénière.
Marion Carré, fondatrice d’Ask Mona, travaille à l’intersection de l’art et de l’IA en créant des outils permettant aux visiteurs de « dialoguer » avec des œuvres. Ces dix dernières années, les systèmes de traitement du langage naturel (NLP) et d’IA générative proposés par Ask Mona ont été adoptés par de grandes institutions – des services touristiques français au Musée national des beaux-arts du Québec, en passant par le Château de Versailles. Ces outils facilitent l’accès des visiteurs de tous horizons aux questions, à l’apprentissage et à la création de liens durables avec les musées. S’appuyant sur sa formation en sciences humaines et sur son dernier ouvrage, Marion a réfléchi au rôle croissant de l’IA dans la vie quotidienne et a mis en garde contre un modèle de « tapis roulant » favorisant la vitesse, la dépendance et la standardisation des contenus. Elle a au contraire défendu une approche de « tapis de course » qui préserve l’effort, l’esprit critique, la diversité et l’action humaine grâce à une meilleure compréhension de la conception et des usages des systèmes d’IA.

© Thierry Geenen
Martin Isaksson, responsable GTM chez Red Hat, a présenté la vision de l’entreprise en matière d’IA souveraine – des systèmes alignés sur les lois, les valeurs et les intérêts stratégiques propres à un État ou à une organisation, plutôt que fondés sur des modèles étrangers opaques. Il a souligné que l’IA est passée d’une course à la vitesse à une question de contrôle et de confiance, les gouvernements exigeant de plus en plus de transparence dans l’entraînement des modèles et leur gouvernance. Selon lui, l’IA souveraine nécessite la capacité d’exécuter des modèles partout, sur tout type de matériel, avec une sécurité « zero trust » et de fortes capacités locales, le tout reposant sur l’open source. La pile modulaire d’IA souveraine de Red Hat permet aux organisations d’exploiter efficacement des modèles open source à grande échelle, leur offrant la possibilité de passer du statut de consommatrices de modèles à celui de véritables fournisseuses de modèles, en gardant le contrôle de leurs données, de leurs modèles et de leur infrastructure. Il a conclu en soulignant que l’IA souveraine consiste à s’approprier l’innovation – et non à la restreindre – et a invité les participants à poursuivre cette discussion.
Arvind Narayanan, professeur d’informatique à l’université de Princeton et co-auteur de l’ouvrage AI Snake Oil, a analysé les raisons pour lesquelles les agents d’IA basés sur des LLM échouent souvent, ainsi que les domaines dans lesquels ils réussissent réellement. Il a soutenu que la plupart des déploiements d’agents – qu’il s’agisse d’achats en ligne, de support client ou même d’automatisation scientifique – restent en deçà des attentes en raison d’un écart entre capacités et fiabilité, d’interfaces faibles et de tentatives d’automatiser des tâches qui ne nécessitent pas d’automatisation. Il a cité l’ingénierie logicielle comme un cas de réussite réel, bien que précoce, dans lequel les agents viennent augmenter le travail des développeurs, à la manière de collègues juniors rapides, plutôt que de les remplacer. Arvind a insisté sur l’importance de concevoir des agents pensés pour la collaboration humaine et a prédit une transformation progressive des flux de travail sur une décennie, plutôt qu’une automatisation soudaine des emplois.

© Thierry Geenen
Le professeur Tom Lenaerts (directeur académique de FARI) a ouvert la session consacrée aux « agents d’IA dans un monde de LLM », en lançant une discussion explorant les perspectives philosophiques, éthiques et techniques des systèmes d’IA autonomes. Le philosophe Xabier Barandiaran a averti que les agents basés sur des LLM sont des interlocuteurs « morts-vivants » agissant dans notre société fondée sur le langage, nous faisant passer d’une économie de l’attention à une économie de l’intention et soulevant des questions urgentes quant au contrôle de cette nouvelle forme d’agentivité automatisée. L’éthicien de l’IA James Wilson a soutenu que les agents amplifient à la fois les opportunités et les risques, en soulignant les coûts environnementaux, les enjeux de sécurité et le danger de déshumanisation du travail lorsque l’IA se contente d’accélérer la « vitesse d’exécution » des entreprises sans repenser les emplois autour de l’épanouissement humain. La chercheuse Zhijing Jin a présenté ses travaux sur les LLM causaux et moraux, développant des « scientifiques » en IA pour une inférence causale rigoureuse et auditant les modèles afin d’identifier les biais autoritaires, le révisionnisme historique et les menaces pesant sur la démocratie. Les intervenants ont échangé et convenu que la technologie seule ne peut résoudre ces défis : une gouvernance démocratique, des cadres réglementaires, des initiatives d’IA ouvertes et publiques, ainsi que des valeurs fondamentales partagées (telles que les droits humains) sont essentielles pour garantir que les agents d’IA restent alignés avec la société plutôt que de remplacer l’action humaine.

© Thierry Geenen
La professeure Ann Nowé (directrice académique de FARI) a modéré une session consacrée aux « bonnes et mauvaises pratiques » de la collaboration entre humains, IA et robots, réunissant des points de vue issus du monde académique, des grandes entreprises technologiques et des administrations publiques. Le roboticien Tony Belpaeme a montré comment les robots évoluent de tâches purement physiques vers des rôles profondément sociaux, en mettant en lumière des lacunes techniques (telles qu’une mauvaise reconnaissance vocale pour les langues non anglaises et les voix atypiques), ainsi que la promesse et l’ambiguïté éthique liées à l’utilisation de robots compagnons pour lutter contre la solitude. Sasha Vezhnevets, de Google DeepMind, a retracé le passage d’une IA axée sur la maximisation des récompenses à des modèles de fondation imprégnés de culture humaine, affirmant que les futures IA « agentiques » devraient être régies par des normes sociales, des conventions et des critères de pertinence, plutôt que par un objectif universel unique d’alignement. Francesco Raffaele Ferri a décrit comment la région d’Émilie-Romagne utilise d’importantes capacités de calcul public et un jumeau numérique (« Amartya ») pour simuler les inégalités et les impacts des politiques publiques. Il a partagé les résultats d’un test interne d’un copilote d’IA montrant des gains d’efficacité significatifs pour des tâches bien définies, mais aussi des effets potentiellement négatifs sur la créativité et la performance en cas de mauvaise utilisation. Lors de la session de questions-réponses, intervenants et public ont débattu du rôle de l’IA dans la solitude, de la propriété des données, du bien-être des travailleurs et des inégalités, en soulignant la nécessité d’une gouvernance démocratique et d’infrastructures publiques européennes en matière d’IA afin que ces technologies servent réellement le bien commun.
Cette session consacrée à la « simulation et à l’imagination d’une société avec des agents d’IA », animée par le professeur Geoffrey Aerts (directeur académique de FARI), a examiné les opportunités et les risques aux niveaux technique, institutionnel et géopolitique. Jordi Cabot (LIST) a souligné que les systèmes multi-agents sont en pleine émergence, mais que les LLM restent biaisés, culturellement limités et gourmands en ressources, appelant à la mise en place d’audits de biais, à un meilleur soutien des langues européennes à faibles ressources et à une gouvernance claire de la prise de décision entre humains et IA. Katrīna Kūkuma a présenté les expérimentations d’IA menées par le conseil municipal de Riga, en présentant l’IA comme une transformation systémique plutôt que comme une solution clé en main. Elle a insisté sur l’importance de la maturité des données et des technologies, du renforcement des capacités au sein des départements en complément des équipes centrales, ainsi que sur le rôle central des citoyens en tant que moteurs de l’innovation. Un autre axe important des discussions a porté sur l’accès : qui a la possibilité de concevoir, d’étudier et de bénéficier des agents intelligents ? Les intervenants ont souligné la nécessité de disposer de données ouvertes et de haute qualité, d’infrastructures partagées et d’opportunités de formation inclusives afin que les petites organisations, les institutions publiques, et la société civile puissent elles aussi expérimenter l’IA et la robotique et s’y engager de manière critique.
Lors de cette dernière session plénière consacrée à la « régulation et à la gouvernance des agents d’IA et robotiques », modérée par le professeur Gregory Lewkowicz (directeur académique de FARI), le panel a examiné si les cadres juridiques actuels permettent de réguler les agents d’IA et robotiques émergents et comment le contrôle démocratique devrait orienter leur utilisation. Ronald Leenes (Tilburg University) a soutenu que l’IA brouille la frontière entre les humains et les produits, appelant à une régulation à plusieurs niveaux axée sur la conception, la responsabilité et l’intégration de normes sociales. Jarmo Eskelinen (Data-Driven Innovation Initiative) a souligné que les villes ont besoin de règles contextuelles définissant quand l’IA peut être utilisée, tout en garantissant une prise de décision humaine dans les domaines sensibles. Claudia Chwalisz (DemocracyNext) a mis en avant le fait que la gouvernance de l’IA constitue un défi démocratique nécessitant l’implication des citoyens et de nouveaux modèles de gouvernance des données. Elle a insisté sur l’importance de lignes directrices pratiques et sectorielles, notant que différents types d’agents requièrent des formes de supervision adaptées plutôt que de nouvelles lois générales. Enfin, Patrice Latinne (EY) a évoqué l’autonomie croissante des systèmes d’IA et de robotique et la nécessité de les gouverner dès leur conception, avec un contrôle humain clair et des règles fondées sur les risques afin de garantir la sécurité et la confiance.
Fondateurs de FARI et professeur à l’ULB, Hugues Bersini a fait ses adieux au monde académique, en mettant l’accent sur la nécessité d’une IA démocratique. Revenant sur des années de travail à l’intersection des algorithmes et de la vie publique, il a mis en garde contre la fusion croissante du pouvoir algorithmique et du pouvoir politique, susceptible d’éroder le contrôle démocratique et de concentrer le pouvoir si elle n’est pas encadrée. À l’aide d’exemples concrets issus de la crise du COVID-19 (systèmes de vaccination, codes QR), des inscriptions scolaires, de la mobilité à Bruxelles et des communautés énergétiques locales, il a plaidé pour que les algorithmes qui gouvernent notre vie quotidienne soient considérés comme des biens communs numériques, conçus et supervisés collectivement par des experts techniques, des spécialistes de domaine, des citoyens tirés au sort et, lorsque nécessaire, des responsables politiques élus. Il a rappelé la mission de FARI consistant à développer une IA au service du bien commun à l’échelle locale à Bruxelles et a appelé à une coopération renforcée entre les universités et les administrations publiques afin de déployer concrètement ces outils. Lors de la session de questions-réponses, il a également soulevé les enjeux environnementaux liés aux grands modèles de langage (LLM), appelant à la retenue et à une réflexion critique sur leurs usages.

© Thierry Geenen
Ce moment a également été l’occasion de remercier Hans De Canck, cofondateur et ancien codirecteur de FARI. Il a conclu en réaffirmant l’engagement de FARI en faveur de la transparence, de la collaboration et d’un progrès technologique responsable.
Collaboration pour une gouvernance éthique de l’IA
Dans ses mots de clôture, la directrice générale de FARI, Karen Boers, a réaffirmé la mission de FARI consistant à faire progresser l’IA, les données et la robotique au service du bien commun en créant des ponts entre la recherche, les administrations publiques, l’industrie et les citoyens. Elle a également évoqué les prochaines étapes, et en particulier le lancement du Public Interest AI Network, invitant les partenaires à rejoindre une communauté mondiale en pleine expansion dédiée à l’IA au service de l’intérêt public.
Les discussions de 2025 ont confirmé qu’aucun acteur ne peut, à lui seul, façonner l’avenir des agents intelligents. Les panels consacrés à la gouvernance multipartite ont mis en évidence la coopération nécessaire entre citoyens, entreprises, chercheurs, administrations publiques et organisations internationales.
Des exemples ont montré comment les méthodes participatives, le dialogue civique et les processus de co-création peuvent contribuer à définir des usages acceptables de l’IA et de la robotique, soutenir un contrôle partagé et instaurer une confiance durable dans les transitions technologiques.
La conférence s’est poursuivie le 18 novembre avec la Journée des partenaires à BeCentral, coorganisée avec de nombreux partenaires et axée sur des sessions d’approfondissement, des ateliers et des formats plus pratiques et collaboratifs.
Tout au long de la journée, partenaires et participants ont exploré, à travers des ateliers et des sessions ciblées, des applications concrètes des agents intelligents dans des secteurs tels que l’administration publique, la mobilité, la santé, le développement urbain durable et la participation démocratique. Les discussions ont porté sur la manière dont les villes et les régions expérimentent des outils fondés sur l’IA, sur la façon dont les infrastructures de données sont conçues et gouvernées, ainsi que sur la manière dont les organisations peuvent développer des capacités internes pour travailler avec l’IA, les données et la robotique de manière responsable.

© Thierry Geenen
Au fil de la journée, les échanges ont abordé un large éventail de thématiques pratiques et liées aux politiques publiques : comment élaborer des stratégies d’IA responsables au sein des organisations ; comment mettre en œuvre concrètement des bacs à sable réglementaires en matière d’IA ; ce que signifie la « sécurité de l’IA » lorsqu’elle est envisagée sous l’angle de l’intérêt public ; et comment la coopération internationale peut renforcer une IA digne de confiance au-delà des frontières. Les participants ont également exploré la gouvernance des données et les espaces de données afin de permettre de meilleurs services publics, débattu de l’impact de l’IA sur les processus démocratiques, examiné la coopération et l’interopérabilité entre humains, IA et robots, et étudié des trajectoires d’innovation concrètes – allant d’applications en healthtech combinant IA et robotique à des pitchs d’accélérateurs transformant des idées en solutions concrètes.
La Journée des partenaires a été coorganisée avec un groupe diversifié de partenaires organisateurs, parmi lesquels le Knowledge Centre Data & Society ; l’AI Office, CybeRights et l’Université de Bologne (EUSAIR) ; le Global AI Policy Research Network (représenté par la Delft University of Technology et l’Uniarts Research Institute) ; la Délégation du Québec en Belgique ; The Data Tank ; BUDA ; Make.org ; NASK et le Łukasiewicz – Poznań Institute of Technology (projet INVEST) ; lifetech.brussels ; et BruBotics (laboratoire de recherche de la VUB). Des sessions supplémentaires ont été coorganisées avec le Public Interest AI Network et la Fulbright Alumni Association of Belgium (FAAB), aux côtés de FARI – AI for the Common Good Institute (ULB & VUB).

© Thierry Geenen
Les sessions de la Conférence FARI Bruxelles 2025 ont soulevé un certain nombre de questions :
– Vivre avec des agents intelligents : À mesure que les systèmes d’IA et les robots s’intègrent dans les foyers, les rues, les institutions et les lieux de travail, comment définir les rôles que nous sommes à l’aise de leur confier – et quelles responsabilités doivent rester strictement humaines ?
– Démocratie et agentivité : Comment garantir que le déploiement des agents intelligents renforce la participation démocratique, plutôt que de permettre de nouvelles formes de surveillance, de nudging ou de concentration du pouvoir ?
– Sécurité, robustesse et confiance : Quelles garanties techniques, organisationnelles et juridiques sont nécessaires pour assurer que les agents intelligents se comportent de manière fiable, puissent être contestés lorsque nécessaire et restent sous un contrôle humain effectif ?
– Durabilité et ressources : Les agents intelligents dépendent des données, de l’énergie et des infrastructures. Comment les concevoir et les utiliser de manière à soutenir la durabilité environnementale et sociale, plutôt qu’à accroître la pression sur les ressources ?
– Inclusion et justice : Qui participe aux décisions concernant les lieux et les modalités d’utilisation des agents intelligents ? Comment éviter que ces technologies n’aggravent les inégalités existantes ou ne créent de nouvelles formes d’exclusion ?
– Créativité humaine et autonomie : À mesure que les agents intelligents assistent un nombre croissant de tâches cognitives et créatives, comment préserver des espaces pour la curiosité humaine, l’expérimentation et la dissidence — et éviter de traiter des questions sociales complexes comme de simples problèmes d’optimisation ?
Pendant deux jours, experts, décideurs politiques, praticiens et citoyens se sont penchés sur un défi central : quel avenir partagé souhaitons-nous construire avec les agents intelligents, et à quelles conditions ? Les réflexions et les rencontres de la Conférence FARI Bruxelles 2025 constituent une base essentielle pour façonner des technologies qui soutiennent les droits humains, la justice sociale et le développement durable, à Bruxelles et au-delà.
Les enregistrements des sessions de la première journée de conférence sont disponibles sur la chaîne YouTube de FARI, permettant à un public plus large de revoir les débats et de poursuivre la conversation.
FARI continuera à travailler avec ses partenaires et ses communautés afin de transformer sa vision d’une IA, de données et de la robotique au service du bien commun en projets concrets, en lignes directrices et en opportunités d’apprentissage — et de veiller à ce que, à mesure que les agents intelligents s’intègrent dans notre vie quotidienne, ils le fassent d’une manière qui serve véritablement nos sociétés.
Nous nous réjouissons de vous retrouver en 2026 pour de nouvelles discussions et avancées — restez à l’écoute et inscrivez-vous à notre newsletter afin de ne pas manquer les prochaines opportunités de vous connecter à nos communautés lors de nos événements et activités.

© Thierry Geenen
Partager
Autres actualité