Une initiative de

Soutenu par

Manifesto

Dernière mise-à-jour: Septembre 29, 2022

Manifeste : un institut de recherche sur l’IA pour le bien commun 

Résumé 

L’objectif de l’institut de recherche est de permettre, de promouvoir et de réaliser une excellente recherche interdisciplinaire sur l’intelligence artificielle à Bruxelles, inspirée par les valeurs humanistes de liberté, d’égalité et de solidarité qui sont à la base de la Vrije Universiteit Brussel (VUB) et de l’Université libre de Bruxelles (ULB), de renommée internationale et avec un impact local.

La recherche portera à la fois sur des travaux théoriques et des applications concrètes, en se concentrant sur l’avancement de l’IA, tout en s’engageant dans des initiatives locales, en relevant des défis européens et en collaborant avec un certain nombre de communautés de recherche similaires à l’échelle mondiale (par exemple, l’initiative CLAIRE).

Sur la base d’une expertise et de connaissances éthiques et juridiques, l’institut devrait repousser les limites de l’IA, en explorant les principaux aspects de l’intelligence à l’aide d’une ingénierie et d’une informatique de pointe. D’autre part, il s’agit d’étudier en profondeur les perturbations causées par le déploiement de systèmes d’IA dans le monde réel : l’automatisation des processus décisionnels humains aura un impact sur nos activités sociales et économiques quotidiennes, générant des questions liées aux inégalités, à la durabilité, aux préjugés ethniques, au respect de l’État de droit, ainsi que d’autres perturbations de notre tissu social.

L’institut a donc l’ambition d’intégrer les deux côtés de la médaille de l’IA en travaillant dès le départ au sein d’équipes de recherche pluridisciplinaires, en s’appuyant sur les sciences philosophiques, techniques, médicales, sociales et humaines, tout en s’engageant avec la société civile sur les algorithmes et les systèmes intelligents qui régissent nos activités quotidiennes.

L’excellence en matière d’intelligence artificielle à Bruxelles : Bruxelles n’est pas seulement un lieu stratégique pour les efforts de recherche de pointe en matière d’IA en raison de la présence des principales institutions européennes.  Les universités de la VUB et de l’ULB ont joué et jouent encore un rôle central dans l’histoire de ce domaine. Par exemple, cinq subventions du CER ont été accordées récemment à des chercheurs bruxellois actifs dans le domaine de la recherche en IA et plusieurs projets de recherche internationaux de pointe sont mis en œuvre par des groupes de recherche affiliés à la VUB et à l’ULB.

Les deux universités offrent les capacités, les compétences et les connaissances nécessaires à la recherche avancée dans ce domaine. Comme l’IA restera sous les projecteurs de l’UE au cours de la prochaine décennie, Bruxelles constitue la porte d’entrée idéale. L’institut de recherche se concentrera sur l’excellence radicale de l’IA, en s’appuyant sur les valeurs partagées par notre communauté de chercheurs, telles que le respect de l’environnement, des droits fondamentaux et de l’État de droit, l’équité, la transparence, la responsabilité et surtout la liberté académique. Au cœur de l’Europe, l’institut s’attachera, dès le départ, à mettre en place un réseau d’excellence international avec les initiatives qui, en Europe et ailleurs, poursuivent des objectifs similaires.

Animé par les valeurs fondamentales de l’ULB et de la VUB – liberté, égalité et solidarité – l’institut soulignera la nécessité de prendre en compte les implications des développements de l’IA sur notre société ainsi que les progrès et les droits individuels. La recherche axée sur les valeurs vise à produire des connaissances scientifiques pour l’IA qui soient justes, transparentes et responsables. En mettant en avant ces valeurs, l’institut s’engage à faire preuve de transparence à trois niveaux : en ce qui concerne son financement, la conception de ses recherches et l’impact sociétal qu’elles peuvent générer.

L’institut réunira des scientifiques, des universitaires, des décideurs politiques et des entreprises commerciales intéressés par l’IA et les développements conséquents liés aux infrastructures, aux services et aux dispositifs qui contribuent à l’autonomisation des individus sans perturber le bien commun, ouvrant ainsi la voie à une élaboration plus concrète d’une vision européenne de l’IA. Cela implique un engagement à mettre en œuvre les objectifs de développement durable (ODD) des Nations unies et une vision à long terme sur l’économie politique des écosystèmes axés sur les données, nourrissant une réflexion soutenue sur la refonte de la croissance économique et du bien-être sociétal de l’OCDE.

Cela alimente le choix des grands défis à relever par l’Institut, sur la base d’un dialogue réitéré sur les fondements et les articulations technologiques du contrat social dont nous dépendons.

Protection juridique dès la conception : l’institut étudiera comment la protection des droits fondamentaux et le respect de l’État de droit peuvent s’articuler dans l’architecture des applications d’IA. Cela implique l’impératif de traduire les droits et obligations juridiques tels que la vie privée, la liberté d’expression, la présomption d’innocence, le respect des procédures et la non-discrimination dans les infrastructures d’IA. Elle met également l’accent sur la participation des citoyens au déploiement de l’IA dans les administrations publiques, ainsi que sur l’impact de l’IA sur la séparation des pouvoirs au sein de l’État. Il s’appuie sur une expertise de longue date dans ce domaine, comme en témoigne la subvention avancée du CER sur ce sujet en relation avec les technologies juridiques et la chaire d’excellence du gouvernement français sur les réglementations algorithmiques.

Promouvoir l’enseignement pluridisciplinaire et l’apprentissage tout au long de la vie : l’institut alimente déjà un réservoir de connaissances techniques, sociales, médicales et juridiques et est en mesure de soutenir la formation d’une future génération de scientifiques, de décideurs et de praticiens qui ouvriront la voie à un développement durable et responsable de l’IA. Il étudiera et testera également de nouveaux moyens d’atteindre le grand public, étant entendu que le partage des connaissances est essentiel à l’autonomisation des individus et au progrès de la société, et qu’il cadre bien avec le groupe consultatif du secrétaire général de l’OCDE sur un nouveau modèle de croissance.

Comme point de référence de départ, l’institut suivra la définition de travail de l’intelligence artificielle de la Commission européenne : “des systèmes qui font preuve d’un comportement intelligent en analysant leur environnement et en prenant des mesures – avec un certain degré d’autonomie – pour atteindre des objectifs spécifiques”. L’IA est donc utilisée comme un terme générique pour la prise de décision algorithmique, le raisonnement automatisé, l’apprentissage automatique, la traduction automatique, le traitement du langage naturel, la vision par ordinateur, les agents artificiels, la robotique, etc.

 Quelles sont les valeurs qui motivent la recherche sur l’IA pour le bien commun ? 

Nous nous concentrons sur les valeurs des Lumières des universités VUB et ULB, ainsi que de la ville de Bruxelles : liberté, égalité et solidarité. Nous les définissons comme des “valeurs éclairées” pour souligner le besoin de transparence et de respect de l’être humain, qui sont essentiels au développement responsable de l’IA.

Cette transparence implique un engagement à travailler avec un code source ouvert lorsque cela est possible, à promouvoir les principes de l’Open Science / Open Data et à promouvoir la transparence dans nos collaborations avec les parties prenantes.

En ce qui concerne la “liberté”, nous ne devrions pas supposer que les applications de l’IA généreront naturellement la liberté et l’autonomie individuelles. Nous souhaitons poursuivre des recherches de longue date sur l’impact des applications de l’IA sur différents types de liberté : par exemple, la liberté de ne pas subir d’interférence (par exemple, l’interprétation classique du droit à la vie privée) ; la liberté de développer son identité (par exemple, en relation avec le droit à la non-discrimination, la liberté d’expression). D’autres types de liberté sont à discuter.

Quant à l’égalité, nous pouvons la comprendre comme un “statut égal” et la reconnaissance de la diversité. Nous ne devons pas supposer que les risques et les avantages de l’IA seront répartis de manière égale comme une évidence. Cela nécessitera une intervention active, (1) au niveau des stratégies de conception (par exemple, une informatique équitable, responsable et transparente), (2) au niveau d’une communauté diversifiée de chercheurs, et (3), au niveau de l’engagement de ceux dont la vie sera affectée par l’infrastructure ou les applications de l’IA de manière diversifiée.

Quant à la solidarité, elle signifie notre engagement face aux grands défis de la société et notre souci de traiter avec respect nos semblables et le monde dans son ensemble. Nous ne pouvons pas supposer que les solutions d’IA seront propices au bien public : nous poursuivrons des recherches de longue date sur la façon dont les systèmes de surveillance et les tentatives de modification du comportement des utilisateurs menacent l’autonomie individuelle ainsi que le contrat social lui-même. Ceci est lié à ce que l’on appelle les tragédies des biens communs qui sont causées par la maximisation de l’intérêt individuel, comme avec les systèmes de recommandation ou les systèmes de navigation. Introduire la solidarité dans un programme de recherche signifie s’engager à relever les grands défis auxquels la société est confrontée, tels que le changement climatique, le vieillissement de la population, l’augmentation des coûts de santé et l’explosion des inégalités sur le marché du travail. Bien que l’IA puisse apporter une partie de la réponse, nous devons intégrer les questions d’éthique et de sécurité soulevées par une dépendance accrue à l’égard des décisions algorithmiques, en les abordant au niveau de nos stratégies de conception.

Nous reconnaissons qu’il existe des tensions et des contradictions entre ces valeurs, car l’IA doit fonctionner dans des mondes complexes. Par conséquent, nous reconnaissons notre responsabilité en tant que chercheurs d’étudier comment gérer et expliquer ces conflits à chaque membre de cette société, et ce dans une perspective interdisciplinaire.

 Pourquoi une approche pluridisciplinaire ? 

L’IA est développée par des êtres humains, et nous devons veiller à ce que cela se fasse de manière réfléchie, éthique et démocratique. C’est pourquoi les disciplines techniques coopéreront avec des chercheurs en droit, en sciences sociales et en sciences humaines (y compris en sciences médicales), et impliqueront les personnes dont la vie sera affectée dans le processus de développement dès le début, en veillant à ce que les solutions technologiques résolvent des problèmes réels plutôt que de déployer ce qui soutient un modèle commercial à court terme. Cela renforcera la légitimité démocratique, tout en favorisant le type de transparence inhérent à notre engagement en faveur d’une IA éclairée.

Think tank : une vision européenne de l’IA 

L’approche pluridisciplinaire sera au cœur du groupe de réflexion qui fera partie du Centre. Comme nous reconnaissons que la technologie en elle-même n’est ni bonne ni mauvaise mais jamais neutre (loi de Kranzberg), nous devons développer une manière structurée d’évaluer les applications de l’IA au fur et à mesure qu’elles sont conçues et construites. Comme indiqué plus haut, nous pensons qu’il est crucial d’impliquer dans cette évaluation ceux qui vivront avec les conséquences de l’infrastructure de l’IA (évaluation technologique participative), tout en les impliquant dans le processus de conception (évaluation technologique constructive). Le groupe de réflexion se concentrera sur l’évaluation technologique constructive et participative, et produira des rapports pratiques sur la manière dont les citoyens comprennent, évaluent et recommandent les systèmes d’IA spécifiés.

De grands défis pour la société 

Les États-Unis et la Chine sont les leaders mondiaux dans le domaine de l’IA pour l’ensemble de l’écosystème, de la recherche à l’adoption par les entreprises. L’UE semble être à la traîne dans l’adoption des technologies intelligentes. Cela peut être lié au fait que les PME représentent 99 % de l’ensemble des entreprises de l’UE, car elles sont peut-être plus prudentes quant à l’intégration des technologies numériques : seule une PME sur cinq dans l’UE est hautement numérisée. Il s’agit peut-être en fait d’une caractéristique de l’économie européenne, et non d’un bug.

Notre institut s’efforcera de trouver des solutions visant à préserver les atouts de l’Europe, sans imiter le modèle américain et asiatique et sans présenter l’introduction de l’IA comme une course aux armements. L’UE se différencie des États-Unis et de la Chine par l’importance qu’elle accorde aux technologies durables, par exemple en adoptant un changement fondé sur l’innovation responsable. Dans le même ordre d’idées, les lignes directrices en matière d’éthique pour une IA digne de confiance du groupe d’experts de haut niveau sur l’éthique de l’IA présentent sept exigences clés qui soulignent la nécessité d’une IA centrée sur l’homme et prenant au sérieux les préoccupations en matière de vie privée, d’équité et de sécurité. Ces exigences clés sont les suivantes : agence et surveillance humaines, robustesse et sécurité techniques, vie privée et gouvernance des données, transparence, diversité, non-discrimination et équité, bien-être environnemental et sociétal et responsabilité. Ces exigences sont similaires à celles des robots collaboratifs et peuvent ouvrir la voie à un système de conformité international ambitieux dans le domaine de l’IA.

Il ne s’agit pas de subtilités “éthiques”, mais d’un renforcement de l’avantage concurrentiel de l’Europe par rapport aux marchés sous-réglementés et surréglementés.

Les grands défis que nous prévoyons sont les suivants :

  • Au niveau social et politique, comment concevoir des systèmes d’IA qui ne soient ni manipulateurs, ni créateurs de dépendance indésirable, mais qui favorisent au contraire les droits fondamentaux, l’État de droit et la démocratie ? Comment contrer les tentatives de leurrer les gens pour qu’ils acceptent la technologie et les faire participer à la reconstruction de leur environnement ?
  • Au niveau économique, comment assurer une répartition équitable des richesses dans un monde piloté par l’IA en accord avec les valeurs d’égalité et de solidarité ? Comment répartir les tâches entre les humains et les systèmes décisionnels de l’IA, tant au niveau des infrastructures que des applications, tout en tenant compte de la prévention des risques pour la sécurité ou des préjugés injustes ?
  • Au niveau environnemental, comment aligner la transition numérique qui accroît notre dépendance énergétique avec l’objectif de la transition environnementale ? Comment les systèmes d’IA peuvent-ils contribuer aux réseaux énergétiques intelligents et à l’utilisation à grande échelle des énergies renouvelables.
  • Au niveau juridique, comment repenser le cadre juridique qui façonne les marchés et les modèles commerciaux potentiels, notamment le droit de la concurrence, la responsabilité du fait des produits pour les systèmes d’IA et les exigences de certification telles que le label CE de l’UE ? Quelle normalisation devrait être développée et quel cadre juridique devrait être mis en place pour empêcher l’arrivée sur le marché de systèmes d’IA fondés sur une conception de recherche non fiable et non transparente, avec des effets potentiels sur la santé et la sécurité ?
  • Au niveau scientifique, comment faire la distinction entre la recherche exploratoire et la recherche confirmatoire, et répondre ainsi aux crises de reproductibilité et de crédibilité qui apparaissent dans la science pilotée par les données ?

De la recherche à la valorisation 

Enfin, pour servir au mieux la société et nourrir l’économie, nous pensons que la filière de la recherche et de l’innovation doit commencer par l’excellence au niveau des fondements des mathématiques, de l’informatique et, par exemple, de la théorie juridique et de la philosophie de la technologie. L’une de nos innovations incisives sera les interactions interdisciplinaires tant dans les recherches théoriques que dans les applications qui en découlent. Cela nous permettra également de situer les limites de l’innovation technique, évitant ainsi à la société d’investir dans des modèles commerciaux exagérés qui ne peuvent servir le bien commun.

La collaboration entre les différentes disciplines aura un impact sur les programmes d’enseignement existants et débouchera sur de nouveaux modules dans le cadre d’initiatives traditionnelles et nouvelles d’apprentissage tout au long de la vie, afin de former les employés de demain et d’améliorer les compétences de la main-d’œuvre actuelle (qu’elle soit employée ou non), qu’elle soit férue de technologie ou non.

L’intelligence artificielle et la robotique représentent un nouveau marché immense. Celui-ci donnera naissance à de nouveaux services reposant sur de nouveaux écosystèmes. La taille de ces marchés signifie que ces technologies sont en mesure de perturber et de transformer les économies et les sociétés existantes. Si nous voulons que l’IA intègre les valeurs de liberté, d’égalité et de solidarité dans ses produits et services, nous devons stimuler le type d’esprit d’entreprise qui amène ces initiatives de recherche et d’innovation sur le marché.

Par conséquent, les objectifs de l’institut doivent non seulement se concentrer sur la création et la stimulation de l’excellence par le biais d’activités de recherche interdisciplinaires, mais aussi sur le soutien de certaines réalisations dans des domaines où l’IA pour le bien commun peut avoir un impact à court et à long terme. Notre priorité est d’étudier et de soutenir ces initiatives économiques afin de contrôler et de vérifier si elles respectent certaines valeurs fondamentales et certains principes éthiques (comme la “vie privée”).

Afin de soutenir les initiatives gouvernementales, l’institut pourrait, d’autre part, collaborer à des solutions concrètes liées par exemple à la “mobilité intermodale”, à “l’affectation scolaire” et à “l’assistance aux personnes sans emploi”, ainsi qu’aux défis sociétaux liés à la diversité (programmes d’apprentissage multilingues), à la santé (prévention et soins) et à l’écologie (économie circulaire).

Tout ce qui précède sera au cœur du Centre, compte tenu de notre engagement envers la croissance du développement durable des Nations unies et de l’appel de l’OCDE en faveur d’un nouveau récit de la croissance – un engagement qui influencera également la manière dont nous collaborons avec le secteur privé.  

 

LISTE DES PRINCIPAUX GROUPES DE RECHERCHE ET DES REPRÉSENTANTS IMPLIQUÉS (ordre alphabétique)  

AI-lab (VUB): prof. Ann Nowé, prof. Geraint Wiggins, prof. Bernard Manderick, prof. Bart de Boer, … 

Brubotics (VUB): Prof. Bram Vanderborght, prof. Dirk Lefeber 

Control Engineering (ULB): Prof. Emanuel Garone 

ETRO (VUB): Prof. Adrian Munteanu, prof. Bart Jansen, prof. Jef Vandemeulebroucke 

IRIDIA (ULB):  Prof. Hugues Bersini & Marco Dorigo & Mauro Biratarri & Thomas Stuetzle 

LSTS RESEARCH GROUP (VUB): Prof. Mireille Hildebrandt  

Machine Learning Group (ULB): Prof. Tom Lenaerts and Prof. Gianluca Bontempi 

PERELMAN CENTRE (ULB): Prof. Gregory Lewkowicz & Benoît Frydman  

SMIT (VUB): Prof. Pieter Ballon, prof. An Jacobs  

Solvay Business School (ULB): Prof. Nicolas Van Zeebroek