Een initiatief van

Ondersteund door

Manifesto

Laatste update: September 29, 2022

Manifest: een onderzoeksinstituut naar AI voor het algemeen welzijn 

Samenvatting 

Het doel van het onderzoeksinstituut is het mogelijk maken, bevorderen en uitvoeren van excellent interdisciplinair onderzoek naar Kunstmatige Intelligentie in Brussel, geïnspireerd door de humanistische waarden van vrijheid, gelijkheid en solidariteit die aan de basis liggen van zowel de Vrije Universiteit Brussel (VUB) als de Université libre de Bruxelles (ULB), internationaal erkend en met een lokale impact.

Het onderzoek betreft zowel theoretisch werk als concrete toepassingen, gericht op de vooruitgang van AI, waarbij wordt samengewerkt met lokale initiatieven, Europese uitdagingen worden aangepakt en wordt samengewerkt met een aantal soortgelijke onderzoeksgemeenschappen op wereldschaal (bv. het CLAIRE-initiatief).

Op basis van ethische en juridische expertise en inzichten moet het instituut de grenzen van AI verleggen door de belangrijkste aspecten van intelligentie te onderzoeken met behulp van geavanceerde engineering en computerwetenschap, en anderzijds diepgaand onderzoek doen naar de verstoringen die worden veroorzaakt door de toepassing van AI-systemen in de praktijk: het automatiseren van menselijke besluitvormingsprocessen zal gevolgen hebben voor onze dagelijkse sociale en economische activiteiten en vragen oproepen in verband met ongelijkheid, duurzaamheid, etnische vooroordelen, respect voor de rechtsstaat en andere verstoringen van ons sociale weefsel.

Het instituut streeft er dus ambitieus naar beide zijden van de AI-medaille te integreren door van meet af aan in multidisciplinaire onderzoeksteams te werken, waarbij filosofische, technische, medische, sociale en menswetenschappen een rol spelen, maar ook met het maatschappelijk middenveld wordt overlegd over de algoritmen en intelligente systemen die onze dagelijkse activiteiten regelen.

Kunstmatige intelligentie in Brussel: Brussel is niet alleen door de aanwezigheid van de belangrijkste EU-instellingen een strategische locatie voor toonaangevend AI-onderzoek.  De universiteiten van de VUB en de ULB speelden en spelen momenteel een centrale rol in de geschiedenis van dit domein. Zo werden onlangs vijf ERC-beurzen toegekend aan Brusselse onderzoekers die actief zijn op het gebied van AI-onderzoek en worden verschillende baanbrekende internationale onderzoeksprojecten uitgevoerd door onderzoeksgroepen die verbonden zijn aan de VUB en de ULB.

Beide universiteiten beschikken over de nodige capaciteit, vaardigheden en kennis voor geavanceerd onderzoek op dit gebied. Aangezien AI de komende tien jaar in de schijnwerpers van de EU zal blijven staan, vormt Brussel de ideale toegangspoort. Het onderzoeksinstituut zal zich richten op radicale AI-expertise, gevoed door de gedeelde waarden van onze onderzoeksgemeenschap, zoals respect voor het milieu, grondrechten en de rechtsstaat, eerlijkheid, transparantie, verantwoordingsplicht en vooral academische vrijheid. In het hart van Europa zal het instituut zich van meet af aan richten op het opzetten van een internationaal topnetwerk met initiatieven binnen en buiten Europa die soortgelijke doelstellingen nastreven.

Gedreven door de kernwaarden van de ULB en de VUB – vrijheid, gelijkheid en solidariteit – zal het instituut de noodzaak benadrukken om na te denken over de gevolgen van AI-ontwikkelingen voor onze samenleving en individuele vooruitgang en rechten. Waardegedreven onderzoek heeft tot doel wetenschappelijke kennis voor AI te produceren die eerlijk, transparant en verantwoordelijk is. Door deze waarden te benadrukken, verbindt het instituut zich tot transparantie op drie niveaus: met betrekking tot zijn financiering, met betrekking tot zijn onderzoeksopzet en met betrekking tot de maatschappelijke impact die het kan genereren.

Het instituut zal wetenschappers, wetenschappers, beleidsmakers en bedrijven samenbrengen die geïnteresseerd zijn in AI en de daaruit voortvloeiende ontwikkelingen op het gebied van infrastructuur, diensten en apparaten die bijdragen tot individuele empowerment zonder het algemeen belang te verstoren, en zo de weg bereiden voor een concretere uitwerking van een Europese visie op AI. Dit houdt een verbintenis in om de VN-doelstellingen voor duurzame ontwikkeling (SDG’s) uit te voeren en een langetermijnvisie op de politieke economie van datagestuurde ecosystemen, die een duurzame reflectie op de heroverweging van economische groei en maatschappelijk welzijn door de OESO voedt.

Dit voedt de keuze van de grote uitdagingen die het instituut moet aangaan, op basis van een voortdurende dialoog over de grondslagen en de technologische articulatie van het sociale contract waarvan wij afhankelijk zijn.

Rechtsbescherming door ontwerp: het instituut zal onderzoeken hoe de bescherming van grondrechten en de eerbiediging van de rechtsstaat kunnen worden geïntegreerd in de architectuur van AI-toepassingen. Dit houdt in dat wettelijke rechten en verplichtingen zoals privacy, vrijheid van meningsuiting, vermoeden van onschuld, behoorlijke rechtsgang en non-discriminatie moeten worden omgezet in AI-infrastructuur. Ook wordt aandacht besteed aan burgerparticipatie bij de toepassing van AI in overheidsdiensten en aan de gevolgen van AI voor de scheiding der machten binnen de staat. Het bouwt voort op langdurige expertise op dit gebied, zoals blijkt uit de geavanceerde ERC-subsidie over dit onderwerp in verband met juridische technologieën en de leerstoel van excellentie van de Franse regering over algoritmische regelgeving.

Bevordering van interdisciplinair onderwijs en een leven lang leren: het instituut bevordert reeds een pool van technische, sociale, medische en juridische kennis en kan de opleiding ondersteunen van een toekomstige generatie wetenschappers, besluitvormers en praktijkmensen die de weg wijzen naar duurzame en verantwoorde AI-ontwikkeling. Het zal ook nieuwe manieren onderzoeken en testen om het bredere publiek te bereiken, in het besef dat het delen van kennis cruciaal is voor individuele empowerment en maatschappelijke vooruitgang en goed past bij de Adviesgroep voor een nieuw groeiverhaal van de secretaris-generaal van de OESO. 

Als uitgangspunt volgt het instituut de werkdefinitie van de Europese Commissie van kunstmatige intelligentie: “systemen die intelligent gedrag vertonen door hun omgeving te analyseren en actie te ondernemen – met een zekere mate van autonomie – om specifieke doelen te bereiken”. AI wordt dus gebruikt als overkoepelende term voor algoritmische besluitvorming, geautomatiseerd redeneren, machinaal leren, automatische vertaling, verwerking van natuurlijke taal, computervisie, kunstmatige agenten, robotica en meer.

Welke waarden sturen het onderzoek naar AI voor het algemeen welzijn? 

We focussen op de Verlichtingswaarden van de universiteiten VUB en ULB en van de stad Brussel: vrijheid, gelijkheid en solidariteit. We formuleren ze als ‘verlichte waarden’ om de noodzaak van transparantie en respect voor de mens te benadrukken, als kern van verantwoorde AI-ontwikkeling.

Deze transparantie houdt in dat we waar mogelijk met open source code werken, de Open Science / Open Data principes promoten en transparantie bevorderen in onze samenwerkingen met stakeholders.

Wat “vrijheid” betreft, moeten we er niet van uitgaan dat AI-toepassingen als vanzelfsprekend individuele vrijheid en autonomie zullen genereren. Wij willen het reeds lang bestaande onderzoek naar de gevolgen van AI-toepassingen voor verschillende soorten vrijheid voortzetten: bv. vrijheid van inmenging (bv. de klassieke interpretatie van het recht op privacy); vrijheid om zijn identiteit te ontwikkelen (bv. in verband met het recht op non-discriminatie, vrijheid van meningsuiting). Andere soorten vrijheid moeten worden besproken.

Wat gelijkheid betreft, kunnen we dit opvatten als “gelijke status” en de erkenning van diversiteit. We mogen er niet van uitgaan dat de risico’s en voordelen van AI als vanzelfsprekend gelijk zullen worden verdeeld. Dit vergt actieve interventie, (1) op het niveau van ontwerpstrategieën (bijv. eerlijke, verantwoordelijke en transparante gegevensverwerking), (2) op het niveau van een diverse gemeenschap van onderzoekers, en (3), op het niveau van het betrekken van degenen wier leven op uiteenlopende wijze zal worden beïnvloed door AI-infrastructuur of -toepassingen.

Wat solidariteit betreft: dit betekent onze inzet voor de grote maatschappelijke uitdagingen en onze zorg voor een respectvolle behandeling van onze medemensen en de wereld als geheel. Wij kunnen er niet van uitgaan dat AI-oplossingen het algemeen belang zullen dienen: wij zullen ons reeds lang bestaande onderzoek voortzetten naar de wijze waarop bewakingssystemen en pogingen om het gedrag van gebruikers te wijzigen een bedreiging vormen voor de individuele autonomie en voor het sociale contract zelf. Dit houdt verband met de zogenaamde tragedies of the commons die worden veroorzaakt door de maximalisering van het individuele belang, zoals bij aanbevelingssystemen of navigatiesystemen. De introductie van solidariteit als onderdeel van een onderzoeksagenda betekent engagement voor de grote maatschappelijke uitdagingen, zoals klimaatverandering, vergrijzing, stijgende gezondheidskosten en explosieve ongelijkheid op de arbeidsmarkt. Hoewel AI een deel van het antwoord kan zijn, moeten we zowel de ethische als de veiligheidskwesties die de toenemende afhankelijkheid van algoritmische besluitvorming oproept, integreren en aanpakken op het niveau van onze ontwerpstrategieën.

Wij erkennen dat er tussen deze waarden spanningen en tegenstrijdigheden bestaan, omdat AI in complexe werelden moet opereren. Daarom erkennen wij onze verantwoordelijkheid als onderzoekers om te onderzoeken hoe deze conflicten kunnen worden aangepakt en uitgelegd aan elk lid van deze samenleving, en dit vanuit een interdisciplinair perspectief.

Waarom een interdisciplinaire aanpak? 

AI wordt ontwikkeld door mensen en we moeten ervoor zorgen dat dit op een doordachte, ethische en democratische manier gebeurt. Daarom zullen technische disciplines samenwerken met onderzoekers uit het recht, de sociale en geesteswetenschappen (inclusief de medische wetenschappen) en zullen mensen wier leven zal worden beïnvloed van meet af aan bij het ontwikkelingsproces worden betrokken, zodat technologische oplossingen echte problemen oplossen en niet datgene uitrollen wat een businessmodel op korte termijn ondersteunt. Dit zal de democratische legitimiteit vergroten en tegelijkertijd het soort transparantie bevorderen dat inherent is aan ons streven naar verlichte AI.

Denktank: een Europese visie op AI 

De interdisciplinaire aanpak zal centraal staan in de denktank die deel zal uitmaken van het Centrum. Aangezien we erkennen dat technologie op zich noch goed noch slecht is, maar nooit neutraal (wet van Kranzberg), moeten we een gestructureerde manier ontwikkelen om AI-toepassingen te beoordelen terwijl ze worden ontworpen en gebouwd. Zoals hierboven aangegeven achten wij het van cruciaal belang dat degenen die met de gevolgen van de AI-infrastructuur zullen leven bij deze beoordeling worden betrokken (participatieve technologiebeoordeling), terwijl zij ook bij het ontwerpproces worden betrokken (constructieve technologiebeoordeling). De denktank zal zich richten op constructieve en participatieve technologiebeoordeling, wat resulteert in praktijkgerichte rapportage over de manier waarop burgers gespecificeerde AI-systemen begrijpen, evalueren en aanbevelen.

Grote uitdagingen voor de samenleving 

De Verenigde Staten en China zijn wereldleiders op het gebied van AI voor het hele ecosysteem, van onderzoek tot invoering door het bedrijfsleven. De EU lijkt achter te lopen bij de invoering van slimme technologieën. Dit kan verband houden met het feit dat het mkb 99% van alle bedrijven in de EU uitmaakt, aangezien het mkb wellicht voorzichtiger is bij de integratie van digitale technologieën: slechts één op de vijf mkb-bedrijven in de EU is sterk gedigitaliseerd. Dit kan in feite een kenmerk van de Europese economie zijn, en geen bug.

Ons instituut zal zich richten op oplossingen die gericht zijn op het behoud van de Europese sterke punten, zonder het Amerikaanse en Aziatische model te imiteren en zonder de invoering van AI af te schilderen als een wapenwedloop. Een belangrijk verschil met de VS en China is de nadruk die de EU legt op duurzame technologieën, bijvoorbeeld door veranderingen op basis van verantwoorde innovatie te omarmen. In dezelfde geest worden in de ethische richtsnoeren voor betrouwbare AI van de Groep deskundigen op hoog niveau inzake de ethiek van AI zeven belangrijke vereisten genoemd die de noodzaak onderstrepen van een mensgerichte AI die de zorg voor privacy, eerlijkheid en veiligheid serieus neemt. De belangrijkste vereisten zijn: menselijk gezag en toezicht, technische robuustheid en veiligheid, privacy en gegevensbeheer, transparantie, diversiteit, non-discriminatie en eerlijkheid, milieu- en maatschappelijk welzijn en verantwoordingsplicht. Deze eisen zijn vergelijkbaar met die voor collaboratieve robots en kunnen de weg vrijmaken voor een ambitieus internationaal systeem voor de naleving van de AI-regels.

Dit zijn geen “ethische” aardigheden, maar zullen het concurrentievoordeel van Europa vergroten ten opzichte van zowel onder- als overgereguleerde markten.

De centrale grote uitdagingen die wij voorzien zijn:

  • Hoe moeten we op sociaal en politiek niveau AI-systemen ontwerpen die niet manipulatief zijn en geen ongewenste afhankelijkheid creëren, maar in plaats daarvan grondrechten, de rechtsstaat en de democratie bevorderen? Hoe kunnen we pogingen om mensen te verleiden tot technologische acceptatie tegengaan en in plaats daarvan burgers betrekken bij de wederopbouw van hun omgeving?
  • Hoe kunnen we op economisch niveau zorgen voor een eerlijke verdeling van de rijkdom in een door AI aangedreven wereld, in overeenstemming met de waarden van gelijkheid en solidariteit? Hoe moeten we de taken verdelen tussen mensen en AI-beslissingssystemen op het niveau van zowel de infrastructuur als de toepassingen, rekening houdend met het voorkomen van veiligheidsrisico’s of oneerlijke vooroordelen?
  • Hoe kunnen we op milieugebied de digitale transitie die onze afhankelijkheid van energie vergroot, afstemmen op het doel van een ecologische transitie? Hoe kunnen AI-systemen bijdragen tot slimme energienetten en grootschalig gebruik van hernieuwbare energie?
  • Op juridisch niveau: hoe heroverwegen we het rechtskader dat de markten en potentiële bedrijfsmodellen vormgeeft, met name het mededingingsrecht, de productaansprakelijkheid voor AI-systemen en certificeringseisen zoals het CE-keurmerk van de EU? Welke normalisatie moet worden ontwikkeld en welk juridisch kader moet er komen om te voorkomen dat er AI-systemen op de markt komen die gebaseerd zijn op een onbetrouwbare en ondoorzichtige onderzoeksopzet met mogelijke gevolgen voor de gezondheid en de veiligheid?
  • Hoe kan op wetenschappelijk niveau onderscheid worden gemaakt tussen verkennend en bevestigend onderzoek, zodat de reproduceerbaarheid en de geloofwaardigheidscrisis die in de datagestuurde wetenschap ontstaan, worden aangepakt?

Van onderzoek tot valorisatie 

Om de samenleving zo goed mogelijk te dienen en ook de economie te voeden, geloven wij dat de onderzoeks- en innovatiepijplijn moet beginnen met uitmuntendheid op het fundamentele niveau van wiskunde, computerwetenschappen en bijvoorbeeld rechtstheorie en techniekfilosofie. Een van onze doorslaggevende vernieuwingen is de interdisciplinaire interactie bij zowel het theoretisch onderzoek als de daaruit voortvloeiende toepassingen. Dit zal ons ook in staat stellen de beperkingen van technische innovatie te situeren en zo te voorkomen dat de samenleving investeert in gehypete bedrijfsmodellen die het algemeen belang niet kunnen dienen.

De samenwerking tussen de verschillende disciplines zal haar weerslag hebben op de bestaande onderwijsprogramma’s en leiden tot nieuwe modules in zowel traditionele als nieuwe initiatieven voor levenslang leren om de werknemers van de toekomst op te leiden en de vaardigheden van de bestaande beroepsbevolking (werklozen en werkenden), al dan niet technologiebewust, te verbeteren.

Kunstmatige intelligentie en robotica vertegenwoordigen een immense nieuwe markt. Dit zal op zijn beurt leiden tot nieuwe diensten die voortbouwen op nieuwe ecosystemen. Door de omvang van deze markten kunnen deze technologieën de bestaande economieën en samenlevingen ontwrichten en transformeren. Als we AI willen die de waarden van vrijheid, gelijkheid en solidariteit in AI-producten en -diensten integreert, moeten we het soort ondernemerschap stimuleren dat deze onderzoeks- en innovatie-initiatieven naar de markt brengt.

Daarom moeten de doelstellingen van het instituut niet alleen gericht zijn op het creëren en stimuleren van excellentie door interdisciplinaire onderzoeksactiviteiten, maar ook op de ondersteuning van enkele realisaties in domeinen waar AI voor het algemeen welzijn zowel op korte als op lange termijn effect kan sorteren. Onze prioriteit is het onderzoeken en ondersteunen van deze economische initiatieven om te controleren en na te gaan of zij bepaalde fundamentele waarden en ethische beginselen (zoals “privé-leven”) respecteren.

Ter ondersteuning van overheidsinitiatieven zou het instituut anderzijds kunnen meewerken aan reële oplossingen in verband met bijvoorbeeld “intermodale mobiliteit”, “schooltaken” en “bijstand aan werklozen”, alsook aan maatschappelijke uitdagingen in verband met diversiteit (meertalige leerprogramma’s), gezondheid (preventie en zorg) en ecologie (circulaire economie).

Al het bovenstaande zal centraal staan in het centrum, rekening houdend met onze inzet voor de duurzame ontwikkelingsgroei van de VN en de oproep van de OESO voor een nieuw groeiverhaal – een inzet die ook de samenwerking met de particuliere sector ten goede zal komen.

LIJST VAN DE KERNONDERZOEKSGROEPEN EN DE BETROKKEN VERTEGENWOORDIGERS (alf. volgorde)

AI-lab (VUB): prof. Ann Nowé, prof. Geraint Wiggins, prof. Bernard Manderick, prof. Bart de Boer, … 

Brubotics (VUB): Prof. Bram Vanderborght, prof. Dirk Lefeber 

Control Engineering (ULB): Prof. Emanuel Garone 

ETRO (VUB): Prof. Adrian Munteanu, prof. Bart Jansen, prof. Jef Vandemeulebroucke 

IRIDIA (ULB):  Prof. Hugues Bersini & Marco Dorigo & Mauro Biratarri & Thomas Stuetzle 

LSTS RESEARCH GROUP (VUB): Prof. Mireille Hildebrandt  

Machine Learning Group (ULB): Prof. Tom Lenaerts and Prof. Gianluca Bontempi 

PERELMAN CENTRE (ULB): Prof. Gregory Lewkowicz & Benoît Frydman  

SMIT (VUB): Prof. Pieter Ballon, prof. An Jacobs  

Solvay Business School (ULB): Prof. Nicolas Van Zeebroek