Betrouwbare AI-systemen – toelichting ethische richtlijnen

18 april 2019 | AI, IT-recht

18/04/2019

Een week geleden heeft de AI-expertisegroep van de EU nieuwe richtlijnen voor betrouwbare artificiële intelligentie bekendgemaakt. Deze nieuwe richtlijnen zijn bedoeld om de ontwikkeling en het gebruik van betrouwbare kunstmatige intelligentie te bevorderen. Hieromtrent worden in de richtlijnen een aantal basisprincipes uitgewerkt waarmee AI-systemen te allen tijde rekening moeten houden.

Hoewel deze richtlijnen niet juridisch bindend zijn, zullen ze zeker en vast een belangrijke rol spelen in het toekomstbeeld van AI in de EU. Hun impact en inhoud wordt hieronder verder toegelicht. Als bijlage bij de richtlijnen heeft de expertisegroep ook de definitie van AI-systemen verder verduidelijkt.

1. AI-richtlijnen

Met de publicatie van deze richtlijnen profileert de EU zich verder als leider op vlak van AI. Door de focus te leggen op de ethische aspecten van AI, neemt de EU het voortouw en onderscheidt ze zich van de landen en organisaties met een verschillend AI-beleid. Dergelijke Richtlijnen zijn nodig. Het is niet ondenkbaar dat sommige landen progressief wensen in te zetten op AI-technologie voor militaire doelstellingen. Denk maar aan de huidige ontwikkelingen op het vlak van dodelijke autonome wapensystemen (DAWS). Het filmpje in de link illustreert de potentiële gevaren van deze AI-systemen.

AI-systemen

Om dergelijke situaties te voorkomen is er nood aan een aantal duidelijke afspraken. De Richtlijnen vormen hiertoe een zeer goede aanzet. Als men betrouwbare AI-systemen tot stand wilt brengen moeten deze systemen robuust en wettig zijn en moeten zij zich houden aan bepaalde ethische principes.

2. Objectief en inhoud richtlijnen

Objectief

Het objectief van de richtlijnen is de promotie van betrouwbare AI-systemen. Om te kunnen spreken van een betrouwbaar AI-systeem, moeten dit systemen voldoen aan drie voorwaarden. Zo moet het systeem:

  • alle toepasselijke wetten en regelgeving naleven;
  • handelen in overeenstemming met bepaalde ethische waarden en principes;
  • robuust zijn (zowel vanuit een sociaal als technisch perspectief)

Het begrip AI-systemen moet daarbij ruim worden geïnterpreteerd. Het gaat om systemen die de beste actie kunnen kiezen om een bepaald doel te bereiken, rekening houdend met bepaalde criteria en beperkte middelen. Het kan daarbij om zuivere software gaan, alsook om fysieke machines die aangestuurd worden door AI-software.

De richtlijnen zelf vormen een kader voor de twee laatste voorwaarden (i.e. ervoor zorgen dat de AI-systemen ethisch en robuust zijn)

Inhoud Richtlijnen

De richtlijnen zijn onderverdeeld in drie hoofdstukken en kennen een gelaagde aanpak.

In een eerste hoofdstuk wordt dieper ingegaan op de funderingen van een betrouwbare AI. Zo identificeert de groep van experten de ethische principes waaraan moet voldaan zijn om te kunnen spreken van een ethische en robuuste AI. Concreet gaat het om:

  • Respect voor de menselijke autonomie: AI-systemen mogen niet ontwikkeld worden met het doel mensen te onderwerpen, te dwingen of te manipuleren. Integendeel: AI moeten mensen ondersteunen en hun cognitieve, sociale en culturele skills aanscherpen.
  • Het voorkomen van schade: AI-systemen mogen er niet op voorzien zijn om schade toe te brengen aan mensen. Schade moet hierbij ruim worden geïnterpreteerd. Het gaat hierbij zowel om schade aan de fysieke en mentale integriteit als schade aan de menselijke waardigheid.
  • Eerlijkheid: Eerlijkheid veronderstelt een gelijke en billijke verdeling van de voordelen en kosten van AI-systemen en waarborgt dat individuen en groepen vrij zijn van vooroordelen, discriminatie en stigmatisatie. Ook houdt het gelijke mogelijkheden in wat betreft toegang tot onderwijs, goederen, diensten en technologie.
  • Verklaarbaarheid: De beslissingen van een AI-systeem en de achterliggende processen moeten in zekere mate transparant zijn en over de capaciteiten en doeleinden van zulke systemen moet men open communiceren naar de betrokkenen. Dit is van belang bij black-box systemen, waarbij een uitleg voor de uitkomst van een beslissingsproces niet altijd beschikbaar is.

In een tweede hoofdstuk worden zeven concrete voorwaarden opgesomd om te kunnen spreken van een betrouwbare AI:

  • Menselijk toezicht en autonomie: Gebruikers moeten in staat zijn om een AI-systeem in zekere mate te begrijpen, te beoordelen en in vraag te stellen. Het principe van autonomie betekent dat AI-systemen vrij moeten zijn van oneerlijke manipulatie en misleiding. Dit kan verwezenlijkt worden door menselijke interventie en controle bij het nemen van beslissingen in te bouwen.
  • Technische robuustheid en veiligheid: Onbedoelde en onverwachte schade moet zo veel mogelijk worden voorkomen. Daartoe moet het systeem en bv. de achterliggende servers voldoende beveiligd zijn tegen aanvallen van personen met kwade bedoelingen. Ook moeten er processen aanwezig zijn waarop men kan terugvallen in geval van een storing. Robuustheid impliceert ook accurate resultaten die reproduceerbaar en betrouwbaar zijn.
  • Privacy en gegevensbeheer: de persoonsgegevens van een gebruiker alsook de afgeleide informatie mag niet onrechtmatig gebruikt worden bv. voor oneerlijke discriminatie. De kwaliteit van de gebruikte dataset is daarbij van essentieel belang met het oog op het vermijden van fouten en vooroordelen in het beslissingsproces.
  • Transparantie: de beslissingen en achterliggende processen zouden begrijpelijk en traceerbaar moeten zijn. Hiertoe kan men de processen documenteren. De beschikbare uitleg moet in proportie staan met de betrokkene (leek, onderzoeker, toezichthouder). AI-systemen mogen zichzelf ten aanzien van gebruikers niet als echte mensen voordoen. Gebruikers hebben dus het recht om te weten dat ze met een AI-systeem communiceren.
  • Diversiteit, non-discriminatie en eerlijkheid: Oneerlijke vooringenomenheid van een AI-systeem kan leiden tot discriminatie ten aanzien van bepaalde groepen. Het is aan te raden dat AI-systemen worden opgebouwd door individuen met een diverse achtergrond. De AI-systemen moeten universeel toegankelijk zijn en mogen geen diensten weigeren aan mensen met een bepaalde kenmerken. Het kan dan bijvoorbeeld gaan om geslacht of leeftijd. Een concreet toepassingsgeval van dit topic werd onlangs beschreven door de New York Times. Concreet werd een minderheidsgroep in het oog gehouden door middel van algoritmes die gebaseerd zijn op gezichtsherkenning en AI-systemen. Het spreek voor zich dat zulke technologie risico’s met betrekking tot privacy en discriminatie kan teweegbrengen ten aanzien van de leden van deze groep.
  • Welzijn van de maatschappij en de omgeving: AI-systemen moeten uiteindelijk gebruikt worden om voordelen te bieden aan iedereen, bijvoorbeeld door bij te dragen aan de bescherming van de omgeving en de duurzame ontwikkelingsdoelstellingen. De impact op de maatschappij, democratie en verkiezingen moet zorgvuldig opgevolgd en onderzocht worden.
  • Verantwoording (accountability): De ontwikkelaars en afnemers van AI-systemen kunnen bij deze vereiste maatregelen nemen die waarborgen dat de nodige verantwoording wordt genomen voor AI-systemen en dit doorheen de hele levenscyclus van het systeem. Dit kan door periodieke audits en rapporteringsverplichtingen uit te werken. Conflicten tussen bepaalde vereisten zoals veiligheid en autonomie moeten op een evenwichtige en redelijke wijze worden afgehandeld. Indien er onrecht voorkomt, moeten de verantwoordelijken de nodige remedies ter beschikking stellen.

Om de bovenstaande voorwaarden te implementeren, kan men zowel van technische als niet- technische methodes gebruikmaken.

In een derde hoofdstuk werd een niet exhaustieve ‘Thrustworthy AI Assessment List’ uiteengezet. Deze checklist is gebaseerd op de hierboven vermelde principes en moet bedrijven helpen om betrouwbare AI-systemen te ontwikkelen en te evalueren. Voorgaande Assessment List is slechts een eerste versie en zal op termijn verder worden verfijnd. In dit kader zullen wellicht enkele sectorspecifieke assessments uitgewerkt worden, bijvoorbeeld voor de transportsector, de gezondheidssector en de onderwijssector.

3. Next steps

Met dit algemeen ethisch kader wordt het voor ondernemingen mogelijk in te zetten op betrouwbare AI-systemen. De eerste versie van de richtlijnen bevat een vragenlijst die in de toekomst verder verfijnd zal worden. We kunnen volgend jaar dan ook een evaluatierapport van deze richtlijnen verwachten. Het is niet ondenkbaar dat in de toekomst sectorspecifieke richtlijnen en vragenlijsten zullen worden ontwikkeld.

Rekening houdend met deze ethische vereisten zal het in de toekomst van cruciaal belang zijn dat zowel de privé- als de publieke sector voldoende investeren in AI-systemen en zich voorbereiden op de socio-economische veranderingen. Daarbij speelt de ambitieuze doelstelling om vanaf 2020 jaarlijks 20 miljard euro in AI en aanverwante technologie te investeren. De Europese Commissie zal in dit verhaal een leidende rol spelen in het kader van het Gecoördineerde Plan voor Artificiële Intelligentie. Momenteel is de eerste fase van het plan in voege tot 2020. De volgende fasen die de stappen tot 2027 zullen verduidelijken, zullen in de toekomst uitgewerkt worden. De huidige versie van het plan is online beschikbaar.

Bij deJuristen volgen we de laatste ontwikkelingen op gebied van AI op de voet. Bij vragen hierover kan u ons steeds contacteren via contact@dejuristen.be .

 

Geschreven door Ivan Verstraeten en Mathias Baert

Onze diensten

Information Technology

Intellectuele Eigendom

Privacy

e-Compliance