Gendergelijkheid, ook voor AI?

08 maart 2021 | AI, IT-recht, Nieuws

De International Women’s Week zet heel wat maatschappelijke uitdagingen rond gendergelijkheid in de spotlights. We denken dan spontaan aan hoe onze maatschappij georganiseerd is, en hoe onze persoonlijke en professionele intermenselijke relaties verlopen. Maar wat met AI systemen? Gaat artificial intelligence verstandiger om met onze diep ingebakken vooringenomenheid?

Algoritmische vooringenomenheid

Exact een jaar geleden publiceerde de Europese Commissie haar whitepaper over artificiële intelligentie, waarin ze benadrukt dat betrouwbaarheid een eerste vereiste is voor de invoering van digitale technologie. De roep om een “ethische” AI klinkt dan ook steeds luider.

In deze context verwondert het dan ook niet dat algoritmische vooringenomenheid als een groot risico wordt gezien dat het vertrouwen in dergelijke AI toepassingen ernstig ondermijnt. Nochtans is AI standaard en inherent bevooroordeeld, omdat de werking ervan gebaseerd is op gegevens en regels die door mensen worden ingevoerd en gedefinieerd.

Vanwaar komt deze vooringenomenheid, en hoe uit zich dat in de AI toepassingen? Om te beginnen kunnen de gegevens die worden gebruikt om AI te trainen, feitelijk onjuist, onvolledig of vertekend zijn. Bovendien kan het algoritme dat door de AI wordt gebruikt, zodanig zijn ontwikkeld dat het meer gewicht toekent aan bepaalde gronden voor discriminatie, zoals afkomst, of ja inderdaad: geslacht. Dit heeft natuurlijk een grote betekenis wanneer mensen worden onderworpen aan geautomatiseerde besluitvorming door de AI-toepassing. Indien deze vooringenomenheid niet tijdig wordt gecorrigeerd, kunnen dergelijke beslissingen ongetwijfeld leiden tot discriminatie. En in de mate dat ze betrekking hebben op het geslacht, een feitelijke ongelijkheid tussen de behandeling van mannen en vrouwen bestendigen.

Een discriminerende AI kan bijvoorbeeld ontstaan doordat de toepassing hoofdzakelijk is getraind met gegevens van mannen, en daarom geen optimale resultaten oplevert voor vrouwen.

Ook AI moet gemonitored worden!

Artificial intelligence staat in zijn huidige toepassing gelukkig al een stuk verder dan het oude concept van de “black box”. Het is dan ook van belang, om vooringenomenheid te voorkomen, om de AI-toepassingen die men wil inzetten goed te controleren, en nadien ook regelmatig te evalueren. Zij evolueren immers mee naarmate zij meer data verwerken.

Twee zaken zijn daarbij van cruciaal belang:

  • Aangezien AI de opvattingen en waarden weerspiegelt van de ontwikkelaars ervan, moeten we ons bewust zijn van de culturele normen en waarden van deze ontwikkelaars, en moeten we beoordelen of deze verzoenbaar zijn met de eigen normen en waarden, waaronder gendergelijkheid. Diversiteit op de werkplaats zelf kan daarvoor reeds een belangrijke toetssteen zijn;
  • De AI zal bovendien gebruik maken van data, en de beschikbaarheid en geschiktheid van deze data zal kritisch moeten geëvalueerd worden zodat via deze weg geen vooringenomenheid in het systeem sluipt.

Conclusie

Omdat dit allemaal nog niet wettelijk geregeld is, moeten de rechten en plichten van partijen die afspraken maken over AI-toepassingen gebaseerd worden op onderlinge overeenkomsten. In deze contractuele voorwaarden moeten dan ook afspraken gemaakt worden rond transparantie, aansprakelijkheid voor gebreken (en de erkenning dat vooringenomenheid een gebrek kan zijn) en audits.

Afspraken maken over aansprakelijkheid voor gebreken is bijvoorbeeld van belang voor het geval de gegevens die zijn gebruikt om de AI te trainen, gebrekkig zijn of het gebruikte algoritme niet goed functioneert. Een auditclausule moet bepalen hoe de correcte werking van de AI wordt gewaarborgd indien de beslissingslogica van de AI niet voldoende transparant is.

Heb je twijfels hoe je je eigen vereisten en de ethische richtsnoeren voor AI van de EU kan toepassen op je overeenkomsten? Raadpleeg onze specialisten via hallo@dejuristen.be.

Geschreven door Jolien Beyens, Sarah Dello, Duygu Öztürk, Sofie Moore, (Senior) Legal Advisers deJuristen en Larissa De Keyser, Emma Platevoet en Camille Duysburgh, Trainees deJuristen

Onze diensten

Information Technology

Intellectuele Eigendom

Privacy

e-Compliance