Over robo rechters en artificiële argumenten

04 januari 2022 | AI, IT-recht

Artificiële Intelligentie (AI) baant zich al meerdere decennia een weg in onze maatschappij. Van slimme stofzuigers en virtuele personal assistants tot ijskasten even slim als de eigenaar. Door even rondom je te kijken is het niet moeilijk om vele use cases te zien waar AI de gebruiker op vrijwillige basis bijstaat. Maar AI is ook aanwezig in vele andere, meer verborgen domeinen: wat we te zien krijgen op onze social media, de voorstellen die we (al dan niet) krijgen tot kredietverlening en risicoverzekering…

Doet deze trend zich ook voor in het recht? De “legaltech” ervaring leert dat dit zeker het geval is voor de rechtspractici. Maar is dit ook het geval voor de rechtszoekende in de procesvoering?

Artificiële Intelligentie

Artificiële intelligentie kan het best worden omschreven als het computersysteem waardoor machines taken uitvoeren die doorgaans menselijke intelligentie vereisen. Spontaan denken we aan spraakherkenning, automatische grasmaaiers, de persoonlijk voorgestelde YouTube-video’s,…

Daar stopt het echter al lang niet meer. Dankzij AI kunnen robots en computers inspelen op hoe mensen denken en functioneren. Dit laat hen toe om zo bepaalde waarheden (of leugens) te ontdekken. Dat dergelijke vaardigheden, ook al komen ze van een machine, op deze manier een zeer handige tool zijn bij het voeren van je bewijs, lijkt evident.

Vandaag is het al mogelijk om vervormde vingerafdrukken te reconstrueren of de waarachtigheid van handtekeningen in enkele seconden te controleren. Dit lijkt in elk geval een correct gebruik dat de rechtszekerheid en procesafhandeling ten goede zou kunnen komen.

Explainable Artificial Intelligence

Het grootste probleem is vandaag nog steeds dat deze technologieën niet altijd even objectief of transparant zijn. Dit hangt af van de factor of de AI verklarend (XAI or Explainable Artificial Intelligence) is of niet.

Wanneer het wél zo is, dan zal de software haar volledige redenering uitschrijven. Of minstens de mogelijkheid daartoe aanbieden.

Stel dat het om een aanvraag tot merkbescherming gaat, dan zal de software zeggen waarom en aan welke voorwaarden al dan niet voldaan is, vooraleer haar oordeel te vellen.

Spontaan weergalmt de leuze “Justice must not only be done it must also seen to be done” in ieders hoofd.

Het bewijsrecht: buiten elke redelijke twijfel

Net zoals AI evolueert ook het recht (maar dan net iets minder snel). In 2019 werd de nieuwe wetgeving rond het bewijsrecht bekendgemaakt. Het hoofddoel was op te boksen tegen nieuwe technologische ontwikkelingen. Deze nieuwe regels traden op 1 november 2020 in werking.

De wetgever heeft hier een limitatief aantal bewijsmiddelen in het leven geroepen die toelaten feiten te kwalificeren. Dit zijn dan bijvoorbeeld onderhandse aktes of een buitengerechtelijke bekentenis.

Het belang van deze bewijsmiddelen zal afhangen van de context, de waarde en het voorwerp van het geschil.

Zo zal een geschil over een feitelijke handeling geraamd op 2.000 EUR  binnen een B2B context zich in een vrij bewijsstelsel afspelen. Dit betekent dat niet de wet, maar de rechter de waarde van de opgeworpen bewijsmiddelen zal bepalen.

Cruciaal is steeds dat elk bewijsmiddel geoorloofd verkregen is. Het moet op zich rechtmatig zijn en ook rechtmatig verkregen zijn. Hier kan alvast het schoentje wringen. Hoe betrouwbaar is immers een programma dat specifiek voor een zaak ontworpen werd door de eisende partij? Vragen rond objectiviteit en transparantie zullen dus zeer gedetailleerd moeten beantwoord worden opdat het aangevoerde bewijs kan worden aangenomen.

No soul in science – justitia ex machina?

De vraag rijst nu ook of de prille artificiële intelligentie kan meespelen binnen de werking van de magistratuur in haar rechtsprekende functie?

Rechtspreken vertrekt natuurlijk vanuit de wet, maar is toch ook een door en door diepmenselijke activiteit. Het is ondertussen wel duidelijk hoe veel AI kan verwezenlijken, maar de oprecht menselijke touch is toch iets dat ontbreekt. Slachtoffers zullen dan ook moeilijk aanvaarden dat een computer zich zal uitspreken over de schadevergoeding wegens letselschade nadat een persoon verlamd is door een tragisch ongeval. De rechterlijke orde zou in de media compleet als inhumaan afgeschreven worden moest een computer zelfstandig beslissen welke ouder exclusief en autonoom gezag verwerft over zijn of haar kind.

Zoals het er vandaag naar uitziet, zal de essentiële rol van de rechter dus onaangetast blijven en mogelijks zelfs aantrekkelijker worden. De rechter zal zich voor minder uitdagende en vaak ook aanslepende en repetitieve aspecten van de job immers kunnen laten bijstaan door de AI. Op basis van bepaalde feiten die de rechter ingeeft kan een algoritme uit een database van voorgaande uitspraken immers een voorstel tot nieuwe uitspraak vormen. Voor een mens neemt dit proces al snel vele mandagen in beslag, maar met de hulp van AI zou dit naar enkele minuten kunnen verkort worden.

Essentieel is dus ook dat artificiële intelligentie zich moet baseren op voorgaande uitspraken om zelf ook een uitspraak te kunnen genereren. Nieuwe uitdagingen zullen dus voor menselijke rechters voorbehouden blijven, net zoals nieuwe inzichten voor bestaande uitdagingen.

Menselijke fouten: getraind door AI?

En wringt daar net niet het schoentje? Want wat gebeurt er wanneer de AI keer op keer opnieuw de perfecte voorbereiding van een vonnis maakt, en de rechter dit enkel nog moet “bekrachtigen”?

Creëren we dan niet het risico van het automatisme, waarbij de rechter na tientallen evenwichtige en billijke vonnissen die voorbereid werden door de AI, een nieuw voorstel tot vonnis als té vanzelfsprekend en met onvoldoende kritische blik gaat “autoriseren”?

Een eerlijk proces?

Een ander probleem is de verenigbaarheid met de processuele beginselen en de mensenrechten. Artikel 6 EVRM garandeert voor elke burger een eerlijk proces. Dit houdt onder andere in dat de uitspraak toegankelijk en gemotiveerd is. Een uitspraak is pas gemotiveerd wanneer ze onder andere een dispositief bevat. Dit zijn de redenen voor het vellen van een vonnis of arrest. Opdat AI bruikbaar zou zijn in de rechterlijke functie, zal ze dus volledig verklarend moeten zijn!

In goed afgebakende en eerder technische rechtsdomeinen (denk bv. aan verkeersovertredingen) zou de AI al volledig zelfstandig tot een uitspraak kunnen komen. Zelfs hier zal dit nochtans moeilijk kunnen gelegitimeerd worden. Volgens artikel 6 EVRM moet een rechter immers onafhankelijk en onpartijdig de beslissing vormen. De rechter mag zich dus niet laten beïnvloeden door andere personen of zaken en neemt een neutrale beslissing. We kunnen dus wel al met vrij veel zekerheid aannemen dat een rechter nooit gebonden zal zijn door de uitkomst van het voorspellende algoritme. Het pleidooi voor een fundamenteel recht op menselijke tussenkomst bij de uitspraak klinkt recent dan ook steeds luider.

Conclusie

Tot op welke hoogte de rechter zich in de toekomst zal kunnen laten bijstaan door AI, is een vraag die enkel het Europees Hof voor de rechten van de mens met zekerheid zal kunnen beantwoorden.

Hou daarbij rekening dat de gemiddelde leeftijd van de magistraat vandaag betekent dat deze generatie al volledig was opgeleid toen de informatiemaatschappij nog maar sterk op gang kwam. Vaak hebben zij dan ook weinig tot geen vertrouwen in de technische revolutie. De AI zal dan ook al bijzonder sterk verklarend moeten zijn, wil ze de argwaan kunnen overwinnen.

XAI is hot vandaag, maar het is tegelijk een noodzakelijke voorwaarde voor de developers om überhaubt iets te kunnen verwezenlijken dat een maatschappelijke impact heeft buiten hun R&D laboratoria. Bij vragen hierover kan je ons steeds contacteren via hallo@dejuristen.be.

Geschreven door Charles Deberdt, Trainee deJuristen, en Kris Seyen, Partner deJuristen

Onze diensten

Information Technology

Intellectuele Eigendom

Privacy

e-Compliance