L’intelligence artificielle (IA) fait son entrée dans notre société depuis plusieurs décennies. Des aspirateurs intelligents aux assistants personnels virtuels, jusqu’aux réfrigérateurs aussi intelligents que leurs utilisateurs En regardant autour de soi, il n’est pas difficile de voir de nombreux cas d’utilisation où l’IA assiste l’utilisateur sur une base volontaire. Mais l’IA est également présente dans de nombreux autres domaines, plus cachés: ce que nous voyons sur nos médias sociaux, les propositions que nous recevons (ou ne recevons pas) en matière d’assurance-crédit et d’assurance-risque…

Cette évolution est-elle également présente dans le droit? L’expérience des « legaltech » montre que c’est certainement le cas pour les praticiens du droit.Mais est-ce également le cas pour le justiciable?

Intelligence Artificielle

L’intelligence artificielle peut être décrite comme le système informatique par lequel les machines exécutent des tâches qui demandent habituellement l’intelligence humaine. Spontanément, nous pensons à la reconnaissance vocale, aux tondeuses à gazon automatiques, aux suggestions personnelles de vidéos sur YouTube,…

Mais il ne s’arrête pas là. Grâce à l’IA, les robots et les ordinateurs sont capables d’anticiper la façon dont les gens pensent et fonctionnent. Cela leur permet de découvrir certaines vérités (ou mensonges). Il semble évident que de telles compétences, même si elles proviennent d’une machine, sont un instrument très utile pour prouver ses arguments.

Aujourd’hui, il est déjà possible de reconstituer des empreintes digitales déformées ou de vérifier la véracité de signatures en quelques secondes. Cela semble être une utilisation correcte qui pourrait être bénéfique pour la sécurité juridique et le traitement des procédures.

L’intelligence artificielle explicable

Le problème principal aujourd’hui est encore que ces technologies ne sont pas toujours objectives ou transparentes. Cela dépend du fait que l’IA soit explicative (XAI ou – Explainable Artificial Intelligence) ou non.

Si c’est le cas, le software écrira l’intégralité de son raisonnement. Ou au moins offrir la possibilité de le faire.

Imaginons qu’il s’agisse d’une demande de protection de marque, le logiciel dira pourquoi et quelles conditions sont remplies ou non, avant de rendre un jugement.

Spontanément, le slogan « La justice ne doit pas seulement être rendue, elle doit également paraître comme étant rendue » résonne dans l’esprit de chacun.

Le droit de la preuve: au-delà du doute raisonnable

Comme l’IA, le droit évolue également (mais à un rythme plus modéré). En 2019, une nouvelle législation sur le droit de la preuve a été annoncée. L’objectif principal était de faire face aux nouveaux progrès technologiques. Ces nouvelles règles sont entrées en vigueur le 1er novembre 2020.

Le législateur a créé un nombre exhaustif de moyens de preuve pour qualifier les faits. Il s’agit, par exemple, de documents privés ou d’un aveu extrajudiciaire.

L’importance de ces moyens de preuve dépendra du contexte, de la valeur et de l’objet du conflit.

Par exemple, un litige concernant un acte réel d’une valeur de 2 000 euros dans un contexte B2B se déroulera dans un système de preuve libre. Cela signifie que ce n’est pas la loi, mais le juge qui déterminera la valeur des preuves fournies.

Ce qui est crucial, c’est que tout moyen de preuve soit obtenu légalement. Elle doit être légale en soi et avoir été obtenue légalement. C’est là que le bât blesse. Après tout, quelle est la crédibilité d’un programme spécialement conçu pour une affaire par le plaignant? Les questions d’objectivité et de transparence devront donc trouver des réponses très détaillées pour que les preuves utilisées soient acceptées.

Pas d’âme dans la science – justitia ex machina ?

La question se pose maintenant de savoir si l’intelligence artificielle en développement peut jouer un rôle dans le fonctionnement de la magistrature dans sa fonction judiciaire?

Juger est, bien sûr, fondé sur la loi, mais c’est aussi une activité profondément humaine. Il est devenu évident que l’IA peut accomplir beaucoup de choses, mais la vraie touche humaine est quelque chose qui manque. Les victimes auront du mal à accepter qu’un ordinateur décide de l’indemnisation des dommages corporels après qu’une personne ait été paralysée dans un accident tragique. Si un ordinateur décidait de lui-même quel parent a la garde exclusive et autonome de son enfant, le système judiciaire serait décrié par les médias comme étant totalement inhumain.

Ainsi, dans la situation actuelle, le rôle essentiel du juge ne sera pas affecté et pourrait même devenir plus attrayant. Pour les aspects moins difficiles et souvent répétitifs du travail, le juge pourra être assisté par l’IA. Sur la base de certains faits saisis par le juge, un algorithme peut proposer une nouvelle décision à partir d’une base de données de décisions antérieures. Pour un être humain, ce processus peut facilement prendre plusieurs jours-homme, mais avec l’aide de l’IA, il pourrait être réduit à quelques minutes.

Il est donc essentiel que l’intelligence artificielle s’appuie sur des jugements antérieurs pour générer ses propres jugements. Les nouveaux problèmes resteront donc réservés aux juges humains, tout comme les nouvelles idées pour les problèmes existants.

L’erreur humaine: formée par l’IA?

Et n’est-ce pas là que le bât blesse? Car que se passe-t-il lorsque l’IA prépare encore et encore un jugement parfait, et que le juge n’a plus qu’à le « confirmer »?

Ne créons-nous pas alors un risque d’automatisme, par lequel, après des dizaines de jugements équilibrés et équitables préparés par l’IA, le juge  » autorise  » une nouvelle proposition de jugement comme trop évidente et avec un regard insuffisamment critique?

Un procès équitable?

Un autre problème est la compatibilité avec les principes procéduraux et les droits de l’homme. L’article 6 de la CEDH garantit un procès équitable à tout citoyen. Cela implique, entre autres, que le jugement doit être accessible et motivé. Un arrêt n’est motivé que s’il contient, entre autres, un dispositif. Ce sont les motifs d’un jugement ou d’une décision. Pour que l’IA soit utile dans la fonction judiciaire, elle doit donc être pleinement explicative!

Dans des domaines juridiques bien définis et plutôt techniques (par exemple, les infractions au code de la route), l’IA pourrait déjà prendre une décision de manière totalement autonome. Toutefois, même dans ce cas, il sera difficile de légitimer cette décision. Après tout, selon l’article 6 de la CEDH, un juge doit prendre sa décision de manière indépendante et impartiale. Le juge ne peut donc pas être influencé par d’autres personnes ou affaires et prend une décision neutre. Nous pouvons donc déjà supposer avec un bon degré de certitude qu’un juge ne sera jamais lié par le résultat de l’algorithme prédictif. Récemment, le plaidoyer pour un droit fondamental à l’intervention humaine dans le processus décisionnel est devenu de plus en plus fort.

Conclusion

Dans quelle mesure le juge pourra-t-il être assisté par l’IA à l’avenir est une question à laquelle seule la Cour européenne des droits de l’homme pourra répondre avec certitude.

N’oubliez pas que l’âge moyen des magistrats d’aujourd’hui signifie que cette génération était déjà bien formée lorsque la société de l’information n’en était qu’à ses débuts. Par conséquent, ils ont souvent peu ou pas de foi dans la révolution technique. L’IA devra être extrêmement explicative si elle veut vaincre leur suspicion.

Le XIA est en vogue aujourd’hui, mais c’est aussi une condition préalable pour que les développeurs puissent réaliser quoi que ce soit ayant un impact social en dehors de leurs laboratoires de recherche et développement. Si vous avez des questions à ce sujet, veuillez nous contacter à hallo@dejuristen.be.

Rédigé par Charles Deberdt, stagiaire deJuristen, et Kris Seyen, associé deJuristen

Nos services

Technologie de l’information

Propriété intellectuelle

Vie privée

e-Compliance