Une personnalité artificielle, capable de penser et de prendre des décisions. Cette définition de l’intelligence artificielle rend difficile l’attribution d’une qualification juridique adéquate à celle-ci. Qu’en est-il de l’attribution de la responsabilité juridique ? Qu’en est-il de l’attribution de la responsabilité pour les dommages causés par l’utilisation de l’IA ? En résumé, l’IA et les robots devraient-ils avoir des droits et des obligations ?
Personnalité juridique
Actuellement, les robots sont qualifiés d' »objets légaux ». En effet, ils ne peuvent être considérés comme des personnes physiques ou morales. Après tout, ils n’ont pas d’état, d’équité, de capacité ou de responsabilité. Les robots doivent-ils avoir une personnalité juridique ? Est-il possible de donner la personnalité juridique à des objets afin qu’ils puissent agir dans des transactions juridiques avec leurs propres droits et obligations ?
Pour l’instant, pas du tout. La possibilité de donner une identité à un objet est inexistante dans le droit belge et européen. Néanmoins, elle est à l’étude. Par exemple, la robot Sophiaa déjà obtenu le statut de citoyenne en Arabie Saoudite.
En 2018, le Parlement européen envisageait déjà de donner aux robots la personnalité électronique, un statut juridique similaire à celui des êtres humains. Le Parlement a écrit dans une résolution que les robots devraient être (partiellement ou totalement) responsables de leurs actions. Dans ce cas, les robots seraient dotés de la personnalité juridique, uniquement pour pouvoir agir dans les affaires judiciaires. À cet égard, ils pourraient agir en tant que demandeurs ou défendeurs.
Les experts en robotique, intelligence artificielle, droit, sciences médicales et éthique le déconseillent fortement. En effet, en attribuant la personnalité juridique à l’IA, les fabricants et autres acteurs pourraient échapper à leurs responsabilités légales, ce qui pourrait conduire à des abus.
Responsabilité
Les implications éthiques de l’IA sont étroitement liées à la responsabilité. Par exemple, qui est responsable en cas d’accident avec un véhicule autonome ?
En vertu de la loi belge relative à la responsabilité du fait des produits défectueux, le fabricant est objectivement responsable des dommages causés par un produit défectueux. Un robot, avec sa qualification actuelle d’objet juridique, relève en tout cas du champ d’application de la loi sur la responsabilité du fait des produits défectueux. La responsabilité du gardien de l’objet défectueux (article 1384, premier alinéa du code civil) peut également être invoquée. C’est là le problème pour les propriétaires ou les fabricants de robots : après tout, un robot peut causer des dommages par une décision autonome. Le propriétaire ou le producteur ne semble pas avoir de rapport avec cela. Le robot est-il nécessairement défectueux ? Ce raisonnement plaide en faveur de l’attribution d’une personnalité électronique, bien sûr, mais crée une contradiction frappante : après tout, les robots se verraient attribuer des droits et des devoirs en vue de protéger les droits des personnes.
Culpabilité
Que se passerait-il maintenant si les robots étaient qualifiés de sujets de droit à l’avenir ? Les régimes existants pourraient-ils encore être appliqués à l’époque ? Il ne semble pas facile de tenir un robot responsable sur la base de l’article 1382 du code civil, puisque l’élément subjectif de l’erreur doit être présent. En effet, pour qu’un acte soit qualifié de fautif, il faut que son auteur soit coupable au moment de la demande et que l’acte lui soit imputable.
C’est promis, c’est la dernière question : les robots peuvent-ils être coupables ? En d’autres termes, sont-ils conscients de leurs actions et ont-ils le contrôle nécessaire sur celles-ci ?
Le débat social sera long à venir. Si vous avez des questions à ce sujet, vous pouvez toujours nous contacter via hallo@dejuristen.be.
Rédigé par Emiel Koonen, Legal Adviser lesJuristes, et Kris Seyen, Partner lesJuristes