L’Estonie souhaite utiliser l’intelligence artificielle pour créer un robot qui rendra des verdicts dans des litiges mineurs. Il analysera les informations fournies par les parties pour rendre un verdict qui sera supervisé par un juge humain. Ce système verra le jour fin 2019.

« La création de l’intelligence artificielle serait le plus grand évènement de l’histoire de l’humanité. Mais il pourrait aussi être l’ultime (…) une telle forme d’intelligence pourrait s’émanciper et même améliorer sa propre conception à une vitesse croissante. Les humains, limités par leur évolution biologique lente ne pourraient rivaliser, et seraient détrônés ». C’est ainsi que Stephen Hawkins, célèbre astrophysicien, décrivait les risques de l’intelligence artificielle. Ainsi comme tout danger, il convient de l’encadrer juridiquement au risque qu’un scénario à la Black Mirror voit le jour.

Qu’est-ce que l’intelligence artificielle ?

Tout d’abord, il convient de définir l’intelligence artificielle (IA). Ce concept est né en 1950 avec l’article d’Alan Turing, Computing Machinery and Intelligence, qui soulève la question de l’intelligence des machines. Le mathématicien décrit alors un test connu sous le nom « Test de Turing » dans lequel un sujet interagit à l’aveugle avec un autre être humain, puis avec une machine programmée pour formuler des réponses sensées. Si le sujet n’est pas capable de faire la différence alors la machine a réussi le test et est considérée comme « intelligente ». 

L’auteur distingue deux types d’IA : l’IA faible et l’IA forte.  La première reconstitue et amplifie les capacités cognitives de l’Homme afin d’exécuter de manière performante et autonome les tâches déterminées pour lesquelles elle a été programmées, comme la calculatrice pour les formules mathématiques, Shazam pour la reconnaissance de musique ou encore l’IA des jeux vidéo. Laseconde, quant à elle, serait dotée de conscience, éprouverait des sentiments et comprendrait ce qui la pousse à faire telle ou telle action. Elle est également appelée cognition artificielle : la machine pense comme dans Blade Runner ou MondWest. 

L’IA est donc inéluctablement appelée, dans un futur proche, à se substituer aux hommes dans l’exécution de multiples travaux. Le défi majeur de demain sera de former les individus à réaliser des tâches non concurrentes mais complémentaires à celle de l’IA. Il faudra réfléchir à un cadre juridique dans lequel l’IA pourra évoluer et peut être créer une lex robotica. C’est pourquoi il est important de se focaliser sur l’évènement majeur de cette année concernant ce domaine : les robots-juges estoniens.

Des robots-juges en Estonie ?

Le ministère estonien de la Justice vient officiellement de demander à Ott Velsberg, directeur des données du pays, de mettre au point un « juge-robot » capable de rendre des décisions de justice pour les litiges judiciaires de moins de 7 000 euros.

Avant de commencer l’analyse de ce projet, il convient de rappeler que l’Estonie a été classée, en 2017, « première société numérique au monde » par le magazine Wired. En effet, cet Etat digitalise déjà ses fondations depuis quelques années. Dès 2014, le pays accordait à n’importe quel citoyen, d’où qu’il vienne, la possibilité de devenir un « e-citoyen » estonien, c’est-à-dire ouvrir un compte en banque ou encore lancer une entreprise en quelques minutes. Par ailleurs, chaque citoyen estonien est équipé d’une carte d’identité numérique qui lui permet de bénéficier de multiples services en ligne. Enfin, ce projet est sans surprise puisque dès 2017, le gouvernement estonien pilote un projet visant à introduire l’intelligence artificielle et l’apprentissage automatique dans certains ministères afin de rationaliser les services destinés aux résidents comme Pôle emploi avec une machine learning ( approche statistique qui permet à un logiciel d’apprendre à partir de données) permettant aux employeurs et aux demandeurs d’emplois d’entrer en relation.

Le ministère espère que ce système pourra alléger le travail des juges et des greffiers. Le projet en est à ses débuts mais il devrait voir le jour fin 2019 et commencerait par une phase pilote axée sur les différends contractuels. En principe, les parties mettront sur une plateforme en ligne dédiée à leur litige tous les documents et informations pertinentes.  Parmi ces informations, on retrouvera des informations personnelles mais aussi des allégations ou encore des preuves pouvant faire pencher le jugement d’un côté comme de l’autre tout en respectant la lettre des textes de lois. Ce juge-robot sera toutefois assisté d’un juge humain qui pourra réviser les décisions et les parties pourront interjeter appel du jugement rendu par le juge-robot si elles n’en sont pas satisfaites.

Néanmoins, il ne s’agit pas de la première fois que le droit et l’intelligence artificielle fusionnent. Aux Etats-Unis, des algorithmes sont utilisés dans un rôle d’adjuvant et au Royaume-Uni, des chatbot (un agent dialoguant avec un utilisateur en ligne), sont utilisés pour trancher des contraventions.

Cette justice dite « prédictive » relève-t-elle alors du divin ou n’est-elle que faussement parfaite ?

Une décision de justice est caractérisée comme « bonne » si elle est de qualité acceptable, rendue dans un délai raisonnable et à prix abordable. Il faut qu’elle remplisse certaines qualités comme la transparence, l’impartialité, l’indépendance, l’écoute, la conscience, le contradictoire.

En ce qui concerne l’impartialité, l’article 6 de la Convention européenne des droits de l’Homme dispose que : « Toute personne a droit à ce que sa cause soit entendue équitablement, publiquement et dans un délai raisonnable, par un tribunal indépendant et impartial ». Cette qualité peut être définie comme l’absence de parti pris selon l’arrêt PIERSACK du 1er octobre 1982 rendu par la CEDH.

Ainsi, il paraît assez logique qu’un robot dénué de sentiments et d’humanité soit le plus apte à rendre des décisions impartiales et équitables contrairement à un magistrat humain, qui lui, fera preuve d’empathie au cours du litige. Toutefois, ce préjugé semble avoir été balayé par le logiciel COMPAS ( Correctionnal Offender Management profiling for Alternative Sanctions). Ce logiciel est un algorithme prédictif qui peut déterminer la tendance de récidive d’un criminel. Il  ne prend pas de décisions mais a pour unique fonction de  conseiller le juge dans certaines affaires aux Etats-Unis. Ce système a montré ses limites puisqu’il est accusé de racisme. Après deux ans d’utilisation aux États-Unis, les populations afro-américaines ont en effet  un taux de récidive deux fois supérieur à celui des autres populations avec COMPAS, selon une analyse du média d’investigation américain ProPublica. Ces jugements biaisés en raison de l’ethnie des populations sont problématiques car ils n’avaient même pas été prévus par les concepteurs du logiciel et montrent surtout que la machine reproduit seule des préjugés sur la base de simples données.

Ainsi, il est important de garder à l’esprit qu’un robot créé par les hommes sera à l’image de l’Homme et sera aussi faillible que lui.

En outre, il est nécessaire d’avoir la présence d’un juge humain pour respecter le principe du contradictoire. En effet, « a un moment, il faut que les gens puissent parler et on ne peut pas faire l’économie d’un débat contradictoire », comme le dit rappelle Jacques Lévy Vehel, ancien chercheur à l’institut national de recherche et en automatique qui a cofondé Case Law Analytics avec le magistrat Jérôme Dupré.

Enfin, la seule et unique raison qui pousse la justice à mettre en place des juges-robots est celle d’une économie de temps. En ayant dans leur programme un algorithme comprenant l’ensemble des jurisprudences passées, les robots pourront appliquer de manière plus efficiente et plus rapide les arrêts qui correspondent à l’affaire qui leur est soumise. Encore faut-il que le robot puisse adapter la règle de droit au cas d’espèce.

Néanmoins, une décision de justice est également évaluable selon deux critères : sa capacité à résoudre un litige qui fait appel à l’application d’une règle de droit ( « justice réparatrice ») et la capacité à trancher un conflit de valeurs, comme par exemple celui entre la liberté d’expression et le droit à la dignité humaine ( « justice distributive »). En principe, les robots rendent des décisions plus efficientes que les juges humains dans les litiges dont la résolution dépend de l’application de la règle de droit et qui aboutit à une indemnité (« justice réparatrice »). Les juges humains, quant à eux, rendent des décisions plus efficientes que les juges robots dans les litiges qui règlent un conflit de valeurs, c’est-à-dire ceux qui relèvent de la justice distributive (par exemple, balance des intérêts entre la diffamation et la liberté d’expression).

En conclusion, il est possible d’affirmer que l’utilisation de l’intelligence artificielle pour trancher des litiges est une idée assez positive en Estonie car le robot serait assisté d’un juge humain qui pourra corriger toutes ses erreurs. Mais est encore loin le temps où des robots dotés d’une humanité et d’une réflexion sur la valeur des droits mis en cause pourront remplacer totalement les juges ordinaires.

Salomé Pacitti
Master 1 Droit privé – Université Paris II Panthéon-Assas

 

Sources :