Fin mars, paraissait au Journal Officiel un décret portant création d’un traitement automatisé de données à caractère personnel dénommé « DataJust »[i]. Ayant pour objectif de recenser les montants d’indemnisations prononcés au profit des victimes de préjudices corporels aussi bien dans le contentieux judiciaire qu’administratif, ce logiciel permettrait de créer un référentiel d’aide à la mission de chiffrage du juge et pourrait très certainement être intégré à l’avant-projet de réforme de la responsabilité civile[ii]. Si la réalité est encore loin de rejoindre la fiction Minority Report réalisée par Steven Spielberg en 2002, dans laquelle la justice de demain éradique toute criminalité par la prédiction et l’arrestation automatique des criminelles avant même qu’ils n’aient pu violer la loi, ce décret s’inscrit tout de même dans l’arrivée de l’intelligence artificielle dans l’exercice de la justice[iii].

L’objectif de cet article n’est nullement de persuader le lecteur de la dangerosité de l’intelligence artificielle dès lors qu’il est question de justice. Bien au contraire, afin d’analyser de manière pertinente une telle évolution, il faut avoir conscience de son indispensabilité dans la justice de demain. Chantal Arens, Première présidente de la Cour de cassation, l’a explicitement formulée: « Nous, magistrats, mais aussi lensemble des membres de la communauté juridique, devons accepter de tirer parti des outils numériques et de lintelligence artificielle tout en prenant en compte les risques derreurs bien identifiés »[iv]. Face à une justice engorgée et incontestablement en crise de moyens, l’intelligence artificielle répond véritablement à un besoin d’aide à la décision du côté des juges mais également à une meilleure prévisibilité et sécurité juridique du côté des justiciables. Une fois cela constaté, il s’agit de souligner les garanties juridiques fondamentales qui existent pour les justiciables et qui doivent constamment accompagner cette évolution numérique. Pour ce faire, nous nous concentrerons sur un acteur central en ce domaine : le Conseil de l’Europe.

L’algorithme, outil au cœur de l’intelligence artificielle, est une suite finie de calculs qui permettent d’aboutir à la résolution d’un problème. Il construit un raisonnement et prend des décisions en effectuant des corrélations. La principale crainte vis-à-vis des droits fondamentaux pourrait être formulée très simplement : le « juge-humain» ne doit pas laisser sa place à un « juge-robot ». Si la Convention de sauvegarde des droits de l’homme et des libertés fondamentales est sans conteste un instrument vivant du fait de son interprétation dynamique qui d’ores et déjà est appelé à protéger le justiciable face au juge recourant à un tel algorithme, attardons-nous d’abord sur un autre texte du Conseil de l’Europe.

Les 4 et 5 décembre 2018, la Commission Européenne pour l’Efficacité de la Justice a adopté une Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement. Ce texte novateur, conçu comme la pierre angulaire de l’utilisation de l’intelligence artificielle en matière judiciaire, fixe cinq principes généraux: le respect des droits fondamentaux dans la conception et la mise en œuvre de ces nouveaux outils (1) ; la prévention contre la création ou le renforcement de discrimination par cette nouvelle utilisation (2) ; la  qualité et la sécurité dans le traitement des décisions juridictionnelles et des données judiciaires (3) ; l’accessibilité et la compréhension des méthodologies de traitement des données par un principe de transparence, neutralité et intégrité intellectuelle (4) et enfin la maîtrise du logiciel par l’utilisateur afin qu’il reste maître de ses choix (5).

Cet instrument de soft law doit être compris comme une véritable boussole guidant la conception et l’utilisation des algorithmes dans le processus juridictionnel, particulièrement en matière pénale, afin de les intégrer dans un cadre éthique parfaitement clair. Si l’adoption de ce texte marque clairement la volonté du Conseil de l’Europe de jouer demain un rôle central dans la protection des justiciables face à l’utilisation de l’intelligence artificielle en matière judiciaire, plusieurs dispositions de la Convention européenne des droits de l’Homme peuvent dès aujourd’hui être mobilisées en ce sens.

Il convient donc d’analyser ses dispositions à travers le prisme de l’utilisation de l’intelligence artificielle en matière judiciaire. Notre analyse se concentrera sur quatre articles majeurs: l’article 5 consacré au droit à la liberté et à la sûreté (I), l’article 6 garantissant le droit à un procès équitable (II), l’article 8 assurant le respect de la vie privée et familiale (III) et enfin l’article 14 interdisant les discriminations (IV).

I. Article 5 de la Convention européenne des droits de l’Homme

Le recours du juge à la justice prédictive en matière pénale entraîne des problématiques supplémentaires en ce qu’elle touche aux libertés les plus fondamentales de l’individu. Parmi elles, la liberté physique d’aller et venir qui est, en partie, protégée par l’article 5 de la Convention européenne des droits de l’Homme qui consacre le droit à la liberté à la sûreté. Si la Cour européenne des droits de l’Homme consent évidement au placement en détention du justiciable, elle s’assure avant tout de sa régularité. De nombreux principes s’inscrivent dans le cadre de ce contrôle tels que la sécurité juridique, la prééminence du droit, la proportionnalité de la peine et la protection contre l’arbitraire[v].

Au sens de l’article 5 de la Convention, l’utilisation de l’intelligence artificielle peut prendre diverses formes en intervenant à différents moments de la procédure pénale.

D’une part, en intervenant au moment du placement en détention provisoire afin de déterminer le risque de fuite de l’individu. Cette atteinte permise à la présomption d’innocence, se base sur des éléments facilement assimilables pour une intelligence artificielle. Néanmoins, le flou entourant le traitement des données et le fonctionnement d’un tel algorithme peuvent empêcher la vérification du critère de nécessité de cette privation de liberté [vi].

D’autre part, cette opacité de l’algorithme peut poser les mêmes problèmes au moment du prononcé puis de l’application de la peine. En effet, il est facilement envisageable que ces outils connaissent demain du risque de récidive d’une personne demandant une libération anticipée ou déterminent la durée adéquate de la peine du prévenu en fonction d’un tel risque.

Cependant, la régularité d’un procès tient à la prééminence du droit mais aussi à celle du juge. La culpabilité d’un individu doit être déterminée et analysée par un juge dont la sensibilité est loin de la rationalité d’un logiciel. La finalité de la sanction pénale demande des conciliations entre utilité et répression qui appellent une cognition humaine. Cette rationalité juridique caractérisant la régularité de la détention peut prendre une direction différente quand elle découle d’un raisonnement statistique. L’article 5 de la Convention prévoit le droit d’être libéré durant la procédure, c’est-à-dire avant la condamnation mais aussi le droit à un recours. Comment vérifier que le contrôle est effectif s’il découle d’une intelligence artificielle? Certains garde-fous peuvent être envisagés tels que l’assentiment du juge à la peine issue de l’algorithme ou la mise en place d’un recours humain à la peine robotique. Néanmoins, l’opacité du fonctionnement algorithmique s’érige encore en obstacle.

La véritable crainte demeure celle des dérives vers une justice sans procès, une justice prédictive qui peut transformer le suspect en coupable par un truchement de données. Globalement, c’est le risque d’un juge qui ne prendra plus le temps d’apprécier souverainement autrement qu’en appliquant les modèles définis par l’intelligence artificielle.

II. Article 6 de la Convention européenne des droits de l’Homme

Au premier abord, le lien entre l’article 6 de la Convention, consacrant le droit au procès équitable, et le recours à des algorithmes de justice prédictive n’est pas évident. En effet, on imagine difficilement dans quel contexte un requérant pourrait se prévaloir de cet article pour contester une procédure judiciaire rythmée par le recours du juge à des outils dotés d’intelligence artificielle. S’il est évident que l’article ne pourra pas concerner directement l’algorithme en lui-même, il pourra cependant être mobilisé tout au long de la procédure à certaines conditions factuelles précises mais pas impossibles.

En effet, c’est le comportement des juges chargés d’interpréter et de tirer les conséquences des décisions rendues par les intelligences artificielles qui devra être scrupuleusement « prudent » afin de respecter le droit au procès équitable.

De manière générale, le paragraphe 2 de l’article 6 de la Convention consacre un principe de présomption d’innocence au profit de toute personne accusée d’infraction pénale[vii]. Aussi, la Cour européenne des droits de l’Homme a toujours considéré que la présomption d’innocence était enfreinte dès lors que la charge de la preuve était renversée de l’accusation à la défense[viii]. Il en est de même lorsque les décisions des juridictions compétentes sont insuffisamment motivées[ix], mais aussi lorsqu’une charge de la preuve « extrême» pèse sur le requérant, privant alors la défense de toute chance de succès[x].

Cette jurisprudence constante de la Cour EDH pourrait trouver un écho particulier en matière de justice prédictive. En effet, à la lumière de celle-ci, deux éléments apparaissent clairement. D’une part, malgré le recours à un algorithme, la charge de la preuve repose et doit reposer tout au long de la procédure sur l’accusation. D’autre part, dans l’hypothèse où le requérant solliciterait les juges chargés d’interpréter une telle décision, par exemple dans le cadre d’un recours, ceux-ci seraient contraints de motiver leurs décisions. On pourrait alors parfaitement imaginer un requérant poussant les juges à révéler l’ensemble des éléments factuels qui ont été traités par l’algorithme.

De manière plus spécifique cette fois, la Cour EDH rappelle que toute affaire doit être jugée par un tribunal à la fois indépendant et impartial[xi]. Elle apprécie généralement l’indépendance d’un tribunal en tenant compte de critères statutaires, mais elle s’attache plus généralement à apprécier l’existence ou non d’apparence d’indépendance[xii] et le ressenti du prévenu[xiii]. Ainsi, dans le cadre d’une procédure pénale avec utilisation d’un algorithme, le comportement des juges sera déterminant, notamment en cas de recours. L’absence de motivation des décisions et plus généralement une atmosphère de nature à démontrer une volonté de suivre à tout prix la décision d’un algorithme seront des éléments laissant craindre des atteintes à l’indépendance des juges à condition que le requérant justifie objectivement ses doutes. La Cour suit la même logique à propos de l’exigence d’impartialité.

III. Article 8 de la Convention européenne des droits de l’Homme

L’utilisation de la justice prédictive conduit nécessairement à la collecte de données personnelles. Compte tenu de l’extension croissante du champ d’application de l’article 8 et de la nécessité d’adapter les normes internationales aux évolutions de la société, il ne fait pas de doute que les données personnelles traitées par les autorités judiciaires dans le cadre de la justice prédictive entrent dans le champ d’application de l’article 8[xiv]. Bien qu’il existe certains aspects positifs liés à l’utilisation de la justice prédictive, il ne peut être nié que son utilisation mette à l’épreuve les droits fondamentaux accordés à chaque individu.

L’article 8 pose un principe fondamental du droit international et met, à la charge des États, une double obligation. D’une part, une obligation négative qui consiste à protéger les individus contre toute ingérence dans l’exercice de son droit au respect à la vie privée[xv]. D’autre part une obligation positive[xvi] qui consiste en la mise en place de garanties suffisantes pour prévenir toute atteinte et assurer le respect de la vie privée des individus sur son territoire[xvii].

Ainsi, dans le cadre du traitement de ces données par un algorithme, les États doivent ménager des garanties appropriées pour empêcher toute utilisation de ces données qui ne serait pas conforme aux garanties prévues par l’article 8. En effet, récolter les données personnelles des individus dans l’optique d’une justice prédictive est sans évidence une ingérence dans la vie privée des individus[xviii]. Les États doivent s’assurer que les données recueillies sont pertinentes et qu’elles sont efficacement protégées contre les usages impropres et abusifs[xix], car le traitement de ces données peut tendre à un traitement illicite lorsque les États manquent à leurs obligations. Toutefois, ces ingérences ne constituent pas nécessairement une violation de l’article 8. Elles sont parfois nécessaires pour faire évoluer la société, mais chaque État doit veiller à respecter les conditions prévues à l’article 8, car un manquement répété aurait pour conséquence d’engendrer de nombreux contentieux liés à l’utilisation de l‘intelligence artificielle. En effet, le traitement de ces données peut conduire à une surveillance de masse de la population et permettre à un État d’établir par ce traitement un profilage des individus. Ce qui in fine permettrait à un État d’identifier les risques de récidives, finalité qui pourrait outrepasser la fonction initiale d’un logiciel doté d’intelligence artificielle. D’ailleurs, la Cour de justice de l’Union européenne a condamné une telle opération de surveillance opérée par le recueil de données personnelles. Cette dernière a considéré que ce stockage qui conduisait à une surveillance généralisée portait atteinte à la protection des données personnelles car avec ces données il était possible de reconstituer de façon exhaustive le comportement d’une personne, élément de sa vie privée à protéger[xx].

Quant aux risques de dérives du traitement de données personnelles, ceux-ci ne peuvent être ignorés par les États. Il est fort probable que les données récoltées soient transférées vers une entreprise privée dans un État non-partie à la Convention et non membre de l’Union européenne[xxi]. En effet, tous les États ne disposent pas nécessairement sur leurs territoires d’entreprises ou de serveurs ayant la capacité et la technologie permettant d’assurer un traitement efficace et sécurisé de ces données. Ce type de transfert est soumis à des règles très strictes car une garantie minimale pour les données personnelles présentes dans l’Union européenne[xxii] doit être apportée. Mais, lorsque ces données sont transférées dans un État tiers, il n’y a plus de garantie minimale ce qui va à l’encontre de la protection des données qui entraîne une mise à l’épreuve des droits fondamentaux.

Par ailleurs, au vu des dernières actualités, tous les serveurs semblent être concernés par de potentielles attaques ou fuites de données. De nos jours, les technologies évoluent rapidement et de nouvelles formes d’attaques apparaissent quotidiennement pour contrer ce type de système de sécurité. L’utilisation de l’intelligence artificielle, et le risque lié au piratage et à la fuite de données personnelles impactent le principe de la sécurité des données. En effet, les données collectées étant personnelles et sensibles, leurs confidentialité et sécurité doivent être assurées pour prévenir toute atteinte entraînant des effets négatifs sur l’individu. D’autant plus, qu’en cas de fuite de données, les États ne prévoient pas systématiquement de réparation à la suite d’une atteinte aux droits protégés. Compte tenu du fait qu’il n’est pas évident de retrouver le responsable du piratage, l’individu victime d’une violation de ses droits fondamentaux se retrouve en plus privé d’un droit à la réparation de son préjudice puisque ce dernier est difficilement évaluable.

En conclusion, il est important de déterminer précisément quel type de données sera utilisé par l’algorithme pour éviter de mettre à l’épreuve les droits fondamentaux. Un juste équilibre entre, les intérêts visés par l’utilisation du système algorithmique, et le respect du droit à la vie privée doit être recherché. Autrement, cela engendrait une différence de traitement entre les justiciables, dont l’une des conséquences serait de les réduire à des groupes de statistiques, propre à créer des discriminations.

IV. Article 14 de la Convention européenne des droits de l’Homme

Intégrer une intelligence artificielle au fonctionnement de la justice est également susceptible de créer des discriminations indirectes au sens de l’article 14 de la Convention européenne des droits de l’Homme entre les justiciables. De telles discriminations ne découleront pas directement de l’utilisation même du logiciel mais du traitement des données personnelles que celui-ci opère.

Avec les algorithmes, ce sont des corrélations linguistiques qui traiteront de phénomènes sociaux parfois complexes. Comme le relève le Professeur Dominique Cardon « les corrélations dordre linguistique découvertes dans les décisions [sont] loin de pouvoir être interprétées de manière irréfutable comme des rapports de cause à effet »[xxiii]. Celles-ci ne peuvent en aucune manière être apparentées aux raisonnements humains incluant des processus perceptifs, d’apprentissage ou d’adaptation par exemple[xxiv]. L’algorithme risquerait de traiter des phénomènes sociaux via des équations[xxv].

Plusieurs études sur ce type d’algorithmes, déjà employés dans d’autres pays, notamment aux États-Unis, en révèlent les failles. A titre d’illustration, une étude de l’algorithme COMPAS 36 utilisé dans certaines juridictions aux États-Unis afin d’évaluer la dangerosité des individus, et notamment leur risque de récidive, peut être citée[xxvi].

L’étude de cet algorithme révèle non seulement un taux de prévisions faible mais également un traitement discriminant envers les populations afro-américaines considérées comme ayant plus de chances que les populations blanches de se voir attribuer un plus grand risque algorithmique de récidives. Inversement, les populations blanches sont incorrectement jugées comme présentant moins de risques que les populations afro-américaines. Le croisement de ses données a induit COMPAS 36 en erreur. En l’occurrence, l’algorithme a surpondéré le lieu de résidence des justiciables, au mépris d’autres facteurs sociaux. Le résultat qui en est ressorti est une discrimination indirecte entre les populations blanches et afro-américaines.

Rapportée à un niveau européen, une étude de l’University College London a démontré les difficultés de l’intégration des décisions de la Cour européenne des droits de l’Homme dans un tel outil algorithmique. Elle en a conclu que les modèles d’algorithmes autoapprenant peuvent reproduire voire aggraver les discriminations[xxvii].

Finalement, qu’il s’agisse de mécanisme d’aides à la décision ou bien de justice prédictive, si le recours à des algorithmes possède des avantages incontestables pour le système judiciaire, il est indispensable d’accompagner leur conception et leur utilisation en prenant en compte continuellement l’existence de tels risques juridiques. Un raisonnement purement algorithmique ne doit jamais prendre le pas sur le raisonnement humain: être capable de rendre un jugement ne signifie pas rendre justice.

Lucille BOMME, Valentin DECRÉ, Roman HEBBADJ,
Adeline LEFEVRE, Pierre OTTAVI
Equipe du concours René Cassin édition 2020 – Université Paris Dauphine 

Notes de bas de page

[i] Décret n° 2020-356 du 27 mars 2020 portant création d’un traitement automatisé de données à caractère personnel dénommé « DataJust ».

[ii] « Datajust : un algorithme pour évaluer les préjudices corporels », Pierre Januel, Dalloz Actualité, 1er avril 2020.

[iii] Constat introductif du dossier « Justice et intelligence artificielle, préparer demain » dont le premier épisode a été publié sur Dalloz Actualité le 14 avril dernier par Laurence Pécaut-Rivolier, conseillère à la Cour de cassation, et Stéphane Robin, directeur de recherche à l’INRA.

[iv] Entretien avec Chantal Arens , La Semaine Juridique – Édition Générale du 30 mars 2020, n°13.373.

[v] Simons c. Belgique (déc.), n°71407/10,28 août 2012 §32

[vi] Ladent c. Pologne, n°11036/03, 18 mars 2018 §§ 55-56

[vii] Barbera, Messegué et Jabardo c. Espagne, n°10590/83, 6 décembre 1988, § 77

[viii] Telfner c. Autriche, n°33501/96, 20 mars 2001, § 15

[ix] Ajdaric c. Croatie, n°20883/09, 13 décembre 2011, § 51

[x] Frumkin c. Russie, n°74568/12, 5 janvier 2016, § 166

[xi] Findlay c. Royaume-Uni, n°22107/93, 25 février 1995, § 73

[xii] Findlay c. Royaume-Uni, § 73

[xiii] Incal c. Turquie, n° 22678/93, 9 juin 1998, § 71

[xiv] Satakunnan Markkinapörssi Oy et Satamedia Oy c. Finlande [GC], n°931/13, 27 juin 2017 § 133. La Cour EDH confirme que la protection des données personnelles est une composante du droit à la vie privée qui relève de l’article 8 de la Convention.

[xv] Libert c. France, n°588/13, §§ 40-42 ; Kroon et autres c. Pays-Bas, n°18535/91, 27 octobre 1994 §31

[xvi] Lozovyye c.Russie, n°4587/09, 24 avril 2018, §36

[xvii] Bărbulescu c. Roumanie [GC], n°25702/94, 5 septembre 2017, §§ 108-111 ; Evans c. Royaume-Uni [GC], n°28957/95, §75, CEDH 2002VI ; Marckx c. Belgique, n° no 6833/74, 13 juin 1979, Série A n°31

[xviii]Amann c. Suisse, n° 27798/95, 16 février 2000, §69. La Cour EDH rappelle que la mémorisation par une autorité publique de données relatives à la vie privée d’un individu constitue une ingérence au sens de l’article 8.

[xix] Gardel c. France, n°1648/05, 17 décembre 2009, § 62

[xx] CJUE, 8 avril 2014, Digital Rights Ireland et Seitlinger e.a -293/12

[xxi] Article 14 Convention 108+

[xxii] Selon le chapitre 5 du RGPD, un responsable de traitement peut transférer des données hors de l’Union européenne et de l’Espace Économique Européen à condition d’assurer un niveau de protection des données suffisant et approprié.

[xxiii] D. Cardon, Sur la confusion entre corrélation et causalité, À quoi servent les algorithmes. Nos vies à l’heure des big data, Seuil, La république des idées, 2015

[xxiv] Yannick Meneceur et Clementina Barbaro, ”Intelligence artificielle et mémoire de la justice : le grand malentendu

[xxv] P. Jensen, physicien et directeur de recherche au CNRS, « Transformer le monde en chiffres, cest une opération très subjective »

[xxvi] How We Analyzed the COMPAS Recidivism Algorithm by Jeff Larson, Surya Mattu, Lauren Kirchner and Julia Angwin May 23, 2016

[xxvii] Aletras N, Tsarapatsanis D, Preoţiuc-Pietro D, Lampos V. 2016. Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective)