IHEMI

Fil d'Ariane

L’intelligence artificielle : nouvel outil au service de la prévention de la récidive ?

L’intelligence artificielle : nouvel outil au service de la prévention de la récidive ?
19mar.21

Issu du dernier hors-série des Cahiers de la Sécurité et de la Justice, cet article a été écrit par Marie Nicolas-Gréciano, Maître de conférences en droit privé et sciences criminelles à l’Université Clermont-Auvergne et membre du Centre Michel de l’Hospital. 

Le recours à l’intelligence artificielle1 comme outil permettant à l’institution judiciaire de gérer la criminalité peut sembler irréaliste, mais la réalité est bien différente, car le mouvement d’automatisation de la justice pénale est en marche. Des algorithmes2 capables d’anticiper le comportement humain et d’évaluer la dangerosité des individus pourraient, un jour3 , être exploités par les autorités judiciaires, non pas pour prévenir la commission d’une infraction (c’est le rôle revendiqué par la police prédictive4 avec des outils tels que Predpol), mais pour les aider à prendre des décisions de remise en liberté (durant la garde à vue ou pour une libération conditionnelle) ou à choisir la peine la plus adaptée. Dans un avenir proche, un certain nombre de décisions pourraient donc être prises grâce à des outils d’anticipation du risque ou dits prévisionnels.

 

Précisions terminologiques

Dans le langage courant, l’expression d’outils prédictifs est régulièrement employée pour désigner des logiciels d’anticipation du risque pénal. Or, le terme prédictif5 , issu du latin prae- (avant) et dictare (dire), qui signifie littéralement : « dire avant qu’un événement se produise », est impropre à l’utilisation, parce que l’exercice relève davantage de la pseudoscience (divination) que de la science. Il serait plus pertinent de parler de prévision – notion issue des locutions latines prae- (avant) et visere (voir) – pour désigner le fait de voir un événement avant qu’il se réalise. Au sens strict, l’élaboration d’outils d’anticipation du risque pénal renvoie alors davantage à la prévision qu’à la prédiction (Garapon, 2017 : 6 ; Jean, 2019 : 947).

 

Les atouts de l’intelligence artificielle

Les outils prévisionnels présentent un certain nombre d’avantages pour la justice pénale. Ils peuvent soutenir l’institution judiciaire, plus précisément, les décideurs : c’est-à-dire les magistrats de l’ordre répressif. N’y aurait-il pas là une aide incommensurable pour le juge qui trouverait dans cet outil les réponses à des questions cruciales telles que : faut-il condamner l’individu à une peine ferme ? Le condamné va-t-il commettre de nouvelles infractions s’il est libéré de manière anticipée ? Face à ces questionnements quotidiens, nombre de magistrats pourraient être soulagés dans leur prise de décision. De plus, ces technologies pourraient contribuer à renforcer la sécurité juridique au profit du justiciable6 (victimes et personnes mises en cause), puisque la décision ne serait plus prise par un magistrat, mais par un outil ayant examiné, de manière scientifique, des constantes et des variables objectives et extérieures. Enfin, les outils prévisionnels permettraient de renforcer l’efficacité de la répression pénale en évitant la remise en liberté d’individus dangereux. C’est donc la protection de la société qui serait renforcée. Ce sont là quelques exemples des apports de l’intelligence artificielle pour le système judiciaire7 . Conscients de ces atouts potentiels, les politiques souhaitent mettre les outils prévisionnels au service de la justice pénale8 .

 

L’intelligence artificielle : l’avenir d’une justice 3.0 ?

Toutefois, ces techniques représentent aussi un danger possible pour les droits et libertés fondamentales, en raison de résultats parfois erronés ou discriminatoires. De plus, remplacer le juge par une machine limiterait le droit d’accéder à un tribunal indépendant et impartial, tout en limitant l’individualisation de la peine9. En dépit de ces inconvénients, l’avenir des outils prévisionnels dans les systèmes judiciaires semble tracé par les décideurs politiques, poussés par les concepteurs de ces technologies. Dès lors, la justice pourrait, à l’avenir, devenir algorithmique, automatisée ou simulée. En matière pénale plus précisément, cette technologie pourrait être utilisée pour prévenir le risque pénal entendu largement, qu’il s’agisse d’évaluer le risque de récidive ou de réitération10 d’un suspect ou d’un condamné. Autrement dit, les outils prévisionnels seraient un nouvel indicateur11, permettant de limiter le danger de réitération d’infractions pénales. Cette utopie, toujours recherchée dans les sociétés, seraitelle accessible grâce à l’intelligence artificielle ? Pour l’heure, l’utilisation de ces algorithmes par les autorités policières pendant l’enquête ou par le juge dans le cadre d’un procès pénal reste au stade embryonnaire en Europe. Deux interrogations doivent être soulevées : i) peut-on prévenir la réitération ? ii) doit-on la prévenir par le biais de ces outils prévisionnels ? La question de la possibilité de prévenir la réitération au moyen de l’intelligence artificielle est donc posée (I), comme celle de la pertinence du recours à ces outils dans le système pénal (II).

 

La possibilité de prévenir le risque pénal grâce à l’intelligence artificielle

La possibilité de prévenir la réitération d’infractions revêt deux aspects qu’il convient d’envisager tour à tour : la faisabilité technique (A) et le cadre juridique (B).

 

La faisabilité technique

L’émergence de l’intelligence artificielle en matière pénale s’est réalisée outre-Atlantique avec la création de machines destinées à apporter une certaine dose de prédiction : si l’identification d’un auteur avant la commission d’un crime relève encore de la science-fiction, certains instruments dits d’évaluation du risque (risk assessment tools) sont présentés comme étant capables de mesurer les probabilités de réitération d’une infraction pénale par une personne ayant déjà exécuté une mesure privative de liberté. Techniquement, il serait possible d’évaluer le risque de récidive ou de réitération sur la base de certaines données emmagasinées par un algorithme. Pour le prouver, il suffit de tourner son regard vers les États-Unis où les technologies de l’intelligence artificielle sont à la pointe du secteur.

 

États-Unis : une culture juridique propice aux outils prévisionnels

Les outils de prévention de la délinquance ont trouvé un terrain favorable aux États-Unis (Defferrard et Papineau, 2017 : 668) car dans les systèmes de common law, le niveau de risque de récidive (faible, moyen ou élevé) fait, depuis longtemps, partie des critères pris en compte par le juge pour déterminer la peine ou la mesure de réhabilitation à prononcer (Monahan et Skeen, 2016 : 495)12. Ainsi, les délinquants qui présentent un risque faible de récidive sont, de préférence, condamnés à une peine privative de liberté courte ou bénéficient de mesures alternatives. En revanche, ceux dont le risque de récidive est élevé, sont condamnés à une peine ferme et de longue durée. La détermination du risque de récidive fait donc partie de l’office du juge américain. C’est pour l’aider dans cette tâche délicate que des algorithmes d’évaluation du risque pénal ont été créés et élargis avec le temps. A l’origine, ces outils étaient uniquement employés lors de la phase d’exécution des peines pour évaluer la pertinence d’une mesure de libération conditionnelle (parole) ou de suivi par les services de probation. Aujourd’hui, ils sont aussi employés au moment de la détermination de la peine (sentencing) et au cours d’une mesure de garde à vue (custody) (Kehl et al., 2017 : 9-10). Même si ces outils ne lient pas le juge, le résultat communiqué par l’algorithme exerce, à n’en pas douter, une influence sur sa décision. Les outils prévisionnels, qui ont remplacé les expertises considérées comme désuètes et inefficaces, rencontrent un franc succès aux États-Unis à tel point que le système américain d’évaluation du risque pénal repose exclusivement sur des méthodes de prédiction dites actuarielles (Morvan, 2013 : 326-330). Le perfectionnement des outils américains Les progrès de l’intelligence artificielle ont conduit à la création d’instruments d’évaluation du risque de nouvelles générations. Le logiciel de référence aux ÉtatsUnis, appelé COMPAS (Correctional offender management profiling for alternative sanctions)13, fonctionne grâce à un algorithme élaboré sur la base : i) des informations tenant à la conduite criminelle rassemblées depuis plusieurs années par les services de police, ii) des décisions de privation de liberté déjà prononcées et iii) des facteurs de risques liés au sexe, à l’âge, à la scolarité, à l’état civil, au statut professionnel, à la situation patrimoniale, aux antécédents judiciaires, au lieu de résidence et à sa stabilité14. Cet algorithme s’appuie également sur des modèles conçus avec des techniques d’apprentissage automatique (machine learning), c’est-à-dire grâce à des ordinateurs capables d’apprendre tous seuls à partir de données, ceci afin de déterminer la probabilité statistique de récidive de l’individu concerné. Concrètement, l’algorithme procède à une comparaison entre les données statiques acquises et les caractéristiques d’un délinquant. Si celui-ci présente de nombreux facteurs communs avec les individus ayant déjà récidivé, son risque de réitération de l’infraction est indiqué élevé. L’évaluation réalisée par l’algorithme est par la suite communiquée au juge chargé de prendre la décision. Forte de son succès outre-Atlantique15, la justice actuarielle a fait ses premiers pas sur le Vieux Continent.

 

L’expérimentation britannique

Créé par l’université de Cambridge, le logiciel HART (Harm assessment risk tool) est utilisé, à titre expérimental, depuis 2017 par la police de Durham au Royaume-Uni16. Plusieurs étapes ont été nécessaires à la mise en place de cette technologie. D’abord, l’ensemble des archives de la police de Durham entre 2008 et 2012 a été entré dans la machine afin qu’elle prenne connaissance de l’ensemble des décisions prises par les policiers pendant cette période et des statistiques en matière de réitération des suspects. Un algorithme a été conçu sur la base de ces informations préalablement enregistrées pour évaluer le risque de réitération des suspects en les classant selon trois catégories : faible, moyen ou élevé. Il permet d’identifier une trentaine de facteurs, dont certains sont statiques et non liés à l’infraction (adresse, genre, etc.) et de les comparer avec les caractéristiques du suspect (Oswald et al., 2018 : 227-228). Employé dans le cadre de la garde à vue, ce logiciel permet d’évaluer le danger que représente le suspect susceptible de réitérer tout en aidant à la prise de décision policière (prolonger la mesure, remettre en liberté). Il fonctionne également grâce à l’apprentissage automatique, ce qui lui permet de tirer des conclusions des données et de se perfectionner sans nécessairement recevoir de nouvelles instructions. Des tests ont été réalisés, dès 2013, pour déterminer l’efficacité de cet outil. Il a ainsi été possible de constater, en observant le comportement des suspects pendant une période de deux années après la commission de l’infraction, que les prévisions de HART étaient efficaces à hauteur de 98 % en cas de risque faible et de 88 % en cas de risque élevé de récidive17. Ces résultats élevés seraient dus à l’algorithme exploité dans le logiciel. Celui-ci aurait été élaboré sur la base d’un « compromis entre les faux positifs et les faux négatifs »18 afin de limiter le nombre de faux négatifs. En d’autres termes, l’algorithme aurait plutôt tendance à étiqueter les suspects comme étant des personnes à risque élevé, même si le danger est en réalité moyen, voire faible, ceci pour éviter les erreurs policières (et la remise en liberté d’individus qui risquent de commettre une nouvelle infraction). Les concepteurs de cette technologie ont donc préféré rester prudents en ayant tendance à surqualifier les individus comme dangereux. C’est là un danger considérable, car cet outil privilégie la sécurité nationale par rapport aux droits et libertés fondamentales des individus (Oswald et al. 2018 : 231, 241). Or, aucune concession ne devrait être possible : si des technologies de ce type sont développées et exploitées en France, elles devront respecter un cadre juridique exigeant en matière de droits et libertés fondamentales.

 

Le cadre juridique

S’il est techniquement possible de créer des outils pour anticiper le risque pénal, il convient encore de définir le cadre juridique dans lequel ils doivent s’inscrire. Trois limites peuvent être posées, puisqu’il faut respecter : les principes du droit pénal fondamental, le droit à un procès équitable et la Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement.

 

Les principes du droit pénal fondamental

La recherche de la prévention du risque pénal et de l’évaluation de la dangerosité fait craindre la résurgence de pensées déterministes19, basées sur l’absence de librearbitre des individus. En effet, il serait facile d’admettre l’idée selon laquelle certains individus sont prédéterminés à commettre des infractions, ce qui justifierait une peine rigoureuse accompagnée de mesures de sûreté20. Le déterminisme latent se ferait alors au détriment du principe d’individualisation de la peine (Saleilles, 2001 ; Mayaud, 2018 ; Dreyer 2016), largement admis depuis 1945 dans la plupart des systèmes judiciaires européens. En France, c’est la doctrine de la « défense sociale nouvelle » développée par Marc Ancel qui a posé les jalons du droit pénitentiaire moderne (Ancel, 1957 ; Lazerges, 2005). L’approche déterministe et punitive a ainsi été remplacée par un système tourné vers la réadaptation sociale du délinquant. L’idée originelle consiste à dire qu’en (ré-)adaptant l’individu – lequel dispose de son libre-arbitre –, les conditions de la délinquance disparaitront, permettant in fine de prévenir durablement la commission d’infractions. Pourtant, si des algorithmes prévisionnels doivent être développés, les garanties nécessaires doivent être instaurées pour éviter qu’ils ne soient exploités dans une perspective déterministe et que les utilisateurs (magistrats) n’occultent l’objectif de réinsertion (Cassuto, 2017). Par ailleurs, en vertu du principe d’individualisation de la peine21, le juge doit se fonder sur des éléments objectifs (formation, emploi, prise en charge médico-sociale régulière etc.) pour trouver la peine la plus adaptée au condamné. Ce principe de valeur constitutionnelle22 doit, lui aussi, être respecté par les outils prévisionnels (Brigant, 2018 : 237). Par conséquent, le recours aux algorithmes de prévision du risque pénal ne doit pas altérer ni écarter les objectifs d’individualisation et de réinsertion de la peine.

 

Le droit à un procès équitable

Les outils prévisionnels seront aussi soumis au droit à un procès équitable inscrit à l’article 6§1 de la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales (CESDH) (Meneceur, 2018 ; Ferrié, 2018). Plus précisément, ils devront respecter le droit d’accès à un tribunal, garantie fondamentale énoncée par la Cour européenne des droits de l’homme (CEDH) dans son célèbre arrêt Golder c. Royaume-Uni du 21 février 197523 et reconnue par le Conseil constitutionnel24. Selon cette garantie, les justiciables doivent avoir la possibilité de saisir le juge pénal afin qu’il se prononce sur le bien-fondé de l’accusation portée contre eux. Or, il est à craindre que les technologies d’évaluation du risque pénal n’aient pour effet de restreindre, voire de supprimer purement et simplement l’accès au juge. En effet, l’impact de l’évaluation de l’algorithme sur la décision pénale peut être plus ou moins fort. Au stade le moins avancé, le résultat donné par la machine sert seulement d’indicateur dans l’évaluation de la situation et le juge peut le prendre en compte ou l’écarter. Au stade le plus évolué, l’outil informatique se substitue au juge dans certains domaines : c’est ce que l’on appelle la justice automatisée. C’est le logiciel et non le professionnel, le robot et non l’humain, qui rend des décisions ayant des effets de droit. Tel pourrait être le cas pour certains contentieux de masse (par exemple, les infractions au code de la route) qui conduisent déjà à des réponses quasi-systématisées, à l’aide de barèmes (Sayn et al., 2019 ; Gerry-Vernières : 2019). Si cette dernière voie semble encore lointaine25, les outils prévisionnels auront sans doute un rôle de plus en plus prégnant en matière pénale. Il faudra donc veiller scrupuleusement aux garanties du procès équitable, en laissant toujours au juge le soin de prendre la décision et en permettant au justiciable de la contester par les voies de recours.

 

La Charte éthique en matière d’intelligence artificielle

Les outils d’évaluation du risque pénal sont également tenus par les exigences de la Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires adoptée les 3 et 4 décembre 2018 par la Commission européenne pour l’efficacité de la justice (CEPEJ) (Meneceur, 2019 : 552-558 ; Barbaro, 2019 : 11-14). Cette Charte – relevant du droit souple (soft law) 26 – identifie cinq principes : i) le respect des droits fondamentaux, ii) la non-discrimination, iii) la qualité et la sécurité, iv) la neutralité, la transparence et l’intégrité intellectuelle et v) la maîtrise par l’utilisateur. Ainsi, les algorithmes prévisionnels devront être conçus et mis en œuvre de manière à être compatibles avec les cinq principes énoncés. Toute discrimination entre individus ou groupes d’individus devra être bannie, afin d’éviter des résultats biaisés et porteurs d’atteintes aux droits et libertés fondamentales. De plus, l’environnement technique devra être sécurisé pour protéger les données sensibles des personnes concernées par ces outils. Quant aux méthodes d’évaluation et de traitement des données, elles devront être compréhensibles et accessibles pour tous, afin de préserver la confiance des justiciables dans le système judiciaire. Enfin, la Charte recommande que l’utilisateur de l’outil – en l’occurrence l’autorité judiciaire ou policière – soit suffisamment informé et qu’il reste, en tout état de cause, maître de ses choix. Remplacer l’humain par la machine doit donc être exclu au regard des exigences éthiques. Ce n’est qu’en respectant ces principes éthiques et juridiques que les outils prévisionnels pourront être introduits dans notre système, lequel présentera les garanties d’une justice équitable.

 

La pertinence du recours aux outils de prévention

Face à l’engouement des systèmes étrangers et des dirigeants pour ces outils prévisionnels, se pose la question de ce qui est de l’ordre du souhaitable : doit-on recourir, voire systématiser l’utilisation des outils de prévention du risque pénal ? A cette question, il est possible de répondre de deux manières : la négative semble s’imposer au regard du manque patent de fiabilité de ces outils (A), mais la positive peut l’emporter à condition de réserver une place spécifique à ces technologies (B).

 

Des instruments défectueux

Deux séries de critiques peuvent être avancées pour refuser, aujourd’hui, le recours aux outils de prévention dans le procès pénal : d’une part, les outils de prévention souffrent de différents biais, d’autre part, leurs résultats sont parfois erronés.

 

Des outils biaisés

Les outils de prévention sont présentés par leurs concepteurs comme objectifs, contrairement à la subjectivité du juge qu’ils combattent 27. Fondées uniquement sur un traitement statistique de données relatives aux infractions recensées, insensibles aux sentiments et aux préjugés, les prédictions de l’intelligence artificielle se veulent plus fiables que celles de l’être humain. Cependant, ces outils souffrent d’erreurs méthodologiques tenant à la fois à l’approche retenue et aux données introduites (Chouldechova, 2016 ; Angwin et Larson, 2016). Le premier type de biais intervient dans l’approche retenue par les algorithmes : ceux-ci sont élaborés à partir de données statistiques globales relatives à un groupe d’individus (les délinquants) pour des infractions déjà commises. Or, les magistrats doivent juger une individualité caractérisée par son propre degré de culpabilité. Dès lors, la façon dont le crime est appréhendé, puis traité, ne peut se réduire à une approche collective, mais doit suivre une approche individuelle. Cette erreur méthodologique inscrite dans le mode de raisonnement des algorithmes peut rendre ces outils non conformes à certains principes cardinaux du droit pénal, à savoir l’égalité28 qui implique aussi de traiter les personnes différemment lorsqu’elles sont dans des situations différentes, l’individualisation de la peine et sa proportionnalité. Ces outils représentent alors un réel danger pour la justice individualisée et respectueuse de l’égalité. De surcroît, la machine est incapable de reproduire un raisonnement juridique (étude de causalités et non de corrélations dont certaines n’ont pas de sens) ou humain29. De même, la décision humaine peut parfois se fonder sur des valeurs et des considérations sociales qui ne sont pas prises en compte par la machine. À titre d’illustration, un juge pourrait décider d’ordonner la remise en liberté d’une femme délinquante tout en connaissant son risque de récidive élevé car il en appellerait à une valeur supérieure : la nécessité pour elle d’assurer son rôle de mère de famille. C’est l’application de la jurisprudence du « bon juge Magnaud »30.

 

Dans ces hypothèses, l’algorithme déterminerait le risque de réitération de l’infraction sans pouvoir opérer une hiérarchie entre impératifs et valeurs. Le second type d’erreur se manifeste dans les données introduites dans ces logiciels, celles-ci pouvant reproduire des discriminations sociales et raciales préexistantes. Ces données sont constituées, à l’origine, à partir de certaines décisions des pouvoirs publics, tels que les lieux de patrouille des policiers, le profil des personnes qui vont être contrôlées et arrêtées ou encore le type de sanctions qui vont être appliquées. Or, ces données peuvent être entachées de biais sociaux ou raciaux présents dans des choix politiques. En effet, si certaines communautés sont surreprésentées dans les statistiques, parce qu’elles font, plus que d’autres, l’objet de mesures de police, les antécédents criminels des individus appartenant à ces communautés seront en conséquence plus nombreux. L’algorithme aura donc tendance à les considérer comme dangereuses. Par conséquent, ces outils de prévention du risque pénal peuvent avoir pour effet de reproduire des disparités raciales et socio-économiques. Ce défaut a été mis en lumière en 2016 par l’O.N.G. Pro-Publica, qui s’est penchée sur le logiciel américain COMPAS (Angwin et al., 2016). Cet instrument d’évaluation du risque utilisé dans plusieurs États fédérés présente les populations afroaméricaines comme ayant un taux de risque de récidive deux fois plus élevé que celui des autres populations, dans les deux années suivant l’application de la peine 31. Les outils mis en place rendent ainsi des résultats discriminatoires et déterministes au détriment de certaines communautés (afro-américaine) ou classes d’âge (les jeunes) qui sont davantage pénalisées que d’autres (Chouldechova, 2016). La prétendue impartialité et l’objectivité d’une justice administrée par les algorithmes se heurte en quelque sorte à une « contamination » des statistiques et des données à l’apparence neutralisée, par l’utilisation de méthodes mathématiques et statistiques (Vigneau, 2018, 2019). Le risque d’une justice dévoyée est d’autant plus grand que ces algorithmes ont pour effet de naturaliser et d’ainsi légitimer des injustices, voire de les amplifier à travers une inégalité de traitement répétée et renforcée par les tribunaux. C’est dire que le fonctionnement même de ces outils de prévention est contestable.

 

Des résultats erronés

Les promoteurs de l’intelligence artificielle soutiennent que cet outil est plus exact dans ses déterminations qu’un être humain (en l’occurrence, le juge) 32. Il est vrai que les machines ont une capacité plus importante de traiter et d’établir des liens entre des masses de données, et ceci, de manière plus performante qu’une personne. Toutefois, l’erreur n’est pas uniquement humaine. Des fautes sont en effet fréquemment commises par les outils prévisionnels, lorsqu’ils classent un individu dans une mauvaise catégorie de risques. Deux types d’erreurs sont possibles : d’une part, les faux négatifs, consistant à libérer un individu en raison de son faible risque pénal, alors qu’en réalité il commettra une nouvelle infraction. D’autre part, les faux positifs, qui conduisent à maintenir en prison une personne considérée comme dangereuse, alors qu’elle n’aurait commis aucun tort si elle avait été libérée. L’étude menée par l’O.N.G. Pro-Publica a mis en lumière certaines de ces erreurs. Ainsi, pour le même type d’infraction – en l’occurrence, un vol – l’algorithme a considéré qu’une femme noire était à haut risque de récidive, tandis qu’un homme blanc était à risque faible (alors que celui-ci avait un casier judiciaire plus important). Dans les deux années suivant l’évaluation du risque, la femme n’a pas récidivé alors que l’homme a commis un vol avec effraction. Dans l’ensemble, il est apparu que l’algorithme avait tendance à surestimer le risque de récidive des personnes de couleur et à le sous-estimer pour les personnes de type caucasien, conformément aux biais humains introduits dans l’algorithme. Les machines peuvent donc, à l’instar des êtres humains, commettre des erreurs. Mais le réel danger réside dans le fait de présenter ces outils comme parfaits. Les vertus attribuées aux outils prédictifs doivent par conséquent être largement relativisées.

 

La place à réserver aux outils de prévention

Le tableau dressé n’a pas à être exclusivement noirci, puisque l’intelligence artificielle présente des qualités indéniables, comme l’importante capacité de traitement d’informations et de données par rapport à celles de l’être humain. Dans un contexte de réduction budgétaire, les outils prévisionnels peuvent donc apporter des éléments d’informations supplémentaires au juge. C’est pourquoi le recours à l’évaluation du risque pénal peut être envisagé, à condition de lui réserver une place préalablement déterminée par la loi : celle d’un indicateur pour un juge libre dans son appréciation.

 

Un indicateur capable de donner une estimation du risque pénal

Pour concilier les avantages de l’intelligence artificielle avec les exigences du procès équitable et de l’individualisation des peines, les logiciels d’analyse du risque pénal doivent être considérés comme des instruments d’aide à la prise de décision policière et judiciaire. Les informations obtenues par le biais de ces outils doivent nécessairement être mises en perspective avec les autres éléments rassemblés par l’institution judiciaire. En somme, le résultat de l’évaluation du risque pénal est une information parmi d’autres (expertise psychologique, passé judiciaire, contexte familial, social et économique) et la décision ne peut pas reposer exclusivement sur celui-ci. De même, il ne peut y avoir de hiérarchie préétablie entre la prédiction et les autres éléments à disposition du juge, car si une valeur supérieure était conférée aux outils prévisionnels, au vu des erreurs possibles, des atteintes aux libertés fondamentales seraient inévitablement commises. Pour être efficace, cette garantie tenant à l’absence de hiérarchisation entre les informations obtenues doit figurer dans la loi et ne souffrir d’aucune exception.

 

Préserver le pouvoir d’appréciation du juge

En outre, le pouvoir souverain d’appréciation du juge doit être préservé : celui-ci doit pouvoir s’écarter, proprio motu, de la prédiction formulée, notamment lorsque les circonstances de l’infraction et celles tenant à l’individu l’emportent 33. C’est uniquement de cette manière que les garanties d’indépendance du juge 34, du procès équitable et d’individualisation de la peine seront respectées. Autrement dit, les prévisions énoncées ne doivent pas se substituer aux décisions du juge. Cependant, il est légitime de s’interroger sur le risque de dépendance du juge vis-àvis des résultats avancés par l’algorithme (comme c’est déjà le cas pour les expertises). En effet, il existe une tendance naturelle du juge à s’appuyer sur les conclusions des expertises, surtout lorsqu’elles lui apportent des réponses dans un domaine hors de son champ de compétence, comme la médecine, la balistique, l’évaluation du risque de récidive etc. (Marx, 1964 : 193 ; Vérin, 1980 : 1022 ; Pradel, 1975 : 67). Cette dépendance du juge à l’égard des outils de prévision risque d’être d’autant plus forte que leurs résultats sont présentés comme fiables, par ses concepteurs, généralement des entreprises privées dont l’opacité caractérise l’élaboration des algorithmes. Sur ce point, les outils d’évaluation du risque doivent être transparents, avec un code source permettant aux juges, aux avocats de la défense et aux justiciables de comprendre et d’évaluer l’algorithme 35. Il en va du respect de la présomption d’innocence, de l’exercice des droits de la défense et de l’égalité des armes 36. En effet, c’est en connaissant profondément ces outils que l’intéressé sera en mesure de discuter la validité scientifique, les composantes de l’algorithme et les conclusions hâtives.

 

Repenser l’utilisation de l’intelligence artificielle

Partant d’un constat en demi-teinte, il semble nécessaire d’envisager une autre utilisation de l’intelligence artificielle en matière pénale. Ainsi, ce n’est pas la place, mais la fonction même de ces outils qui devrait être repensée. Au lieu d’utiliser l’intelligence artificielle comme un outil préventif, déterministe et punitif, les algorithmes pourraient être élaborés pour servir l’individualisation de la peine. En rassemblant les éléments objectifs de personnalité (formation, emploi, prise en charge médicosociale régulière), ainsi que les informations détenues par les institutions et organismes publics (Pôle emploi, Caisse d’allocations familiales, fisc, etc.), l’intelligence artificielle pourrait centraliser des quantités importantes de données à caractère économique, social et sanitaire et les traiter dans un temps record (Cassuto, 2017 : 334). A l’heure des données ouvertes (open data) des décisions de justice 37 et sur la base du fonctionnement de l’analyse des mégadonnées (big data analytics), les conclusions tirées de ces nombreuses données brutes pourraient être communiquées rapidement au juge qui doit parfois statuer dans des délais très courts, notamment dans le cadre de procédures accélérées 38. Le juge aurait alors les moyens de prononcer la peine la mieux adaptée à la situation de l’individu et à ses ressources. L’intelligence artificielle serait au service de l’humain et contribuerait à la valorisation du travail de l’ensemble de l’institution judiciaire. Toutefois, cet idéal de justice combinant les nouvelles technologies et les droits de l’homme est conditionné à la bonne qualité des données, à la loyauté dans l’utilisation de ces outils, à la transparence du traitement d’algorithmes certifiés et, en tout état de cause, à la préservation de la liberté d’appréciation du juge.

Notes

(1) « Ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine », Encyclopédie Larousse.

(2) « Ensemble de règles opératoires dont l’application permet de résoudre un problème énoncé au moyen d›un nombre fini d’opérations », Encyclopédie Larousse. Ce type d’algorithme existe déjà à l’étranger (COMPAS aux USA, HART au Royaume-Uni). Cf. Infra.

(3) Une volonté politique de recourir, de manière maîtrisée, à l’intelligence artificielle dans la justice, s’est manifestée dans le discours de la Garde des Sceaux, le 26 février 2019, mais aucun projet de loi n’a encore été déposé.

(4) Voir sur ce thème notamment : Castets-Renard, 2019 : 314-317 ; Institut d’aménagement et d’urbanisme d’Îlede-France, 2019.

(5) Il s’agit en réalité d’une locution directement traduite du terme anglais « prediction »

(6) Les attentes (prévisibilité, lisibilité, intelligibilité, compréhensibilité) des citoyens en matière de justice ont été mises en lumière par le rapport annexé au projet de loi de programmation 2018-2022 et de réforme pour la justice, p. 3.

(7) Automatiser la justice permet aussi de faire des économies en évitant des procédures longues et coûteuses.

(8) Discours de Nicole Belloubet le 26 février 2019 à la conférence d’Helsinki sur l’intelligence artificielle. Selon la Garde des Sceaux : « l’intelligence artificielle favorisera l’analyse jurisprudentielle et constituera un outil d’aide à la décision sans pour autant priver le juge de son rôle ».

(9) Cf. infra.

(10) Selon l’article 132-16-7 du Code pénal, la réitération intervient lorsque l’individu « commet une nouvelle infraction qui ne répond pas aux conditions de la récidive légale ». La récidive suppose, quant à elle, la commission d’une nouvelle infraction d’un certain type et dans un certain délai, lesquels sont déterminés par le Code pénal aux articles 132-8 à 132-11.

(11) Parmi d’autres : casier judiciaire, évaluation psychologique et psychiatrique.

(12) Certains États américains ont intégré l’évaluation des risques dans les lignes directrices (sentencing guidelines), pour déterminer la peine la plus appropriée.

(13) Cet algorithme, développé par une entreprise privée, doit obligatoirement être utilisé par le juge dans certains États américains. 137 questions sont posées incluant la présence d’un téléphone à la maison, la difficulté de paiement de factures, les antécédents familiaux ou encore l’histoire criminelle du prévenu. L’algorithme note la personne sur une échelle de 1 (faible risque) à 10 (haut risque). Il s’agit d’une aide à la prise de décision judiciaire, ses conclusions n’étant qu’une des variables à considérer par le juge lors de la définition de la peine.

(14) Annexe I de la Charte éthique européenne de l’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement (ci-dessous « Charte éthique européenne ») intitulée « Étude approfondie sur l’utilisation de l’intelligence artificielle dans les systèmes judiciaires, notamment les applications d’intelligence artificielle assurant le traitement des décisions et des données judiciaires », 3-4 décembre 2018, p. 55, § 128 et s.

(15) Cet outil fait l’objet d’importantes contestations. Cf. infra.

(16) Charte éthique européenne, § 125 et s.

(17) Annexe I de la Charte éthique européenne, § 126.

(18) Les faux positifs qualifient de dangereux des individus alors qu’ils n’ont pas réitéré ou récidivé au moment du constat, tandis que les faux négatifs sont des individus catégorisés comme non dangereux alors qu’ils ont réitéré ou récidivé.

(19) Le déterminisme fonde l’école positiviste italienne, représentée par Cesare Lombroso (1835-1909), Enrico Ferri (1856-1929) et Raffaele Garofalo (1851-1934).

(20) La mesure de sûreté est une sanction pénale de nature préventive décidée par un juge lorsqu’un individu présente un caractère dangereux.

(21) Art. 132-24 du code pénal.

(22) Cons. const., déc. N° 2005-520, 22 juillet 2005, Rec. P. 118, cons. 3.

(23) CEDH, Golder c. Royaume-Uni, 21 février 1975, § 35, GA, n° 23, Berger, n° 40 (voir aussi Desportes et Lazerges-Cousquer, 2015 : 241).

(24) Cons. const., déc. n° 96-373, 9 avril 1996, Polynésie française ; déc. N° 2002-532, 19 janvier 2006, Lutte contre le terrorisme.

(25) Notamment parce que l’article 10 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés l’interdit expressément. Cela figure aussi à l’article 22 du Règlement (UE) 2016/679 du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données (RGPD).

(26) La Charte éthique n’a pas force obligatoire. Elle adresse des recommandations aux acteurs publics et privés chargés de la conception et du développement d’outils et de services d’intelligence artificielle.

(27) Annexe I de la Charte éthique européenne, p. 58, § 135.

(28) Art. 1er de la Constitution. Pour une étude en la matière, voir : Dechenaud, 2008.

(29) Pour l’opinion d’un magistrat sur ce point, voir Dufour, 2019 : 4-6.

(30) Le juge Magnaud a prononcé, le 4 mars 1898, la relaxe de Louise Ménard qui avait volé du pain pour donner à manger à ses enfants.

(31) D’autres algorithmes ont été élaborés sur la base d’observations critiques exprimées par la doctrine. Ces outils se fondent sur des variables plus restreintes, plus directement liées au crime commis et moins à la race, le genre ou la condition socioéconomique. Tel est le cas du Public safety assessment tool utilisé dans 30 juridictions américaines.

(32) Il s’agit essentiellement des acteurs économiques (entreprises privées) qui mettent en avant les avantages et les promesses des algorithmes et de l’intelligence artificielle.

(33) Comme cela a été le cas, par exemple, dans l’affaire du bon juge Magnaud. Cf. supra.

(34) Art. 6§1 de la CESDH. Le juge ne doit pas être tenu de suivre le résultat du logiciel prévisionnel.

(35) Si la transparence doit reposer sur l’engagement et l’éthique de ces acteurs privés, elle doit également être imposée par la loi. Pour l’heure, le code des algorithmes est protégé par le secret des affaires.

(36) Ces garanties sont inscrites aux articles 6§1 et 6§3 de la CESDH.

(37) Sur ce thème, voir Cadiet, 2017.

(38) « Il s’agit de procédures plus courtes que les procédures classiques » (Couvrat, 1994 : 699). Il s’agit, par exemple, de la CRPC, de la comparution immédiate ou encore de l’ordonnance pénale.

Derrière cet article

Marie Nicolas-Gréciano En savoir plus

Marie Nicolas-Gréciano

Fonction Maître de conférences à l'Université Clermont-Auvergne