Retour aux articles

Justice et police prédictive : vers des algorithmes plus transparents ?

Tech&droit - Start-up, Données
03/07/2017
C’est en janvier dernier que la Commission nationale de l'informatique et des libertés (CNIL) a lancé un cycle de débats publics autour des algorithmes. L’objectif : réunir des chercheurs d’horizons scientifiques différents pour réfléchir aux enjeux éthiques et aux questions de société soulevés par la place croissante des algorithmes dans la vie quotidienne. C’est dans ce cadre que s’est tenu le 28 juin dernier un colloque consacré aux algorithmes, organisé par l’Institut national des hautes études de la sécurité et de la justice. 
Impossible d’escamoter ce débat de la place des algorithmes dans la société. D’abord parce de nombreux algorithmes nous accompagnent déjà dans notre vie quotidienne (ils sont la matrice des plateformes d’e-commerce, notamment) et prennent une part croissante dans la pratique du droit (v. par exemple, les services proposés par les legal tech). Ensuite parce que, comme pour toute technologie, il est important de réfléchir à la fonction que nous souhaitons qu’elle ait dans la société. Quel est le bénéfice recherché ? Quels sont les dangers identifiés ? Faut-il mettre en place un contrôle démocratique ? D’autant que, par essence, aucun algorithme n’est neutre…
 
S’agit-il vraiment de justice prédictive ?
La question de la place que doivent avoir les algorithmes dans l'exercice du droit, de la sécurité et de la justice (v. Silguy St., Doit-on se méfier davantage des algorithmes, RLDC 2017/146, n° 6288 ; v. également, Sangaré Fr., Pour s’assurer de la loyauté des algorithmes, il faudrait code les lois d’Asimov et les figer, RLDC 2017/146, n° 6289) est essentielle. Prenons l’exemple de la justice prédictive qui utilise un algorithme qui trie, analyse et tire des synthèses chiffrées de la jurisprudence. C’est l’un des buzz word du moment, même si le terme en lui-même est très discuté. Pour Louis Larret-Chahine, co-fondateur de Predictice (une legal tech avec laquelle Wolters Kluwer a signé un partenariat exclusif), qui rappelle qu’en 2015, l’expression « justice prédictive » n’était même pas référencée par Google, « ce terme choisi pour des raisons marketing a eu beaucoup plus de succès que prévu ». Il faudrait davantage parler de « justice analytique » (legal analytics). Eloi Buat Menard, magistrat, adjoint de la sous-directrice de l’organisation judiciaire et de l’innovation au ministère de la Justice, préfère pour sa part le terme de « justice prévisionnelle ». Autre analyse avec Jean-Paul Jean, magistrat, président de Chambre à la Cour de cassation : « personnellement, je suis contre l’usage du terme justice prédictive : je lui préfère celui de justice actuarielle », car ce dont il s'agit, c’est d’un calcul de probabilité.
 
La place de la justice prédictive en France
Ce débat sémantique mis de côté, quelle place a la justice prédictive actuellement dans l’institution judiciaire ? Assez limitée, pour l’instant, même si certains outils sont en test dans quelques juridictions. D’autant que l’open data des décisions judiciaires tarde à se mettre en place. Or, moins il y aura de décisions disponibles, moins ces instruments seront performants.
Actuellement, il faut savoir que les legaltech qui développent ce type de logiciel disposent en moyenne d’un peu plus de 2 millions de décisions. Très loin de la masse qui résulterait de l’ouverture de toutes les décisions de justice (civiles, pénales et administratives) et de leurs archives sur les vingt dernières années. L’open data judiciaire complet représenterait, en effet, un volume de 50 à 100 millions de décisions. De quoi améliorer très nettement la granularité des résultats de ces algorithmes exploratoires…
Rappelons que l’article 21 de la loi n° 2016-1321 du 7 octobre 2016 (JO 8 oct.), dite loi pour une République numérique prévoit que « les décisions rendues par les juridictions judiciaires sont mises à la disposition du public à titre gratuit dans le respect de la vie privée des personnes concernées ». Un décret, promis pour fin mars dernier (v. Actualités du droit, 26 janv. 2017, Vœux 2017 de la justice : une fin de mandat chargée), doit organiser leur publication, mais il tarde à paraître pour de nombreuses raisons (opposition d’une partie des magistrats qui ne souhaitent pas voir leur nom exposé, coût de la mise en place du flux, non budgété parce que l’open data des décisions judiciaires a été introduit par amendement, sans étude d’impact, donc, etc.). Un chantier qualifié par l’ancien ministre de la Justice, Jean-Jacques Urvoas d’ « himalayesque » (v. Actualités du droit, 26 janv. 2017, précité). Il semblerait qu’un comité sous l’égide de Loïc Cadiet réfléchisse à ce texte, avec un rapport prévu pour octobre prochain. Pas de décret, donc en l’état actuel des considérations, avant janvier 2018…
Quel usage les magistrats français pourraient avoir d’un tel outil ? Pour Eloi Buat Menard, cela permettra « de déterminer la probabilité de succès d’un contentieux par l’analyse de décisions rendues dans un contexte similaire ». Cela pourrait donc aider les juges à trouver la solution juste, à leur donner un certain recul pour savoir s’ils se situent ou non dans la norme vis-à-vis des solutions rendues par des pairs (v. également sur ce sujet, Actualités du droit, 20 avr. 2017, Le (vaste) programme de travail du futur ministre de la justice). Prédictice, par exemple, affirme que son algorithme est capable d’analyser un million de décisions par seconde : un gain de temps considérable, donc, en perspective pour les juges. Pour Eloi Buat Menard, « On peut également espérer un évitement vertueux du procès, avec une sorte d’empowerment du citoyen qui reprend la main sur son procès ». Autre avantage, enfin, une influence positive sur la qualité de rédaction des motivations, particulièrement en matière pénale.
Côté craintes, sont mises en avant la dictature des chiffres et le fait que les statistiques servent une analyse économique du droit, difficilement applicable à la sphère pénale. « Le choix du respect d’une norme publique peut-il être fonction d’un bilan coût/avantage ? », s’interroge Eloi Buat Menard. Sans compter les problèmes soulevés, notamment, par la nécessaire individualisation de la peine, l’intime conviction du juge ou le secret du délibéré. Pour Louis Larret-Chahine, la matière pénale se prête peu à l’utilisation de ces logiciels. Non seulement cela pose des problèmes éthiques mais, au regard de la motivation des décisions dans ce domaine, l’algorithme sera bien à la peine de sortir des résultats pertinents. L’effet performatif est également souvent dénoncé : il favoriserait la répétition d’une même décision, avec le risque bien connu de figer la jurisprudence.
Va-t-on trop loin, trop vite ? C’est en tout cas l’opinion de Bertrand Warusfel, professeur à l’Université Lille 2, avocat au barreau de Paris : « ne mettons pas la charrue de la justice prédictive avant les bœufs des workflows de la numérisation de la justice ». Pour cet auteur, il faudrait déjà investir dans la digitalisation de la procédure et dans la dématérialisation des audiences…
 
Quelle fonction donner aux algorithmes en matière de sécurité intérieure ?
Gendarmes et policiers utilisent également des algorithmes pour assurer la sécurité sur le territoire. Pour le colonel Philippe Mirabaud, commandant de groupement de la gendarmerie départementale du Nord, « ces outils ne permettent pas de prévoir le fait pour faire du flagrant délit. Ils aident à comprendre pour mieux nous organiser ». Ces logiciels sont utiles pour analyser la délinquance et mieux la comprendre. Avec, comme finalité, l’anticipation des phases et des lieux dans lesquels le risque de commission de délits est important, ce qui permet d’organiser au mieux les patrouilles. Des outils qui pourraient gagner en performance si l’on faisait tomber les cloisons entre les bases de données internes à la gendarmerie et s’il devenait possible de croiser ces données remontées du terrain par les gendarmes avec d’autres bases de données (météo, programme des festivités dans les communes, etc.). Reste toutefois la question de savoir comment intégrer ces analyses statistiques dans le raisonnement et la décision opérationnelle : pour le colonel Philippe Mirabaud, « ce n’est qu’un outil d’aide à la décision que je vais venir croiser avec ma vision du territoire ».
Selon Yves Gallot, commissaire divisionnaire, chef de la division des systèmes d'information opérationnelle, direction centrale de la sécurité publique, ces logiciels (comme Predvol, celui utilisé par les gendarmes et les policiers de l’Oise), établissent une représentation de la délinquance sur un territoire, ce qui permet de prédire, par typologie d’infraction, les événements de la semaine suivante.
Mais en pratique, au-delà de la rationalisation recherchée dans la mise en place des patrouilles, Bilel Benbouzid, maître de conférences en sociologie à l’Université Paris Est Marne la Vallée, relève que ces applications posent également une question intéressante : la police pourra-t-elle, demain, contrôler une personne dans la rue sur la base d’un simple algorithme ?
 
La place de la justice prédictive pénale aux États-Unis
De l’autre côté de l’Atlantique, cela va fait des années, déjà, que les forces de sécurité américaines utilisent des logiciels de prédiction de la délinquance. Deux des plus connus sont Predpol et Hunchlab. Comme le souligne Bilel Benbouzid, depuis les années 1970, les États-Unis réfléchissent à la façon de transformer la police pour en faire un acteur de prévention et pas seulement un urgentiste. Ce type d’applications soulèvent bien des questions, avec au centre des débats actuellement, selon Jeremy Heffner, product manager et senior data scientist chez Hunchlab, la nécessité pour les entreprises qui développent ces produits d’expliquer leur produit et leur algorithme.
Et en matière de prévention de la récidive en matière pénale, quelle place les juges ont-ils fait à ces algorithmes ? C’est précisément le sujet de recherche d’Angèle Christin, maître de conférences à l’Université de Standford, chercheuse associée au Data & Society Research Institute. Cette universitaire rappelle que l’interrogation est ancienne, puisque les premières questions se sont posées aux États-Unis dès les années 1930. Mais ce qui change, désormais, c’est la multiplication des logiciels prédictifs (il y en aurait plus de soixante différents installés dans les juridictions américaines, qui prédisent le risque de non-comparution ou celui de récidive et ce, avec des variables distinctes), et l’élargissement de la base de données des décisions de justice.
Angèle Christin relève quatre critiques principales : l’opacité (ces logiciels sont la plupart du temps développés par des sociétés privées et le profilage réalisé n’est pas communiqué à la personne concernée ce qui ferme la possibilité de toute contestation), la discrimination (les algorithmes ont souvent des biais contre certains groupes sociaux et ethniques), un système à deux vitesses (la plupart des algorithmes prédictifs concernent la justice pénale de masse et pas la criminalité financière, qui aurait le privilège d’être jugée par des humains) et enfin, des prophéties auto-réalisatrices (l’algorithme crée ce qu’il cherche à décrire).
Et au final, sont-ils réellement utilisés ? L’étude non encore publiée de la chercheuse révèle que les juges ont peu confiance dans ces logiciels et qu’ils sont, de facto, peu utilisés, à part, peut-être dans le cadre de la négociation de la peine. D’autant que ce sont souvent des travailleurs sociaux qui remplissent les données, ce qui pose deux types de problème : la fiabilité (la plupart du temps, ils savent sur quelles variables jouer pour faire bouger l’algorithme) et la confidentialité (les travailleurs sociaux n’ont pas la même déontologie qu’un juge).
 
Quelle gouvernance pour les algorithmes ?
La question de la gouvernance des algorithmes est centrale, notamment parce que la plupart de ceux utilisés en matière de sécurité et de justice sont opaques, leur code source restant inaccessible et verrouillés par leurs développeurs. C’est ce qu’a souligné David Forest, avocat à la cour d’appel de Paris, docteur en droit privé et en science politique. Avec un constat : le rejet de la loi comme instrument de régulation par les acteurs du cyberespace, notamment les GAFA. Pour éviter de subir une réglementation, ces sociétés préfèrent proposer des chartes ou des principes éthiques, plus souples (v. notamment, les 23 principes d’Asilomar du Futur of life institute). Pour ce praticien, « l’éthique est en passe de devenir un pont aux ânes de la régulation sur internet » (v. également, Actualités du droit, 31 mai 2017, Forest D., La régulation des algorithmes, entre éthique et droit). Or l’éthique n’est pas un concept reconnu par le droit : elle ne saurait suffire à réguler les pratiques, a fortiori quand les algorithmes sont utilisés au bénéfice de missions régaliennes. Dans cette hypothèse, au-delà de la nécessaire transparence, la question d’un contrôle démocratique se pose.
Pour Henri Verdier, directeur interministériel du numérique et du système d'information et de communication de l'État, « il va falloir penser un cadre politique de l’algorithme », ce qui permettrait, selon Lofred Madzou, rapporteur au Conseil national du numérique de « rendre le pouvoir aux citoyens et de les informer sur le comportement des plateformes ». Mais comment rendre les algorithmes transparents lorsque leur code n’est pas public ?
Une première piste avec le projet Transalgo, mené par l’INRIA, qui ambitionne de développer une méthode à même de déceler des biais dans les algorithmes. Ce qui importe pour Hubert Guillaud, rédacteur en chef d’internetactu, c’est de mettre en place une obligation pour les plateformes qui se fondent sur des algorithmes de les signaler, d’expliquer à leurs utilisateurs comment avoir accès à leurs paramètres et de rendre transparent leur fonctionnement. Vaste programme…
D’autant que, comme le souligne Antoine Garapon, secrétaire général de l'Institut des hautes études sur la justice, « c’est un travail qui doit être poursuivi et qui ne peut être conclu ». Pour ce magistrat, « il ne faut pas fétichiser la technique », mais ce qui importe, c’est de politiser les débats sur la place des algorithmes dans la société.
Un sujet qui devrait rester au centre des débats un long moment, notamment parce qu’à l’automne prochain la CNIL rendra publique une cartographie de l’état des débats sur cette question. Avec des pistes et des propositions pour accompagner le développement des algorithmes dans un cadre éthique. De quoi alimenter les arbitrages que pourraient prendre les pouvoirs publics…
 
 
Source : Actualités du droit