Retour aux articles

Hélène Cazaux-Charles, directrice de l’Institut national des hautes études de la sécurité et de la justice : « L’usage de l’algorithme est un sujet auquel sera confrontée la justice pénale dans les années qui viennent »

Tech&droit - Intelligence artificielle
01/11/2017
La justice civile et commerciale polarise presque l'essentiel des débats, dès lors que l'on parle d'intelligence artificielle et de justice. Et pourtant, il est grand temps de creuser les répercussions que cette technologie aura sur tout un autre pan de la justice : la justice pénale. Le point avec Hélène Cazaux-Charles, directrice de l’Institut national des hautes études de la sécurité et de la justice.

Actualités du droit : Pourquoi avoir choisi « Sécurité et Justice, le défi de l'algorithme » comme thème du colloque que vous avez organisé au juin dernier ?
Hélène Cazaux-Charles : Le choix du thème de ce colloque est le fruit de la rencontre de deux démarches : celle initiée au sein de l’Institut des hautes études de la sécurité et de la justice (INHESJ), lieu-carrefour des politiques du ministère de l’Intérieur et du ministère de la Justice, qui vise à soutenir, au-delà du déploiement de ses missions classiques de formation et d’études, une ambition à la fois plus prospective et plus opérationnelle ; celle engagée par la CNIL, à laquelle la loi n° 2016-1321 du 7 octobre 2016 dite « pour une République numérique », confie une nouvelle mission de réflexion sur le problèmes éthiques et les questions de société soulevés par l’évolution des technologies numériques.

 
De nombreux colloques ont eu lieu, de nombreux travaux existent pour analyser les enjeux de l’usage de l’algorithme en matière civile et commerciale, alors que la justice pénale demeure sous-analysée, en arrière-plan. Nous avons donc souhaité aussi ouvrir cette réflexion, car nous sommes convaincus à l’INHESJ que l’usage de l’algorithme est un sujet auquel sera confrontée la justice pénale dans les années qui viennent. Aussi sensible et risqué soit-il, il faut affronter ce débat pour éclairer dès aujourd’hui les décisions publiques – c’est une mission de notre institut – et anticiper les conséquences d’un usage qui sera indéniablement structurant de l’évolution de notre société. C’est cela pour nous une démarche à la fois prospective et opérationnelle.
 
Il aurait été d’ailleurs plutôt étonnant qu’un institut comme le nôtre n’ouvrît pas ce débat. Il faut ici rappeler que la Cour de cassation a tenu un colloque le 14 octobre 2016, étudiant « la jurisprudence dans le mouvement de l’open data ». D’ici la fin 2017, sous réserve du travail d’anonymisation, ce sont 1 500 000 décisions non pénales qui seront librement accessibles, soit 10 années d’arrêts de cour d’appel anonymisés. À terme, il s’agira de mettre à disposition du public, toujours sous forme anonymisée, toutes les autres décisions de justice, civiles et pénales, de tous les degrés de juridiction, soit 1 500 000 décisions chaque année, dont 705 000 décisions pénales. C’est peut être un progrès pour l’accessibilité à la justice mais c’est aussi et surtout un marché important, notamment pour nombre de start-up, dont les algorithmes pourraient nous faire basculer dans une nouvelle ère. Ainsi, il deviendra certes possible de prévoir (et non prédire) la décision judiciaire par identification des juges ou des juridictions. Mais plus spécifiquement en matière pénale, si l’on accepte l’usage de l’algorithme, il nous faudra alors mesurer les risques afférents à une justice prévisionnelle (et non prédictive, j’insiste !), car empruntant aux calculs de probabilité et à l’analyse actuarielle pour entretenir l’espoir d’une évaluation rationnelle et fiable du risque de récidive ou de passage à l’acte infractionnel.
 
À ma connaissance, officiellement, il n’y a pas, encore, de legal tech qui se sont lancées dans l’exploitation des données judiciaires en matière pénale. Pour autant, je considère que, dès lors qu’est ouvert le chantier de la justice civile et commerciale (les seules décisions disponibles aujourd’hui en open data), la réflexion va nécessairement porter un jour sur la justice pénale.
 
Au-delà des enjeux inhérents à la sauvegarde de la vie privée et des libertés individuelles, concevoir la nature humaine comme un agrégat de données qu’il convient de connaître, de configurer et d’analyser pour organiser la vie en société pose à coup sûr un vrai débat philosophique. Tel est aussi l’objet de réflexion de ce colloque.
 
ADD : Quelle place occupent actuellement les algorithmes dans la pratique judiciaire ?

H. C.-Ch. : Aucune. L’autorité judiciaire n’a pas, à ce jour, recours à des algorithmes. En matière civile et commerciale, cependant, deux expérimentations ont eu lieu au sein des cours d’appel de Douai et de Rennes. À ma connaissance, les magistrats ont émis de très fortes réserves sur cette expérimentation.
 
Certes, l’algorithme peut aider les justiciables à évaluer les chances de succès ou les risques d’échec, mais aussi peut révéler les disparités de jurisprudence. Il peut ainsi inciter la magistrature à réfléchir à une mise en cohérence de sa jurisprudence, ce qui ne me parait pas incompatible avec le principe de son indépendance. En revanche si d’une mise en cohérence souhaitable, l’objectif dérivait vers une normalisation de la décision judiciaire par alignement sur une décision médiane, attentatoire à la liberté d’interpréter au cas par cas, alors oui, il y aurait là un risque démocratique évident. Trancher un litige, c’est posséder, selon la tradition romaine qui nous porte encore, la maîtrise de « l’art du bon et de l’égal », et non aligner paresseusement le jugement sur une médiane. Si un tel mouvement l’emportait, c’est d’ailleurs l’existence même de laC de cassation, en charge de l’harmonisation de la jurisprudence, ou de toute cour suprême, qui serait menacée.
 
Pour autant, et justement parce que les enjeux sont graves, complexes, exigent un long temps de réflexion, il faut très vite ouvrir et déployer cette réflexion pour garder la maîtrise d’une organisation judiciaire qui doit demeurer garante des principes fondamentaux (indépendance, égalité devant la loi, débat contradictoire, présomption d’innocence, etc). Il faut ouvrir tous les sujets, et, au-delà de l’algorithme, celui qui vient immédiatement après : le sujet de l’intelligence artificielle appliquée au domaine judiciaire. La pire des attitudes face au monde qui s’annonce en même temps que se déploient de nouveaux marchés, serait de reculer et de mettre la poussière sous le tapis.
 
ADD : Quelles solutions apportent ces traitements algorithmiques ?
H. C.-Ch. : Il n’est plus besoin de souligner combien la justice aujourd’hui souffre d’un manque de moyens. Les délais pour obtenir une décision ne sont pas acceptables et les magistrats, les premiers, souffrent gravement de la logique industrielle de gestion des flux dans laquelle ils sont enfermés. Je pense même que la perte du sens des missions induites par cette logique d’abattage de dossiers est autant responsable du grave malaise que traverse la magistrature que le manque de moyens lui-même.
 
La tentation est donc grande de voir dans l’usage algorithmique une aubaine pour le traitement des contentieux de masse que sont, par exemple, le contentieux devant le juge aux affaires familiales, le contentieux des impayés, le contentieux routier ou du "petit" correctionnel, etc. Ne faut-il pas préférer l’efficacité de l’algorithme pour calibrer la décision, à la lourdeur du barème préétabli, et à plus long terme, l’efficacité du robot, à la lenteur de la procédure ou à l’aléa du débat judiciaire ? Ne faut-il pas ainsi recentrer les efforts des magistrats sur les dossiers requérant une appréciation rigoureuse et approfondie des contingences humaines, sociales, économiques, juridiques ? Sans doute faut-il conduire cette réflexion mais à la condition aussi, selon moi, de se demander si cette "justice" qui aboutit au prononcé d’une décision barèmée plus qu’à une décision ajustée au cas d’espèce, relève encore de la Justice. Le vrai sujet, n’est-il pas, en fin de compte, celui de la redéfinition du domaine du contentieux judiciaire au XXIe siècle, c’est-à-dire de ce qui relève du débat devant un magistrat indépendant garant de la loyauté de la preuve et de l’égalité des armes ?
 
D’autres traitements algorithmiques présentent un aspect tout aussi attractif que celui de l’optimisation des "ETP". Ils peuvent en effet, nous l’avons évoqué à l’instant, contribuer au déploiement intelligent de la jurisprudence grâce à l’harmonisation de la réponse judiciaire qu’ils facilitent. Ils peuvent également être une aide efficace à la conduite de l’enquête criminelle, ou encore à la décision du juge comme du justiciable qui s’apprête à introduire une action en justice. Ils peuvent enfin contribuer à la meilleure connaissance des lois et de leur application.
 
ADD : Que faut-il retenir de l’expérience américaine, pays qui depuis des années, déjà, a recours à des algorithmes prédictifs ?
H. C.-Ch. : Angèle Christin a démontré, finalement, la réticence et la méfiance des juges américains par rapport à l’algorithme (Actualités du droit, 4 sept. 2017, entretien avec Christin A., maître de conférences à l’Université de Stanford : « Une grande majorité des juridictions américaines utilise des algorithmes d’estimation de la récidive »).
 
Au-delà du scandale créé par la confusion entre probabilité et vérité (« les noirs américains ont plus de probabilités que les autres citoyens américains d’être délinquants », est devenu : « les noirs américains sont plus délinquants que les autres citoyens »), je note que la défiance des juges américains à l’endroit de l’usage algorithmique mérite attention. En effet, comme leurs homologues français, ils sont eux aussi soumis à une charge de travail importante, de sorte que ce sont les travailleurs sociaux qui renseignent en amont du jugement les items à partir desquels l’équation algorithmique va remplir son office. Par ailleurs, nombre de ces items, par leur nature qualitative, introduisent une dimension subjective dans leur appréciation. Ce résultat prétendument technique soumis au juge pour évaluer le risque de récidive est donc, en grande partie, le reflet des représentations professionnelles et des interprétations des travailleurs sociaux.
 
Ce déplacement de l’interprétation du juge vers celle du travailleur social est un sujet grave d’une part, car la caractérisation du cas échappe au débat contradictoire, d’autre part, car, de fait, il induit aussi une atteinte à l’imperium du juge, seule bouche autorisée à dire la loi, tout simplement parce que le juge est "ficelé" par des règles de procédure qui protègent le justiciable de l’arbitraire.
 
ADD : Quelles sont les principaux risques sur leur usage dans ce domaine ?
H. C.-Ch. : Je viens de l’évoquer, le risque de l’algorithme appliqué à la justice pénale est celui de la soumission des décisions de justice (la jurisprudence), sous couvert d’efficacité managériale et d’harmonisation, à une norme médiane érigée en vérité quasi-scientifique, alors qu’elle n’est que le simple résultat d’un calcul probabiliste dépourvu d’objectivité.
 
Mais, bien au-delà, le risque majeur lié à l’usage algorithmique par la justice, est celui d’une évolution lourde de conséquences dans l’économie du pouvoir. Il faut ici faire un détour par cette période historique capitale pour notre civilisation qu’est le XIIe siècle, période durant laquelle, par le truchement du droit des preuves, la nature du garant de la vérité a muté. À l’instance divine (le suspect subissait l’ordalie et le miracle était considéré comme preuve de l’innocence), a été substituée l’instance étatique (la preuve de la culpabilité résulte d’une démonstration rationnelle appuyée d’abord sur les témoignages, plus tard sur la technologie annonciatrice de notre police technique et scientifique, et donc… de l’algorithme). J’observe, qu’à nouveau par le vecteur du droit des preuves, au moyen d’équations qui "prédiraient" les risques de culpabilité ou de récidive, comme un éternel recommencement de l’histoire, un garant de la Vérité pourrait bien chasser l’autre. Ainsi, un certain credo (une religion ?) scientiste est tenté de se substituer à la démonstration rationnelle de la preuve, qui s’appuie certes sur les sciences et techniques, mais dans un cadre procédural qui lui confère statut de simple expertise et non de vérité. Avant de franchir un tel cap, réfléchissons bien à ce que signifie la soumission du raisonnement judiciaire, qui participe de la construction de l’ordre social et politique, à une loi scientifique… Il me semble que, sur ce point, le XXe siècle est riche d’enseignements, très lourds de sens.
 
Le second risque, lié à ce que je viens d’exposer, porte sur la pérennité de la paix civile. En effet, nous avons vu que construire et renseigner des items en apparence "neutres" consiste à saisir des faits, c’est à dire une petite part de réalité, pour alimenter une équation algorithmique. En conséquence, saisir un fait, aussi objectif soit-il, introduit nécessairement une part d’interprétation et de subjectivité puisque cette saisie exige inévitablement de recourir au langage, ce produit d’une équation (une autre, mais saussurienne celle-là !) complexe entre l’émetteur, le récepteur et le tiers, garant du sens, c’est à dire dans nos sociétés occidentales, l’État. Comme le soulignait déjà le philosophe Alain au début du XXe siècle, « la perception est pleine d’esprit » !
 
Or, si le score délivré par l’algorithme pour évaluer la probabilité de culpabilité ou le risque de récidive, vaut décision, notamment sous la pression des flux incessants de dossiers, alors l’office du juge est vidé de toute portée : c’est l’abolition du débat judiciaire qui soumet cette interprétation à la discussion des parties au procès, c’est aussi l’éviction de la responsabilité professionnelle, de la dimension institutionnelle nécessaire à la résolution des litiges, c’est à dire à la régulation de la violence sociale. Allant jusqu’au bout du raisonnement, si demain, l’algorithme structure la manière dont il faut décider et donc gouverner les hommes, c’est la fonction des institutions, du Politique à majuscule, garant de la paix civile, qui est en cause.
 
Souvenons-nous ici encore de cette période bouillonnante évoquée plus haut, au cours de laquelle l’occident romano-chrétien a entrepris de « mettre le monde en forme » selon une expression de l’époque ; mettre le monde en forme juridique par l’assomption de la figure de l’État de droit, ce droit qui, depuis, n’a cessé de structurer les rapports sociaux et notre organisation politico-institutionnelle. Il s’agissait alors de trouver le chemin d’une coexistence pacifique des civilisations et des croyances. Nous en sommes à nouveau là, car, si j’ose dire, la mise en forme du monde semble osciller entre "État de droit" et "État de nombre", le code supplantant le mot, l’équation et sa logique implacable rivalisant avec l’interprétation éternellement renouvelée du monde par le Politique et les arts.
 
Enfin, je terminerais par le risque d’une remise en cause du principe du juge naturel, garant de l’impartialité et de l’égalité de tous devant la loi. "Juge naturel", cela signifie qu’on ne choisit pas "son" juge. Ainsi, ce principe notifie à tout citoyen que la place du tiers, garant du dépassement du conflit, celle du juge en l’espèce, est indisponible, c’est-à-dire soustraite au bon vouloir des parties et aux intérêts particuliers.
 
Or l’algorithme permet, grâce à l’analyse des données contenues dans les décisions de justice accessibles en open data, de connaître les chances de succès dans un dossier, les fourchettes d’indemnisation ou de peines et surtout les arguments les plus convaincants à développer auprès du juge grâce à la possibilité d’identification de sa jurisprudence. Comme le souligne Antoine Garapon (in Revue stratégique de l’innovation et de la prospective, les enjeux de la justice prédictive, 2016, p. 29) « l’enjeu n’est plus la décision juridique mais la résolution sociale de l’affaire, (évolution révélatrice) de la lente substitution du registre cognitif au registre normatif (…) ».
 
Ainsi peuvent s’organiser, pour les plus aguerris et les plus fortunés, des stratégies de contournement des juridictions, de structuration de rapports de force et de négociation, grâce à la connaissance non pas du droit, mais de la décision potentielle des juges. Autrement dit, la stratégie économique supplante la stratégie judiciaire, comme l’étude de marché, l’étude de l’état du droit. C’est cela le sens du principe du juge naturel, protéger le citoyen de l’arbitraire des rapports de force en instituant démocratiquement une fonction indisponible, celle de trancher les litiges ou de juger de la culpabilité.
 
ADD : Quel contrôle peut-on ou doit-on avoir sur ces algorithmes ?
H. C.-Ch. : Je sais qu’il est de bon ton, dès que le droit et la morale menacent d’entraver ce qu’il est convenu d’appeler le progrès et la modernité, de faire appel à l’éthique. Cédant certes à la provocation, je dirais, empruntant au titre du dernier ouvrage du grand juriste Alain Supiot (La gouvernance par les nombres, Fayard, 2015), que lorsqu’il s’agit de substituer au gouvernement (des personnes) par les lois, la gouvernance (des comportements) par les nombres, l’éthique c’est du toc. L’éthique, notamment depuis les années 60, est souvent utilisée dans le déploiement du marché comme une technique de marketing ; on la vend en "comités" intégrés au produit toxique pour la démocratie, l’environnement, etc. L’éthique est devenue en fin de compte, dans une telle perspective, un sous-produit du management, qu’il soit ou pas new public.
 
Derrière de simples questions : quel est le statut juridique de l’algorithme ? Quelle est sa place en procédure? Comment encadre-t-on son usage ? Qui construit l’équation ? Qui agrège les données ? Qui opère des audits ?, se profilent des enjeux considérables, à haute teneur anthropologique, de sorte qu’il ne saurait être question de les abandonner aux divers comités d’éthique que proposent certains acteurs privés.
 
Dès l’instant où le magistrat, du siège ou du parquet, a recours à une équation mathématique pour administrer la preuve d’une faute civile ou pénale (la culpabilité), pour analyser des faits, construire un raisonnement, il faut alors que la magistrature ait accès à la nature et aux modalités d’agrégation des données soumises à l’équation algorithmique, comme à l’économie de cette équation, pour pouvoir apprécier la rigueur, la qualité, l’impartialité de l’administration de la preuve. Seuls les régimes dictatoriaux s’affranchissent de ce principe.
 
Pour ma part, je pense que de telles questions relèvent au minimum de la loi, qui a seule valeur normative et contraignante.
 
Toujours dans ce souci d’inventer de nouvelles formes de contrôles démocratiques, il faut aussi anticiper ces évolutions en déployant une politique de recrutement de mathématiciens de très haut niveau au ministère de la Justice, de façon à ce que ce ministère ait sa propre expertise, garante de l’indépendance de la magistrature. Ensuite, il faudra former les fonctionnaires et les magistrats à l’utilisation de ces algorithmes pour qu’ils demeurent une aide pour ces derniers, ni plus ni moins, au même titre qu’une expertise psychiatrique ou balistique.
 
Le numérique peut être une chance pour la justice, mais à la condition d’avoir une vision claire des enjeux de cette révolution, de penser une vraie politique publique, d’autant que le "coût d’entrée" dans ce chantier est immense.
 
ADD : Plus largement, ces réflexions ne posent-elles pas la question de la place que la science doit occuper dans la société et de la confiance que l’on peut lui accorder ?
H. C.-Ch. : La révolution numérique comme toutes les révolutions, va laisser sur le bord de la route des milliers de sacrifiés, engendrer de nouvelles élites, de nouveaux codes sociaux et de nouveaux modèles économiques, structurer un nouveau rapport au temps et à l’espace comme une nouvelle économie du savoir et du pouvoir. Comme toute révolution, elle fascine et inquiète, elle stimule et désespère... et l’humanité continue à avancer en entretenant sans cesse le feu, c’est à dire le mystère de la civilisation. De ce point de vue, « il faut que tout change pour que rien ne change », comme le dit si bien le prince de Salina, magnifique héros du film de Visconti, « Le Guépard », contemplant l’ancien monde s’effacer avec lui, tandis qu’émerge le nouveau monde de son jeune et fougueux neveu, Tancrède (qui serait aujourd’hui à la tête d’une start-up !).
 
Rien de nouveau sous le soleil donc… à ceci près toutefois : contrairement aux imprudents qui affirment que l’horizon démocratique est enfin quasiment atteint grâce à la ringardisation de l’organisation verticale du pouvoir au profit de l’horizontalité du réseau, je considère au contraire que nous sommes entrés dans une ère de très forte verticalité, porteuse d’un risque de soumission inédit des humains.
 
En réalité, ce que d’aucun qualifie de verticalité du pouvoir n’est que l’architecture symbolique et institutionnelle essentielle à la construction d’une société humaine libre et responsable, inscrite dans une identité propre et un récit partagé des origines et des fins. Ce que proposent les intégristes de la nouvelle religion scientiste, ceux qui n’ont pas la sagesse des grands mathématiciens, c’est un monde non pas horizontal mais plat, un monde débarrassé du doute, de l’erreur, de l’aléa, de l’incertitude, de l’irréductible altérité, de la limite, en un mot de tout ce qui est négatif. Or, cette négativité est le terreau sur lequel prospèrent les arts, la culture, les civilisations. Sans cela, point de Politique ni même d’Histoire, de passé, de présent et d’avenir.
 
Dans cette représentation scientiste (et non scientifique), la science s’érige en ce monde plat comme un immense totem et règne en garant de la Vérité, maître du sens de l’histoire. Je crains que l’idéal de prévision des comportements, de régulation des conflits, d’évitement des zones de frottement et de contradiction, d’abolition de tout ce qui nous confronte aux limites humaines, ne puisse constituer une raison de vivre ; en tous cas une raison de vivre suffisamment forte pour faire tenir ensemble les milliards d’humains qui peuplent notre planète. C’est sans doute cela qui est inédit : la puissance de feu et de frappe de cette révolution à toute la planète, en un seul et même mouvement.
 
Je suis née dans la seconde moitié du XXe siècle et suis donc petite-fille de grands-parents qui m’ont raconté l’histoire vécue d’une guerre qui a englouti des millions de personnes au nom du gouvernement scientifique de l’humanité. Je ne veux pas appartenir à une génération dont les petits-enfants subiront les conséquences de l’oubli ou du déni irresponsables d’une humanité prétentieuse, persuadée qu’il peut être fait table rase du passé et notamment d’enjeux civilisationnels multi-séculaires dont nous vivons la réactivation. Ce n’est pas le progrès scientifique que je refuse, bien au contraire, mais le discours fou qui donne statut de Référence absolue à la science, conçue comme garante même d’un ordre politique dont elle organiserait la mutation du "code génétique".
 
Encore une fois, empruntant à l’œuvre d’un nos plus grands savants, Pierre Legendre, il faut mettre en garde sans concession contre toute propension à réitérer l’expérience d’une organisation scientifique du pouvoir et de l’humanité qui ne laisse aucune place à ceux qui ne remplissent pas les critères d’une performance idéalisée (« raciale » ou cognitiviste, c’est égal) ou refusent de s’y soumettre.
 
Propos recueillis par Gaëlle MARRAUD des GROTTES 
Source : Actualités du droit