Archives de Catégorie: Justice prédictive

La justice prédictive

On parle de plus en plus de « justice prédictive », ce qui désigne non la justice elle-même (« M. le Juge, que pouvez-vous me dire de mon avenir judiciaire ? », « Eh bien, je vois une longue période passée au même endroit, et une dépense importante », « Ah… ») mais des instruments d’analyse de la jurisprudence et des écritures des parties, instruments qui permettraient de prédire les décisions à venir dans des litiges similaires à ceux analysés, c’est-à-dire d’identifier quelle solution sera donnée à un litige X par un juge Y, soit au vu des données du litige X, soit par une analyse des écritures des parties (ce n’est pas de graphologie qu’il est question mais d’analyse textuelle, comme on le verra un peu plus loin !).

En France, les entreprises qui proposent ce type d’instruments sont les sociétés Case Law Analytics et Predictice. Aux Etats-Unis, un acteur de ce secteur est la société Lex Machina.

 On peut se dire que prédire les décisions de justice est depuis toujours l’objectif de tout avocat et de tout universitaire consultant. Qui se tourne vers l’un ou l’autre de ces acteurs attend d’eux, avec plus ou moins d’espoir, une prescience de la jurisprudence. A un niveau plus personnel, le « profilage » des juges est fait depuis toujours par les avocats. La pratique américaine de la sélection des membres des jurys, popularisée par le cinéma et la littérature, rejoint les tentatives de forum shopping des avocats de par le monde. Mais la justice prédictive ne repose pas tant sur le « nez » d’un praticien du droit que sur des instruments d’analyse différents, statistiques ou d’exploration du texte.

J’ai rédigé un article sur le sujet destiné à paraître au Recueil Dalloz dans les semaines à venir, mais il est intéressant de présenter déjà ce dont on parle.

 

L’utilisation la plus évidente pour les juristes : l’analyse statistique en fonction du contenu des décisions.

Pour faire de la justice prédictive, il faut avoir créé et alimenté une base de données jurisprudentielles (on l’appellera la BDJ).

La première utilisation possible de la BDJ, et la plus évidente pour les juristes, habitués à lire et analyser les décisions de justice, consiste à procéder à une analyse statistique des décisions qu’elle contient. Par exemple, si l’on introduit dans la BDJ toutes les décisions rendues en France en matière de contestation de son licenciement par un salarié, on aura le moyen de dire dans quelle proportion l’action a été accueillie ou rejetée, combien de dommages-intérêts ont pu être accordés en moyenne, quels ont été les indemnisations les plus élevées, et ainsi de suite.

La régularité observée pour tel ou tel résultat doit aussi mettre les utilisateurs de la BDJ en mesure de connaître les chances de succès de tel ou tel argument devant les tribunaux en général, ou pourquoi pas devant tel ou tel juge. La loi des grands nombres trouve ici à s’appliquer.

Il pourrait ainsi être révélé que telle formation du conseil de prud’hommes de telle ville a accordé des dommages-intérêts dans 63% des cas dans lesquels elle a été saisie d’une demande reposant sur un licenciement discriminatoire. Des décisions analysées, on pourrait également déduire que la moyenne des dommages-intérêts accordés par les formations où siégeait le juge X était de 12.552 euros, ou que ces dommages-intérêts n’ont jamais dépassé 20.000 euros.

Des précisions devront être apportées, si l’on veut que ces données aient un sens et une utilité. Il faut par exemple savoir si la moyenne de dommages-intérêts doit tenir compte des cas dans lesquels la demande a été rejetée (et considérer alors que la somme des dommages-intérêts octroyés par la décision concernée est égale à zéro), ou si l’on ne prend en compte, pour établir la moyenne, que les décisions accordant effectivement une indemnisation au salarié.

D’autres utilisations : l’analyse textuelle.

Une autre utilisation de la BDJ passe par d’autres instruments d’analyse, comme les logiciels d’analyse sémantique, d’analyse textuelle. Une expérimentation a ainsi été menée par quatre chercheurs sur des décisions de la Cour européenne des droits de l’Homme, à partir d’une analyse des mots employés par les juges et par les parties. Se fondant sur une base constituée de quelques centaines de décisions, portant sur trois articles de la Convention européenne de sauvegarde des droits de l’Homme et des libertés fondamentales, les auteurs de l’étude estiment parvenir à une prédiction exacte dans 79% des cas (N. Aletras, D. Tsarapatsanis, D. Preotiuc-Pietro et V. Lampos, Predicting judicial decisions of the European Court of Human Rights : a Natural Language Processing perspective, 24 oct. 2016, étude accessible sur https://peerj.com/articles/cs-93).

On peut considérer que ce résultat n’est pas satisfaisant, puisque le logiciel se trompe plus d’une fois sur cinq, mais on peut considérer que l’on dispose déjà d’un instrument complémentaire par rapport à l’analyse traditionnelle.

Une idée ancienne ?

L’idée d’une analyse statistique et probabiliste des décisions de justice n’est pas nouvelle (v. E. Barbin et Y. Marec, Les recherches sur la probabilité des jugements de Simon-Denis Poisson, in Histoire et Mesure, 1987, vol. 2, n° 2, p. 39).

L’informatique permet cependant d’aller très loin dans l’exploration et l’analyse des données – c’est à ce titre qu’on peut parler de « Big Data Judiciaire ». Dès 1963, un avocat américain, Reed C. Lawlor, décrivait déjà ce que les ordinateurs pouvaient faire pour les juristes, à une époque où l’informatique n’était bien sûr encore qu’embryonnaire (R. C. Lawlor, What computers can do : analysis and prediction of judicial decisions, American Bar Association Journal 1963, 49, p. 337).

Mais au-delà de la question des possibilités offertes par l’informatique, cet auteur donnait un point de vue qui demeure d’actualité, puisqu’il écrivait « There is no way that the law can avoid the scrutiny of science. If the lawyers and judges do not participate in this work, it will all be done by others ». Si les avocats et les juges ne participent pas au travail d’analyse scientifique – informatique précisément – ce sont d’autres qui le feront.

Un instrument en développement.

Plusieurs facteurs convergent actuellement pour favoriser l’émergence de la justice prédictive, sinon comme instrument immédiatement opérationnel, à tout le moins comme sujet d’étude digne d’intérêt pour les praticiens et les théoriciens du droit.

Un premier facteur est bien sûr celui de l’ouverture des données jurisprudentielles, mouvement dit de l’Open Data, concrétisé en France par la loi Lemaire. La loi pour une république numérique (n° 2016-1321 du 7 oct. 2016) a ajouté au Code de l’organisation judiciaire un art. L. 111-13 qui dispose notamment que « les décisions rendues par les juridictions judiciaires sont mises à la disposition du public à titre gratuit dans le respect de la vie privée des personnes concernées ».

D’autres facteurs sont technologiques : le développement de l’intelligence artificielle (IA), la capacité croissante à analyser des masses de données gigantesques (le Big Data).

Le dernier facteur est à la fois humain et plus général. Il tient au développement des nouveaux acteurs du droit connus sous le nom de start-ups juridiques ou LegalTech.

On l’aura compris, la question est passionnante et mérite un vrai débat.

Bruno DONDERO

5 Commentaires

Classé dans avocat, Droit d'internet, Droit des entreprises, Entreprise, Justice, Justice prédictive, Uncategorized