Archives de Tag: Intelligence artificielle

L’IA meilleure que l’avocat: oui… mais sur certaines tâches seulement!

Nous avons publié avec l’avocat Bernard Lamon une étude, parue cette semaine à la Semaine juridique édition Générale, consacrée à l’expérience menée par l’entreprise LawGeex, et dont il est question ici.

Cette entreprise basée aux USA et en Israël a organisé un « match » entre une vingtaine de lawyers expérimentés (des avocats stricto sensu mais aussi des juristes d’entreprise ou de collectivités publiques) et le logiciel d’analyse des contrats développé par l’entreprise.

LawGeex a rédigé un document sur cette expérience, document qu’il est possible de commander.

Ce match consistait à soumettre cinq contrats aux humains et à l’IA et à leur demander d’identifier des clauses de 30 catégories différentes.

 

I – Le résultat: victoire nette de l’IA…

Le résultat du match est clairement à l’avantage de la machine, qui identifie en 26 secondes les clauses de 30 types divers dans les contrats là où les humains mettent plutôt une heure ou deux, et la machine est plus fiable que les humains.

Résultat de recherche d'images pour "lawgeex"

Il semble en découler que l’IA est prête à remplacer les avocats, menace que l’on a déjà entendue à propos du logiciel ROSS (voir l’article de ce blog « ROSS, Peter, Dalloz et les autres« ).

Image associée

 

II – … à nuancer sérieusement.

N’allons pas si vite, car il faut faire état de plusieurs points importants.

Tout d’abord, le match ne portait que sur l’identification de clauses, donc la tâche consistant à identifier une clause comme étant, par exemple, une clause limitative de responsabilité, ou une clause d’arbitrage, etc.

L’IA (du moins celle qui a été utilisée) ne « détecte pas les erreurs », contrairement à ce que l’on a pu lire, au sens où elle ne fait pas le travail suivant:

  1.  identifier la loi L applicable au contrat C;
  2. identifier dans C une clause d’un type donné (la clause X);
  3. comprendre du 1 que la clause X est interdite par la loi A dans le contrat C;
  4. signaler la clause X comme étant illicite.

Ensuite, l’analyse ne portait sur des contrats du même type, et des contrats standards (ce sont des accords de confidentialité) que la machine avait vu des milliers de fois.

Enfin, et surtout, certains avocats font parfois mieux que la machine.

Le tableau des résultats est passionnant, en ce qu’il permet de comparer les avocats à la machine, mais aussi les avocats entre eux.

Dans le tableau ci-dessous, figurant dans l’étude LawGeex, on voit les moyennes de plusieurs juristes humains, contrat par contrat (NDA 1, NDA 2, etc.) puis leur moyenne générale.

LawGeex haut

Dans ce second extrait, on voit les résultats des humains pris dans leur ensemble, et on peut les comparer aux résultats de l’IA.

LawGeex Extrait 2

Certains points sautent aux yeux: la machine est toujours meilleure que les humains pris dans leur ensemble, et elle les bat de beaucoup.

Mais certains humains, comme les lawyers 19 et 20 battent parfois la machine ou font jeu égal avec elle.

Résultat de recherche d'images pour "man vs robot comic"

L’avocat contre l’IA (allégorie Marvel)

 

III – Et après?

L’IA ne remplace pas encore l’avocat, pour dire si une clause est valable au regard de la loi applicable. Du moins l’IA qui a été utilisée ici ne le fait pas, mais cela ne devrait pas être infaisable.

Notons tout de même que le travail de vérification de la validité d’une clause n’est pas si simple qu’on peut le penser de prime abord, et qu’une rédaction un tout petit peu inhabituelle pourrait perturber la machine, de même que l’insertion d’un détail inhabituel dans une photo perturbe beaucoup les logiciels de reconnaissance d’image, comme l’évoquait un article du NY Times récemment.

L’IA est tout de même très utile, par exemple pour trouver une clause sensible dans un contrat, ou dans de très nombreux contrats. Par exemple, si je rachète une entreprise avec des centaines de collaborateurs, il est important de savoir s’ils ont une clause de conscience dans leurs contrats et s’ils vont potentiellement partir.

En conclusion, ce qui est envisageable dans notre domaine maintenant et sans doute encore pour quelques années, c’est une collaboration de l’IA aux tâches des juristes humains.

Bruno DONDERO

Poster un commentaire

Classé dans Clauses, Contract Law, Droit des contrats, Intelligence artificielle, LegalTech, Uncategorized

Intelligence artificielle et bénéficiaire effectif

Les sociétés françaises non cotées en bourse et immatriculées au registre du commerce et des sociétés sont aujourd’hui soumises à une obligation particulièrement lourde, puisqu’elles sont tenues de procéder à l’identification de leurs bénéficiaires effectifs et de déclarer l’identité de ceux-ci, ainsi qu’un certain nombre d’autres informations. Les déclarations, adressées au greffier du tribunal de commerce vont nourrir un fichier, le registre des bénéficiaires effectifs (RBE), consultable par différentes autorités et, sur autorisation judiciaire, par toute personne intéressée. Le but de ce dispositif est de lutter contre le blanchiment et le financement du terrorisme (voir ici pour une explication-flash en vidéo).

Le choix qui a été fait pour constituer le RBE est celui d’imposer aux sociétés de procéder individuellement aux déclarations requises par la loi. Des centaines de milliers de sociétés sont donc soumises à une obligation lourde, qui passe par un formulaire qui doit être rempli et adressé au greffier.

L’Intelligence artificielle pourrait alléger considérablement la tâche des sociétés soumises à cette nouvelle obligation.

Notons que la directive du 20 mai 2015 qui impose d’identifier et de déclarer les bénéficiaires effectifs n’évoque pas le recours à un algorithme pour faciliter l’accomplissement de cette nouvelle obligation, mais que cela ne devrait pas être interdit.

 

Un coût immense.

Le coût de l’accomplissement de la formalité de déclaration des bénéficiaires effectifs s’annonce immense.

La partie visible de l’iceberg réside dans les sommes qui vont être prélevées par les greffiers. Le dépôt du formulaire relatif aux bénéficiaires effectifs est en effet payant, de même que la modification de la déclaration. Pour rappel, ces sommes sont de l’ordre de 50 euros pour le dépôt et de 40 euros pour les modifications.

 

 

Mais pour pouvoir remplir la déclaration, certaines sociétés vont devoir se lancer dans un processus de recherches approfondies. Bien sûr, beaucoup de situations seront simples, comme ce sera le cas lorsque des personnes physiques détiendront directement plus de 25% du capital social ou des droits de vote de la société. Mais de très nombreuses situations seront particulièrement complexes à gérer, notamment parce que la détention prise en compte peut aussi être indirecte. De ce fait, la société A qui n’a que des actionnaires personnes morales, les sociétés X, Y et Z, devra interroger celles-ci pour connaître les personnes physiques qui sont les actionnaires de X, Y et Z, et qui pourraient être les bénéficiaires effectifs de la société A.

En somme, le coût entraîné par l’obligation de déclaration des bénéficiaires effectifs sera toujours supérieur aux sommes prélevées par les greffes des tribunaux de commerce.

Un risque important d’inexécution.

Demander à toutes les sociétés de procéder « manuellement » et individuellement à la déclaration de leurs bénéficiaires effectifs est non seulement absurde au regard du coût que cela représente pour ces sociétés, mais ce choix a aussi comme inconvénient d’entraîner un risque d’inexécution considérable.

La déclaration des bénéficiaires effectifs peut être entravée à la fois, notamment, par :
– l’ignorance par les dirigeants des sociétés concernées de l’existence de l’obligation de déclarer ;
– l’inertie dont certains dirigeants feront preuve ;
– la lenteur dont les greffiers des tribunaux de commerce pourront faire preuve dans le traitement des très nombreuses déclarations ;
– l’impossibilité pour certaines sociétés ou le refus de supporter les coûts attachés à la déclaration ;
– la difficulté réelle à identifier les bénéficiaires effectifs du fait de l’absence de réponse fournie par les personnes concernées (par ex. : défaut de réponse de la société mère interrogée par sa filiale) ;
– l’existence de questions juridiques complexes.

L’utilité de l’Intelligence artificielle.

On se trouve donc confronté à une situation où il faut procéder à une tâche de grande ampleur, et où l’automatisation pourrait jouer un rôle important.

Plutôt que d’obliger des millions de personnes à accomplir une tâche complexe et répétitive, ne pourrait-on trouver dans l’intelligence artificielle (IA) les ressources pour, sinon remplacer complétement l’homme, du moins l’assister très efficacement ?

Les critères d’identification du bénéficiaire effectif sont de deux types :
– soit détenir plus de 25% du capital ou des droits de vote d’une société ;
– soit exercer un pouvoir de contrôle sur les organes de cette société.

Le second critère est assez subjectif pour qu’un algorithme ne puisse identifier à coup sûr les situations concernées, mais le premier critère devrait être appréhendé plus aisément, et il est probable que ce premier critère épuisera la grande majorité des situations dans lesquelles un bénéficiaire effectif doit être identifié.

Un algorithme pourrait poser des questions simples au dirigeant d’une société, tout en suggérant des réponses à partir des informations qu’il aura trouvées sur les registres publics (registre du commerce et des sociétés, en premier lieu) ou sur internet. Le formulaire de déclaration des bénéficiaires effectifs sera donc prérempli, ce qui accélérera considérablement les choses.

La déclaration des bénéficiaires effectifs en est à ses débuts, ne serait-ce qu’en termes d’identification des difficultés juridiques que cette obligation soulève, mais il serait regrettable de ne pas utiliser dès aujourd’hui les ressources de la technologie pour permettre aux dirigeants concernés de se mettre plus facilement en conformité avec cette obligation de transparence.

Bruno DONDERO

5 Commentaires

Classé dans Droit des entreprises, Droit des sociétés, LegalTech, Loi Sapin 2, Nouvelles pratiques, Nouvelles pratiques du droit, Tribunaux de commerce, Uncategorized

L’intelligence artificielle est-elle à l’abri des biais cognitifs ?

L’intelligence artificielle (IA) est de plus en plus présente dans nos vies, que nous nous en rendions compte ou pas. L’IA est utilisée par de très nombreuses applications, sites, logiciels, etc. que nous utilisons quotidiennement. Mais l’évolution du rôle de l’IA dans notre société tient aussi aux « exploits » qu’elle accomplit, et qui sont largement médiatisés.

L’IA est tellement forte qu’un ordinateur bat les plus grands champions humains aux échecs ou au jeu de go. Ce ne sont que des activités ludiques, certes, mais la victoire de l’IA y est sans appel, et si l’ordinateur nous est supérieur dans ces activités intellectuelles, que va-t-il faire, que va-t-il nous faire bientôt ? Est-ce lui, par exemple, qui va nous juger dans un avenir proche, lorsque nos tribunaux humains auront été remplacés par une justice robotisée ?

Pour l’heure, contentons-nous de nous interroger sur les avantages, sur les forces de l’IA. Si elle est créée par l’homme, c’est bien pour l’aider dans son activité. Si une partie de cette activité implique de lourds travaux d’analyse et la prise de décisions nombreuses, la machine peut y aider.

L’humain garde pour lui la créativité, la sensibilité, là où l’IA ne devrait pas (pour le moment du moins!) pouvoir imiter cela. L’homme continuera donc à utiliser ses meilleures qualités.

Dans le même temps, l’IA pourra faire ce qu’elle fait le mieux, sans les faiblesses des humains. On pense bien entendu à ses capacités de procéder au traitement et à l’analyse de très nombreuses données. Récemment, l’intervention du logiciel Anacrim en a donné une illustration en permettant de – peut-être – avancer vers la résolution de l’affaire du « petit Grégory ».

L’IA n’a pas les faiblesses des humains, c’est-à-dire qu’elle ne devrait pas être affectée par les innombrables biais cognitifs qui altèrent le raisonnement de l’être humain. De nos différents préjugés aux biais mnésiques (comme l’effet de récence, qui consiste à mieux se souvenir des dernières informations auxquelles on a été confronté), en passant par les biais de raisonnement (comme le biais de confirmation, qui consiste à préférer les éléments qui confirment une hypothèse, plutôt que ceux qui pourraient l’infirmer), autant de risques de voir l’analyste humain se détourner de la vérité. Cela ne devrait pas arriver à la machine… enfin, on l’espère !

On peut en effet se demander s’il n’est pas possible que les programmeurs aient tout de même « contaminé » la machine, et que leurs biais de raisonnement soient reproduits par l’IA. Après tout, l’ordinateur ne sait pas faire davantage ou mieux que ce que ses programmeurs lui ont permis. On sait que l’IA est censée pouvoir progresser, mais n’est-il pas possible qu’elle soit incapable de se libérer de ses vices de programmation initiaux ?

La question est passionnante.

Une autre question qui se pose est celle de savoir si les biais cognitifs ne sont pas trop humains pour être analysés par l’IA. Si elle ne détecte pas ses propres biais, l’IA est-elle en mesure de les prendre en compte lorsqu’elle analyse les décisions des humains ?

Dernière question, liée au rôle de l’IA dans les activités juridiques (analyser la jurisprudence, produire des décisions). On connaît l’importance de l’intime conviction du juge (v. ainsi le Code de procédure pénale, lorsqu’il dispose en son article 427 que « Hors les cas où la loi en dispose autrement, les infractions peuvent être établies par tout mode de preuve et le juge décide d’après son intime conviction« ). La machine a-t-elle une « intime conviction », et peut-elle même comprendre cette notion ?

Bruno Dondero

 

2 Commentaires

Classé dans Idée nouvelle, Justice, Justice prédictive, Nouvelles pratiques, Uncategorized