Archives quotidiennes : juin 19, 2017

L’intelligence artificielle est-elle à l’abri des biais cognitifs ?

L’intelligence artificielle (IA) est de plus en plus présente dans nos vies, que nous nous en rendions compte ou pas. L’IA est utilisée par de très nombreuses applications, sites, logiciels, etc. que nous utilisons quotidiennement. Mais l’évolution du rôle de l’IA dans notre société tient aussi aux « exploits » qu’elle accomplit, et qui sont largement médiatisés.

L’IA est tellement forte qu’un ordinateur bat les plus grands champions humains aux échecs ou au jeu de go. Ce ne sont que des activités ludiques, certes, mais la victoire de l’IA y est sans appel, et si l’ordinateur nous est supérieur dans ces activités intellectuelles, que va-t-il faire, que va-t-il nous faire bientôt ? Est-ce lui, par exemple, qui va nous juger dans un avenir proche, lorsque nos tribunaux humains auront été remplacés par une justice robotisée ?

Pour l’heure, contentons-nous de nous interroger sur les avantages, sur les forces de l’IA. Si elle est créée par l’homme, c’est bien pour l’aider dans son activité. Si une partie de cette activité implique de lourds travaux d’analyse et la prise de décisions nombreuses, la machine peut y aider.

L’humain garde pour lui la créativité, la sensibilité, là où l’IA ne devrait pas (pour le moment du moins!) pouvoir imiter cela. L’homme continuera donc à utiliser ses meilleures qualités.

Dans le même temps, l’IA pourra faire ce qu’elle fait le mieux, sans les faiblesses des humains. On pense bien entendu à ses capacités de procéder au traitement et à l’analyse de très nombreuses données. Récemment, l’intervention du logiciel Anacrim en a donné une illustration en permettant de – peut-être – avancer vers la résolution de l’affaire du « petit Grégory ».

L’IA n’a pas les faiblesses des humains, c’est-à-dire qu’elle ne devrait pas être affectée par les innombrables biais cognitifs qui altèrent le raisonnement de l’être humain. De nos différents préjugés aux biais mnésiques (comme l’effet de récence, qui consiste à mieux se souvenir des dernières informations auxquelles on a été confronté), en passant par les biais de raisonnement (comme le biais de confirmation, qui consiste à préférer les éléments qui confirment une hypothèse, plutôt que ceux qui pourraient l’infirmer), autant de risques de voir l’analyste humain se détourner de la vérité. Cela ne devrait pas arriver à la machine… enfin, on l’espère !

On peut en effet se demander s’il n’est pas possible que les programmeurs aient tout de même « contaminé » la machine, et que leurs biais de raisonnement soient reproduits par l’IA. Après tout, l’ordinateur ne sait pas faire davantage ou mieux que ce que ses programmeurs lui ont permis. On sait que l’IA est censée pouvoir progresser, mais n’est-il pas possible qu’elle soit incapable de se libérer de ses vices de programmation initiaux ?

La question est passionnante.

Une autre question qui se pose est celle de savoir si les biais cognitifs ne sont pas trop humains pour être analysés par l’IA. Si elle ne détecte pas ses propres biais, l’IA est-elle en mesure de les prendre en compte lorsqu’elle analyse les décisions des humains ?

Dernière question, liée au rôle de l’IA dans les activités juridiques (analyser la jurisprudence, produire des décisions). On connaît l’importance de l’intime conviction du juge (v. ainsi le Code de procédure pénale, lorsqu’il dispose en son article 427 que « Hors les cas où la loi en dispose autrement, les infractions peuvent être établies par tout mode de preuve et le juge décide d’après son intime conviction« ). La machine a-t-elle une « intime conviction », et peut-elle même comprendre cette notion ?

Bruno Dondero

 

2 Commentaires

Classé dans Idée nouvelle, Justice, Justice prédictive, Nouvelles pratiques, Uncategorized