L’intelligence artificielle est-elle à l’abri des biais cognitifs ?

L’intelligence artificielle (IA) est de plus en plus présente dans nos vies, que nous nous en rendions compte ou pas. L’IA est utilisée par de très nombreuses applications, sites, logiciels, etc. que nous utilisons quotidiennement. Mais l’évolution du rôle de l’IA dans notre société tient aussi aux « exploits » qu’elle accomplit, et qui sont largement médiatisés.

L’IA est tellement forte qu’un ordinateur bat les plus grands champions humains aux échecs ou au jeu de go. Ce ne sont que des activités ludiques, certes, mais la victoire de l’IA y est sans appel, et si l’ordinateur nous est supérieur dans ces activités intellectuelles, que va-t-il faire, que va-t-il nous faire bientôt ? Est-ce lui, par exemple, qui va nous juger dans un avenir proche, lorsque nos tribunaux humains auront été remplacés par une justice robotisée ?

Pour l’heure, contentons-nous de nous interroger sur les avantages, sur les forces de l’IA. Si elle est créée par l’homme, c’est bien pour l’aider dans son activité. Si une partie de cette activité implique de lourds travaux d’analyse et la prise de décisions nombreuses, la machine peut y aider.

L’humain garde pour lui la créativité, la sensibilité, là où l’IA ne devrait pas (pour le moment du moins!) pouvoir imiter cela. L’homme continuera donc à utiliser ses meilleures qualités.

Dans le même temps, l’IA pourra faire ce qu’elle fait le mieux, sans les faiblesses des humains. On pense bien entendu à ses capacités de procéder au traitement et à l’analyse de très nombreuses données. Récemment, l’intervention du logiciel Anacrim en a donné une illustration en permettant de – peut-être – avancer vers la résolution de l’affaire du « petit Grégory ».

L’IA n’a pas les faiblesses des humains, c’est-à-dire qu’elle ne devrait pas être affectée par les innombrables biais cognitifs qui altèrent le raisonnement de l’être humain. De nos différents préjugés aux biais mnésiques (comme l’effet de récence, qui consiste à mieux se souvenir des dernières informations auxquelles on a été confronté), en passant par les biais de raisonnement (comme le biais de confirmation, qui consiste à préférer les éléments qui confirment une hypothèse, plutôt que ceux qui pourraient l’infirmer), autant de risques de voir l’analyste humain se détourner de la vérité. Cela ne devrait pas arriver à la machine… enfin, on l’espère !

On peut en effet se demander s’il n’est pas possible que les programmeurs aient tout de même « contaminé » la machine, et que leurs biais de raisonnement soient reproduits par l’IA. Après tout, l’ordinateur ne sait pas faire davantage ou mieux que ce que ses programmeurs lui ont permis. On sait que l’IA est censée pouvoir progresser, mais n’est-il pas possible qu’elle soit incapable de se libérer de ses vices de programmation initiaux ?

La question est passionnante.

Une autre question qui se pose est celle de savoir si les biais cognitifs ne sont pas trop humains pour être analysés par l’IA. Si elle ne détecte pas ses propres biais, l’IA est-elle en mesure de les prendre en compte lorsqu’elle analyse les décisions des humains ?

Dernière question, liée au rôle de l’IA dans les activités juridiques (analyser la jurisprudence, produire des décisions). On connaît l’importance de l’intime conviction du juge (v. ainsi le Code de procédure pénale, lorsqu’il dispose en son article 427 que « Hors les cas où la loi en dispose autrement, les infractions peuvent être établies par tout mode de preuve et le juge décide d’après son intime conviction« ). La machine a-t-elle une « intime conviction », et peut-elle même comprendre cette notion ?

Bruno Dondero

 

2 Commentaires

Classé dans Idée nouvelle, Justice, Justice prédictive, Nouvelles pratiques, Uncategorized

2 réponses à “L’intelligence artificielle est-elle à l’abri des biais cognitifs ?

  1. Rhodes

    Pour ce qui est de l intime conviction du juge, l’objet c est que cette IA aide l etre humain en lui permettant de gagner en productivite. Permettre ainsi a la justice de rendre ses decisions plus rapidement et plus efficacement, ce qui serait une avance compte tenu du delais moyen d une affaire, depuis son introduction au jugement rendu.
    L objet n est pas en principe que cette IA remplace a elle seule l intime conviction du juge, car comme vous le soulignez, si l etre humain a ses biais, les algorithmes aussi…
    Et, une nouvelle question germera certainement: celle de la certification de ces algorithmes et de l autorite qui en sera chargee…

  2. Georges Tchikaidze

    Votre article intéressant me fait penser à la grande question (issue en grande partie des oeuvres de fiction mais qui peut-être d’actualité) sur le fait de savoir si l’IA a une conscience ? Une question encore sans réponse mais je m’interroge sur ce fait car « l’intime conviction » du juge n’est pas le fait de juger avec conscience ? En tout cas, votre article a le mérite d’aborder un aspect encore méconnu de l’IA.

    (Moi je reste convaincu qu’avec ce développement exponentiel des machines, on appliquera les fameuses 3 lois de la robotique de Isaac Asimov :
    1 – un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
    2 – un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
    3 – un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.)

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s