L’intelligence artificielle est-elle à l’abri des biais cognitifs ?

L’intelligence artificielle (IA) est de plus en plus présente dans nos vies, que nous nous en rendions compte ou pas. L’IA est utilisée par de très nombreuses applications, sites, logiciels, etc. que nous utilisons quotidiennement. Mais l’évolution du rôle de l’IA dans notre société tient aussi aux « exploits » qu’elle accomplit, et qui sont largement médiatisés.

L’IA est tellement forte qu’un ordinateur bat les plus grands champions humains aux échecs ou au jeu de go. Ce ne sont que des activités ludiques, certes, mais la victoire de l’IA y est sans appel, et si l’ordinateur nous est supérieur dans ces activités intellectuelles, que va-t-il faire, que va-t-il nous faire bientôt ? Est-ce lui, par exemple, qui va nous juger dans un avenir proche, lorsque nos tribunaux humains auront été remplacés par une justice robotisée ?

Pour l’heure, contentons-nous de nous interroger sur les avantages, sur les forces de l’IA. Si elle est créée par l’homme, c’est bien pour l’aider dans son activité. Si une partie de cette activité implique de lourds travaux d’analyse et la prise de décisions nombreuses, la machine peut y aider.

L’humain garde pour lui la créativité, la sensibilité, là où l’IA ne devrait pas (pour le moment du moins!) pouvoir imiter cela. L’homme continuera donc à utiliser ses meilleures qualités.

Dans le même temps, l’IA pourra faire ce qu’elle fait le mieux, sans les faiblesses des humains. On pense bien entendu à ses capacités de procéder au traitement et à l’analyse de très nombreuses données. Récemment, l’intervention du logiciel Anacrim en a donné une illustration en permettant de – peut-être – avancer vers la résolution de l’affaire du « petit Grégory ».

L’IA n’a pas les faiblesses des humains, c’est-à-dire qu’elle ne devrait pas être affectée par les innombrables biais cognitifs qui altèrent le raisonnement de l’être humain. De nos différents préjugés aux biais mnésiques (comme l’effet de récence, qui consiste à mieux se souvenir des dernières informations auxquelles on a été confronté), en passant par les biais de raisonnement (comme le biais de confirmation, qui consiste à préférer les éléments qui confirment une hypothèse, plutôt que ceux qui pourraient l’infirmer), autant de risques de voir l’analyste humain se détourner de la vérité. Cela ne devrait pas arriver à la machine… enfin, on l’espère !

On peut en effet se demander s’il n’est pas possible que les programmeurs aient tout de même « contaminé » la machine, et que leurs biais de raisonnement soient reproduits par l’IA. Après tout, l’ordinateur ne sait pas faire davantage ou mieux que ce que ses programmeurs lui ont permis. On sait que l’IA est censée pouvoir progresser, mais n’est-il pas possible qu’elle soit incapable de se libérer de ses vices de programmation initiaux ?

La question est passionnante.

Une autre question qui se pose est celle de savoir si les biais cognitifs ne sont pas trop humains pour être analysés par l’IA. Si elle ne détecte pas ses propres biais, l’IA est-elle en mesure de les prendre en compte lorsqu’elle analyse les décisions des humains ?

Dernière question, liée au rôle de l’IA dans les activités juridiques (analyser la jurisprudence, produire des décisions). On connaît l’importance de l’intime conviction du juge (v. ainsi le Code de procédure pénale, lorsqu’il dispose en son article 427 que « Hors les cas où la loi en dispose autrement, les infractions peuvent être établies par tout mode de preuve et le juge décide d’après son intime conviction« ). La machine a-t-elle une « intime conviction », et peut-elle même comprendre cette notion ?

Bruno Dondero

 

Publicités

4 Commentaires

Classé dans Idée nouvelle, Justice, Justice prédictive, Nouvelles pratiques, Uncategorized

4 réponses à “L’intelligence artificielle est-elle à l’abri des biais cognitifs ?

  1. Rhodes

    Pour ce qui est de l intime conviction du juge, l’objet c est que cette IA aide l etre humain en lui permettant de gagner en productivite. Permettre ainsi a la justice de rendre ses decisions plus rapidement et plus efficacement, ce qui serait une avance compte tenu du delais moyen d une affaire, depuis son introduction au jugement rendu.
    L objet n est pas en principe que cette IA remplace a elle seule l intime conviction du juge, car comme vous le soulignez, si l etre humain a ses biais, les algorithmes aussi…
    Et, une nouvelle question germera certainement: celle de la certification de ces algorithmes et de l autorite qui en sera chargee…

  2. Georges Tchikaidze

    Votre article intéressant me fait penser à la grande question (issue en grande partie des oeuvres de fiction mais qui peut-être d’actualité) sur le fait de savoir si l’IA a une conscience ? Une question encore sans réponse mais je m’interroge sur ce fait car « l’intime conviction » du juge n’est pas le fait de juger avec conscience ? En tout cas, votre article a le mérite d’aborder un aspect encore méconnu de l’IA.

    (Moi je reste convaincu qu’avec ce développement exponentiel des machines, on appliquera les fameuses 3 lois de la robotique de Isaac Asimov :
    1 – un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
    2 – un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
    3 – un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.)

  3. ALLIBERT Michel

    Bonsoir
    Monsieur le Professeur
    Votre question est provocante pour qui à une connaissance minimale d’une part de l’IA, d’autre part des biais cognitifs, et en général de l’épistémologie.
    A considérer la liste des biais cognitifs, nul, même ayant foi en l’IA, ne peut penser qu’elle puisse ne pas être accablée d’une masse des biais cognitifs.
    Il en est de même de l’esprit humain. On s’étonne que l’esprit scientifique soit parvenu aux connaissances actuelles, accablé qu’il est du handicap te tous ces biais cognitifs.
    Vu d’un œil un peu distant il est amusant de voir des équipes de chercheur disons discuter de la rigueur du protocole de validation du résultat auquel ils ont abouti. On se demande par quel entêtement forcené GALLILEE a pu aboutir aux lois de la chute des corps.
    Il est vrai que maintenant on s’interroge de savoir si le chat est toujours dans l’escalier et autres devinettes quantiques.
    Les pilotes ont commencé à consentir révérence à l’IA lorsque quelques chevronnés se sont fait « shooter », « membrer », par le simulateur de combat aérien d’IBM crois-je me souvenir. Dans le même temps l’IA triomphait du joueur de GO.
    Les résultats d’une confrontation d’ un panel de juristes à l’IA montrent de même la supériorité globale de celle-ci sur ceux-là.
    Encore faut-il que l’insécurité juridique générée par ceux qui ont mission de créer le droit, ou de l’interpréter, voire seulement de l’appliquer, respectent ou ne dévoient pas les règles du jeu.
    Ces gens qui, alors que des générations de leurs pairs, depuis l’origine de la chambre des requêtes, eu égard aux imperfections humaines donnaient valeur récognitive au titre de propriété rapportant une servitude conventionnelle s’il en relatait les principales modalités, note figurant sous l’article relatif à la servitude, et sous l’article 1337 relatif au titre récognitif. Ces gens là pour la pureté de la chose en 2003 ont réduit à la nullité les titres de générations de notaires en exigeant que le titre pour être récognitif porte mention des références de l’acte primordial ayant créé la servitude.
    Il a fallu tout notre amour de Provençal de la vérité pour remonter aux archives départementales de Seine & Marne à l’acte de démission et partage du 18 prairial de l’an IX (1801) ayant créé les 15 droits de passage sur les propriétés partagées à leur six enfants. Trois ans avant le Code civil des Français. Cinq ans avant le Code Napoléon. Honneur soit rendu au notaire de l’époque dont l’acte serait à donner en exemple à nos tabellions actuels.
    Ce sont les mêmes qui ont supprimé les facilités (relatives Ô combien) de la protection possessoire qui empêchait le débiteur de la servitude de faire appel tant qu’il n’avait pas rendu la liberté de passage.
    Ce sont encore les mêmes qui dans l’ordonnance n° 2016-131 ont supprimé la disposition sanctionnant le débiteur ayant contrevenu à l’obligation de ne pas faire.
    Ce ne sont pas des biais cognitifs. Ce sont les biais de l’orgueil humain abusant du pouvoir régalien que le peuple lui a confié. Et dont on a privé le peuple du pouvoir de contrôle sur ces gens là.
    Michel ALLIBERT

  4. ALLIBERT Michel

    Bonsoir Monsieur Georges Tchikaïdzé
    Désolé, l’IA a beaucoup progressé dans ses application aux objets, notamment aux objets dits autonomes. Et l’homme étant ce qu’il est, la capacité en matière d’IA et d’engins de guerre autonomes est considérée comme un facteur clé de supériorité militaire.
    L’efficacité léthale étant un des objectifs recherchés.
    Il convient de constater que les principales puissances ou alliances occidentales se préoccupent de la définition et de l’incorporation de facteurs déontologiques à de tels engins. Ces puissances et alliances se préoccupent de se doter aussi des moyens de répondre à un adversaire qui ne s’encombrerait pas des mêmes préoccupations humanitaires.
    Je suis moins optimiste que vous pour le respect des principes que vous avez énoncés.
    Cordialement. Michel ALLIBERT

Répondre

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s