Une intelligence artificielle pas si intelligente​

illustration-faiblesses-IA-article-draftr

Le choix d’examiner en premier les faiblesses de l’intelligence artificielle, que nous nommerons IA pour les besoins de l’article, n’est pas anodin. Contrairement à ce que voudraient nous laisser croire les GAFAM, le domaine de l’IA s’est heurté et se heurte encore à de nombreuses limites malgré son fort potentiel, si bien qu’il divise encore et toujours les scientifiques.

Les désillusions scientifiques

Derrière les succès médiatiques des jeux d’échecs et de Go se cache une réalité toute autre. Le domaine de l’IA a déçu plus d’un scientifique et ramené de nombreux ego commerciaux à la réalité, avec l’échec des méthodes symboliques hier, le phénomène d’« irrationnelle  efficacité  des  données »1 et le constat de l’utopie d’une conscience artificielle aujourd’hui. Revenons sur ces événements.

Une des évolutions qui a entraîné le retour de l’IA sur le devant de la scène est le développement de nouveaux algorithmes et ainsi le passage de méthodes symboliques aux méthodes numériques.

On entend par IA symbolique la simulation de processus de déduction à partir de l’apprentissage de règles logiques, qu’on pourrait illustrer avec le syllogisme suivant, emprunté à Socrate : la machine sait que tous les hommes sont mortels ; on lui donne l’information suivante : Socrate est un homme ; elle en déduit que Socrate est mortel. Ce n’est ni plus ni moins qu’une fonction mathématique, avec toute la complexité qu’elle peut avoir mais aussi avec ses limites, et notamment la forte sensibilité aux erreurs présentes dans les données.

Ce n’est que bien plus tard, il y a de cela une dizaine d’années, que l’approche connexionniste, associée au volume de données numériques disponibles et à la puissance de calcul, a apporté une solution à cette impasse scientifique. Souvent évoquée sous le terme de deep learning, elle renvoie en réalité à la modélisation de réseaux de neurones artificiels, capables, à partir d’une quantité importante de données, d’identifier leurs relations et de les interpréter pour résoudre des cas complexes 2.

Des résultats spectaculaires sont alors apparus, en particulier dans le domaine de la reconnaissance visuelle, vocale ou musicale et du traitement du langage. Toutefois, de nouvelles limites sont apparues avec notamment la forte dépendance au volume de données pour que le système s’auto-entraîne (processus dit de « machine learning ») mais aussi la difficulté d’interprétation des modèles, appelé phénomène de la « boîte noire ».

illustration base de données et serveurs - intelligence artificielle - draftr

En effet, s’il a été possible de concevoir des systèmes capables d’apprendre et de démontrer de réelles performances, ces dispositifs fonctionnent toujours comme une boîte noire : ils donnent de bons résultats mais, contrairement à ce que permettent les systèmes symboliques, ne donnent aucune indication sur le « raisonnement » qu’ils ont suivi pour y arriver, un phénomène que trois chercheurs, employés par Google, ont appelé dès 2009 « l’irrationnelle efficacité des données».

A défaut de pouvoir appréhender ce raisonnement, de nombreux chercheurs et scientifiques, mais aussi d’entreprises comme Microsoft, condamnent l’utilisation de l’IA dans des domaines où les décisions ont un impact direct sur l’homme, tels que la médecine, la sélection professionnelle ou le droit et posent comme principe essentiel de comprendre le cheminement de la machine avant de les implémenter, quitte à rendre l’outil moins puissant 3.

Enfin, la perspective de création d’une « conscience artificielle », outre les problématiques éthiques associées, a peu à peu été classée au rang d’utopie. Comme l’exprime clairement Thomas Kerjean, Directeur IA et Cloud de Microsoft France : « Rassurez-vous. D’abord, parce que si l’IA progresse de manière phénoménale sur les cinq sens de la perception, elle manque encore cruellement… de sens de l’humour ! En effet, loin des fantasmes de « l’IA forte » ou de la « Singularité » décrite par Nick Bostrom, l’innovation ne ressent aujourd’hui aucune émotion et n’a aucune conscience. Comme le rappelle Antonio Damasio, le cerveau humain est la résultante de quatre milliards d’années d’évolution et de sélection naturelle. L’IA est encore très loin de cette perfection issue de la seule nature. »1.

Après l’emballement, le retour à la définition première de l’intelligence donc : une IA « faible » capable de simuler une fonction unique de l’intelligence humaine et même, dans une certaine mesure, de la surpasser du fait de sa puissance d’analyse, est possible ; une intelligence multi-dimensionnelle capable d’autonomie et de conscience est, pour l’heure du moins, impossible.

L’avocat-robot ROSS, créé par IBM, en est un exemple parfait. Son « recrutement » par le cabinet d’avocats BakerHostetler en remplacement de 50 avocats a créé une vague de panique chez les avocats. Or, ROSS a déjà montré de nombreuses limites, dont, notamment, une étroite spécialisation en droit des entreprises en difficulté et de la propriété intellectuelle américain et une forte dépendance aux données et aux experts juridiques qui l’entraînent.

Une telle spécialisation a d’ailleurs révélé de nouveaux problèmes statistiques dits de « sur­ apprentissage » ou « overfitting ». L’idée derrière ces termes est simple : le modèle est tellement entrainé sur un jeu de données qu’il peut donner un résultat d’une grande précision dans le domaine concerné, mais il n’est plus capable de traiter efficacement de nouvelles données. Performance et multidimensionnalité apparaissent ainsi comme deux objectifs inconciliables.

illustration robot - intelligence artificielle - draftr

Cette hyper-spécialisation de l’IA pose un réel problème dans le domaine du droit, marqué par la diversité, entre les pays d’abord, mais aussi entre les domaines de spécialité. Remplacer tous les avocats du monde par un robot ROSS supposerait dès lors d’entraîner des milliers d’algorithmes pendant des années. Autant dire que les avocats ont l’avenir devant eux, ne serait-ce pour former ses IA…

Partant de ces échecs, de nouveaux termes plus précis et sans doute moins anxiogènes, tels que « l’informatique avancée » ou « l’intelligence augmentée »5 ont été proposées dès les années 1990. À l’origine de cette peur, certains considèrent en effet qu’il y a une simple « erreur sémantique » qui implique que « les gens ont l’impression que l’IA fonctionne comme nous, et tendent à projeter les comportements problématiques d’humains sur la machine »6.

Mais comment renoncer à un terme si marketing ? Comme le reconnait Luc Julia, cocréateur de Siri, « c’est compliqué de changer de terme maintenant, c’est entré dans le langage courant, c’est utilisé depuis soixante ans… C’est l’image qu’il y a dans la tête des gens qu’il faut changer. On a fait une erreur dans le terme, maintenant, il faut expliquer ce qu’il y a derrière » 7.

Et derrière, il y a du potentiel certes, mais aussi un long chemin technologique à parcourir et, avant toute chose, l’homme et ses données.

Des ébauches technologiques sur-médiatisées

Si l’IA offre à ce jour de nombreuses possibilités, La majorité des applications concrètes restent encore à déterminer… et à développer. Contrairement au message largement diffusé l’IA à n’a pas encore envahi le monde du travail et, lorsqu’elle y est présente, est encore loin d’être mature.

Or de nombreuses legaltechs sont nées parallèlement au développement de l’IA pour proposer, notamment, les services suivants :

  • L’analyse des décisions de justice et la production de statistiques sur ces décisions communément appelée « justice prédictive » 
  • L’analyse de documents pour la gestion de contrats, la revue de documents ou la mise en conformité ;
  • La recherche juridique ;
  • La rédaction automatisée de documents juridiques;
  • La réalisation de procédures et de formalités et la résolution de litiges en ligne ;
  • La mise en relation de l’ensemble des acteurs ;
  • La mise en œuvre d’outils collaboratifs ;
  • Le stockage sécurisé de documents juridiques en ligne ;
  • La signature électronique ;
  • La certification de documents et la programmation de contrats « intelligents » appelés smart contracts (technologie de blockchain).
 

Toutefois, si ces services peuvent prendre une part essentielle dans le quotidien des juristes et font craindre une « ubérisation » des professions juridiques et judiciaires, trop de professionnels les assimilent encore, à tort, à l’intelligence artificielle. En effet, selon une étude réalisée par le journal Maddyness et Wolters Kluwer, seulement 19% d’entre elles annoncent utiliser des techniques d’intelligence artificielle9.

Bien plus encore, parmi les 19% de legaltechs utilisant des techniques d’intelligence artificielle, celles-ci mobilisent encore, pour la plupart d’entre elles, des systèmes experts (basés sur les méthodes symboliques), tandis que les autres font appel aux méthodes de machine learning (ou « apprentissage automatique »), désignant les algorithmes capables d’appendre seuls ou de manière supervisée à partir des données fournies, et aux techniques de traitement du langage naturel (NLP), basés aujourd’hui sur l’analyse syntaxique.

Beaucoup de ces legaltechs sont en réalité plus « legal » que « tech » dans la mesure où elles se bornent à dématérialiser la pratique et les outils juridiques sans proposer de réelle innovation liée à l’intelligence artificielle.

Contrairement aux croyances, la place des technologies d’intelligence artificielle dans le domaine du droit reste donc encore assez circonscrite et une analyse plus poussée de ces technologies révèle même une forte dépendance à l’homme et à ses données.

Article rédigé par Marie Dulin en mai 2020

Publié le 3 mai 2021

Références

1 Yaroslav Pigenet (26 décembre 2017). Des machines enfin intelligentes ? Disponible à l’adresse https://lejournal.cnrs.fr/articles/des-machines-enfin-intelligentes

2 PIRMIN (27 septembre 2019). Onepoint. Disponible à l’adresse https://www.groupeonepoint.com/fr/points-de-vue/ia-symbolique-et-deep-learning

3 Microsoft. (2018). Intelligence artificielle : guide de survie – Comprendre, raisonner et interagir autrement avec l’IA. Disponible à l’adresse https://info.microsoft.com/rs/157-GQE-382/images/FR-CNTNT-eBook-MicrosoftLivreblancGuidedesurviedelIntelligenceArtificielle.pdf

4 Bruno Dondero. (7 juin 2016). ROSS, Peter, Dalloz et les autres. Disponible à l’adresse https://brunodondero.com/2016/06/07/ross-peter-dalloz-et-les-autres/

5  Jean-Gabriel Ganascia et Robert Bentz cités par Barthe, Emmanuel (19 février 2020). Intelligence artificielle en droit : derrière la « hype », la réalité. Disponible à l’adresse https://www.precisement.org/blog/Intelligence-artificielle-en-droit-derriere-la-hype-la-realite.html

6 Atallah, Marc, professeur de littérature à l’université de Lausanne, cité par Tual, M. (2019, novembre l 3). L’intelligence artificielle, le grand malentendu. Disponible à l’adresse https://www.lemonde.fr/idees/article/2019/11/13/l-intelligence-artificielle-le-grand-malentendu_6018956_3232.html

7 Tual, M. (2019, novembre l 3). L’intelligence artificielle, le grand malentendu. Disponible à l’adresse https://www.lemonde.fr/idees/article/2019/11/13/l-intelligence-artificielle-le-grand-malentendu_6018956_3232.html

8 Barthe, Emmanuel (19 février 2020). Intelligence artificielle en droit : derrière la « hype », la réalité. Disponible à l’adresse https://www.precisement.org/blog/Intelligence-artificielle-en-droit-derriere-la-hype-la-realite.html

9 Richardin, A. (23 janvier 2019). Legaltechs françaises : les grandes tendances de l’année. Disponible à l’adresse https://www.maddyness.com/2019/01/23/legaltechs-francaises-les-grandes-tendances-de-lannee-2018/