Une réglementation pour l'intelligence artificielle ?

illustration-article-reglementation IA- draftr

Depuis peu, et partout dans le monde, l’ensemble des acteurs, privés comme publics, s’interrogent sur les « principes éthiques de l’IA », multipliant ainsi les initiatives pour parvenir à créer un référentiel : rapports, commissions, chartes, tables rondes etc.

Malgré tout, comme le soulève avec une pointe d’humour le chercheur Serge Abiteboul : « Le monde numérique s’est développé si vite qu’il en est encore au stade du western: les injustices foisonnent, l’État ne comprend pas assez bien pour légiférer correctement, et les citoyens sont perdus »

Mais alors, pourquoi tant de balbutiements ?

Tout d’abord parce que les acteurs publics n’ont pas suffisamment anticipé le retour de l’IA, malgré les investissements massifs (annoncés) par les GAFAM dans le secteur. Ils ont ainsi laissé les acteurs privés s’emparer de la question, et la réponse était toute trouvée : il n’y a de limite que le profit. Cette logique ne pouvait toutefois durer qu’un temps.

Désormais, la peur collective a pris place et les acteurs publics n’ont d’autres choix que de réglementer. Ces mêmes entreprises participent d’ailleurs activement à la réflexion, pour redorer leur image ou contrôler l’évolution de l’IA, à vous d’en juger…

illustration reglementation - intelligence artificielle - draftr

Face à cette situation, on ne peut donc s’étonner que certains bannissent les entreprises privées du secteur de l’IA dans des domaines sensibles comme la justice 1.

Et pour cause, la logique privée va de pair avec les secrets industriels et la propriété intellectuelle. Une entreprise qui divulguerait son algorithme et ses données cesserait immédiatement de vivre. La logique privée semble de ce point de vue totalement opposée à la nécessité de transparence requise.

La seule solution qui semble apparaître serait alors de confier l’IA aux mains de l’Etat, du moins dans les domaines régaliens. Pour autant, est-ce vraiment la solution ? Les Etats sont-ils plus éthiques que les entreprises et ont-ils la capacité de relever les défis posés par l’IA ?

Plus raisonnablement, on pourrait envisager la mise en place d’audits publics des algorithmes et données utilisées par les entreprises afin de s’assurer du respect des principes éthiques posés.

Considérations politiques mises à part, une volonté semble être née unanimement de réguler le développement de l’IA. Quelques principes semblent ainsi ressortir de ces réflexions, quels que soient les secteurs, au rang desquels : la transparence, le maintien de la place centrale de l’homme, le respect des droits fondamentaux, la non-discrimination, la sécurité, la poursuite du bien­être sociétal et environnemental ou encore le respect de la vie privée.

Certaines de ces problématiques ont déjà trouvé un semblant de réponse, comme par exemple avec le Règlement Général à la Protection des Données entré en vigueur en mai 2018, qui pose un cadre européen à l’utilisation des données personnelles et consacre la volonté de transparence et de loyauté dans l’utilisation des données par les algorithmes.

Plus particulièrement dans le domaine juridique, la Charte éthique européenne d’utilisation de l’IA dans les systèmes judiciaires et leur environnement, adoptée le 4 décembre 2018 par la Commission Européenne pour l’efficacité de la Justice (CEPEJ), pose 5 principes fondamentaux :

  • le principe de respect des droits fondamentaux, qui consacre la logique de conception et de mise en œuvre des outils avec le souci de respecter les droits fondamentaux, aussi appelé « ethical by design ». Il renvoie aussi aux principes du droit d’accès au juge et du procès équitable, ce qui impliquerait notamment de pouvoir faire appel de la décision d’une IA par exemple ;
  • le principe de non-discrimination, qui est directement lié au problème des données biaisées et qui impose d’identifier les biais par avance pour ne pas reproduire les discriminations ou en créer. Or, c’est bien parce que ces biais sont invisibles qu’ils prolifèrent. Certains chercheurs proposent dès lors de combiner les méthodes symboliques et celles de deep learning pour intégrer des règles éthiques à la machine, ce qui demeure à ce jour un réel défi technologique 3 ;
  • le principe de qualité et sécurité, qui implique d’utiliser des sources certifiées (mais par qui ?) et des données intangibles afin d’éviter une nouvelle fois la reproduction de biais, avec des modèles conçus après consultation des professionnels concernés, le tout dans un environnement technologique sécurisé ;
  • le principe de transparence, de neutralité et d’intégrité intellectuelle, qui implique de rendre accessibles et compréhensibles les méthodologies de traitement des données employées et qui ne pourra être atteint que si un équilibre est trouvé avec la logique privée de propriété intellectuelle. Ce principe apparaît comme central car, d’une part, l’ensemble des autres principes en dépendent, et de l’autre, la transparence est la condition essentielle pour que les individus placent leur confiance dans une intelligence artificielle, ce qui est fondamental pour la justice mais, de manière générale, pour l’ensemble des domaines d’applications de l’IA ;
  • le principe de maîtrise par l’utilisateur enfin, qui a pour objet de bannir une approche prescriptive et de permettre à l’usager (i.e. le juge notamment) de prendre la décision finale, de manière éclairée et autonome.
lIustration liste de principes - intelligence artificielle - draftr

Ces principes semblent bien répondre aux limites de l’IA que nous avons développé : problème des données biaisées, place de l’homme pour entraîner la machine et opacité des algorithmes (black box).

Malgré tout, on ne peut que regretter le manque de précision et de mise en application de ces principes. Beaucoup d’acteurs se contentent en effet d’invoquer de grands et vieux principes et ne nous amènent qu’à nous poser de nouvelles questions qui demeurent sans réponse qui va définir les applications concrètes de ces principes ? Est-ce qu’une réglementation peut réellement naître ? Est-ce que cette annonce de grands principes flous et incontestables n’est pas volontaire ? Ne serions-nous pas une nouvelle fois devant une vitrine publicitaire ?

Finalement, face à tant de doutes sur l’avenir de l’IA, un élément parait essentiel : les professionnels du droit doivent conclure une alliance avec l’intelligence artificielle, la comprendre, en faire un atout et décider de son évolution.

Ceci ne sera pas facile mais ce n’est pas impossible, comme l’expliquent Antoine Garapon et Jean Lassègue : « La compréhension de la révolution juridique actuelle est exigeante. Elie oblige à confronter le droit à des disciplines qui lui étaient jusqu’à présent étrangères comme l’informatique, à quoi les juristes ne sont pas habitués. Ceux-ci se considèrent en effet comme des humanistes, et non comme des ingénieurs. Qu’ils se rassurent : la science dont il sera question ici ne les éloignera pas de Ia pâte humaine, bien au contraire, car elle est la condition pour penser l’avenir du droit et d’une justice à Ia fois humaine et moderne »4.

Comme l’exprimait très justement l’écrivain et philosophe britannique, Aldous Leonard Huxley, « Les faits ne cessent pas d’exister parce qu’on les ignore ».

Nous espérons que ce dossier, consacré à l’intelligence artificielle, qui n’est qu’une introduction en la matière, vous aura permis de comprendre les faits et vous poussera à ne plus les ignorer.

La question est désormais la suivante : serons-nous capables, ensemble, de conclure cette alliance ?

Article rédigé par Marie Dulin en mai 2020

Publié le 3 mai 2021

Références

mc2i. (25 octobre 2019). L’importance d’une intelligence artificielle par la justice et pour la justice française. Disponible à l’adresse http://www.mc2i.fr/L-importance-d-une-intelligence-artificielle-par-la-justice-et-pour-la-justice

2 Commission Européenne pour l’efficacité de la Justice (CEPEJ).  (2018). Charte éthique européenne d’utilisation de l’intelligence artificielle dons les systèmes judiciaires et leur environnement. Disponible à l’adresse https://rm.coe.int/charte-ethique-fr-pour-publication-4-decembre-2018/16808f699b

3 Jean-Gabriel Ganascia, président du Comité d’éthique du CNRS et chercheur au Laboratoire d’informatique de Paris 6

Garapon, A., & Lassègue, J. (20 l 8). Justice digitale. Presses Universitaires de France. Disponible à l’adresse https://books.google.fr/books/about/Justice_digitale.html?hl=fr&id=l-BVDwAAQBAJ&redir_esc=y