Cabinet d'avocats
Rouen - Le Havre
Avocat Formation
Accueil > Actualités
< Retour aux actualités
Rapport Villani sur l'Intelligence Artificielle : pour l'instauration d'un droit autonome garantissant l'Ethique en matière d'IA
Rapport Villani sur l'Intelligence Artificielle : pour l'instauration d'un droit autonome garantissant l'Ethique en matière d'IA Cédric Villani, mathématicien lauréat de la médaille Fields et député de l’Essonne, a rendu hier, mercredi 28 mars, son rapport sur l’intelligence artificielle (IA), commandé par le gouvernement en septembre 2017.
 
Comme le Rapport de Claude de Ganay, député et Dominique Gillot, sénatrice, déposé au nom de l'Office parlementaire d'évaluation des choix scientifiques et technologiques, en mars 2017, « pour une intelligence artificielle maîtrisée, utile et démystifiée », le rapport de Cédric Villani aura certainement inspiré le discours du président de la République qui s’apprête à annoncer, aujourd’hui même, la stratégie de la France dans ce domaine.
 
Face au bouleversement que l’IA va avoir dans un proche avenir sur notre environnement, notre économie et nos emplois, notre société du futur aura besoin plus que jamais de la protection que le droit est susceptible de lui apporter.


Dans son rapport intitulé « Donner un sens à l’intelligence artificielle », Cédric Villani consacre des développements passionnants sur l’Ethique.

Les progrès récents de l’IA dans de nombreux domaines (voitures auto­nomes, reconnaissance d’images, assistants virtuels) et son influence croissante sur nos vies renforcent nos craintes existentielles ou, en tous cas, alimentent à raison une large réflexion sur les enjeux éthiques liés au développement des technologies d’intelligence artificielle et plus spécifiquement des algorithmes.
 
A juste titre, Cédric Villani écrit « Si nous souhaitons faire émerger des technologies d’IA conformes à nos valeurs et normes sociales, il faut agir dès à présent en mobili­sant la communauté scientifique, les pouvoirs publics, les industriels, les entrepreneurs et les organisations de la société civile. Notre mission a cherché, humblement, à proposer quelques pistes permettant de poser les bases d’un cadre éthique pour le développement de l’IA et à faire vivre ce débat dans la société ».
 
Il est vrai qu’une grande partie de nos craintes éthiques tient à l’opacité de ces technologies du futur.
 
L’un des premiers leviers serait donc d’y mettre plus de transparence, autrement dit « d’ouvrir les boîtes noires », pour reprendre l’expression du député.

Expliquer les algorithmes d’apprentissage automatique. Si, depuis plus de cinq ans, le deep learning fournit des résultats impressionnants, il reste difficile d’expliquer pourquoi un algorithme a donné tel résultat, et de comprendre le cheminement logique de son analyse de données. C’est l’effet « boîte noire ».

Au-delà d’une transparence nécessaire, le rapport préconise d’accroître l’auditabilité des systèmes d’IA. Cet objectif pourrait passer par la constitution d’un corps d’experts publics assermentés, en mesure de procéder à des audits d’algorithmes, des bases de données et de procéder à des tests par tout moyen requis. Ces experts pourraient être saisis à l’occasion d’un conten­tieux judiciaire, dans le cadre d’une enquête diligentée par une autorité administrative indépendante ou suite à une demande du Défenseur des droits.
C’est une excellente idée.
 
On pourrait y ajouter « sur saisine directe » d’un justiciable ou d’un groupe de personnes.
 
Mais, surtout, comme le dit le rapport, il faut « penser l’éthique dès sa conception » (Ethics by design). Pour ne pas que le monde humain soit dépassé, tous les acteurs de l’IA, les chercheurs, ingénieurs et entrepre­neurs qui contribuent à la conception, au développement et à la commer­cialisation de systèmes d’IA et qui sont amenés à jouer un rôle décisif dans la société numérique de demain, doivent être sensibilisés à l’éthique. Il est essentiel qu’ils agissent de manière responsable, en prenant en considé­ration les impacts socio-économiques de leurs activités.
 
Le rapport propose ainsi, sur le modèle de l’étude d’impact sur les risques en matière de vie privée (privacy impact assess­ment), rendu obligatoire par exemple pour cer­tains traitements de données par le règlement général sur la protection des données (RGPD), que soit institué un principe d’étude d’impact sur les risques de discrimination (discrimi­nation impact assessment). Ainsi, par exemple, pour prévenir les discriminations dont pourrait se rendre coupable une IA (notamment lors de son utilisation en matière de police et de justice), la mise en œuvre de vrais études d’impact  pourrait être de nature à anticiper et éviter les risques.
 
L’objectif est simple : obliger les développeurs d’IA à se poser les bonnes questions, au bon moment.
 
Là encore, cet objectif est louable, mais encore faut-il que ces études d’impact soient véritablement menées ce qui n’est pas toujours le cas lorsque l’on veut aller vite (sous l’effet de la concurrence par exemple ou dans une volonté de réformer rapidement). Il est tellement facile de s’affranchir des études d’impact.
 
Plus globalement, l’usage crois­sant de l’IA dans des matières aussi sensibles que la police, la banque, l’assurance, la justice ou l’armée (avec la question des armes autonomes) appelle à prendre des mesures en considération de la responsabilité humaine que nous devons aux générations futures.
 
Si nous devons nous interroger sur la place de l’automatisation dans les décisions humaines (« existent-ils des domaines où le jugement humain, aussi faillible soit-il, ne devrait pas à être remplacé par une machine ? »), c’est surtout en termes de garantie des libertés individuelles qu’il faut penser cette approche.

Créer un comité d’éthique de l’IA ouvert sur la société, c’est la conclusion du rapport sur ce chapitre. Cet organe, selon le rapport, serait chargé d’organiser le débat public, de façon lisible, construite et encadrée par la loi : « Il devra parvenir à articuler des logiques de temps court, celui des enjeux économiques et industriels, en bonne interaction avec les comités sectoriels, tout en parvenant à s’en extraire pour penser le temps long. Les avis de ce comité, élaborés en toute indépendance, pourraient éclairer les choix technologiques des chercheurs, des acteurs économiques, industriels et de l’État. Ses recom­mandations pourront servir de réfé­rence pour la résolution de dilemmes éthiques (par exemple sur le véhicule autonome) et donc servir de standard pour les développements en IA ».
 
Là encore, la création de ce comité serait, sans doute, utile.

Mais, sera-t-il suffisant ?

Au-delà des préconisations que ce Comité ferait à juste raison, il faudra, de tous sens, garantir la possibilité pour toute personne, tout être humain, de pouvoir agir pour la préservation de ses droits, en France, en Europe et partout dans le monde.

Pour ma part, il me semble indispensable de créer un droit spécifique, autonome, où l’être humain serait en mesure d’imposer à l’IA des règles bloquantes.

Seule la loi que l’IA pourra apprendre, comprendre, appliquer et respecter avec le discernement nécessaire sera susceptible de faire de l’avancée des technologies un progrès pour l’humanité.

Ce droit qui ne peut évidemment pas être uniquement national (cela n'aurait aucun sens !) et qui devra s’appuyer sur des standards internationaux (par ex. CEDH), est à construire. En vérité, il est déjà en construction.

Il devra cependant s’adapter à l’évolution de ces mêmes technologies pour ne pas lui-même être dépassé. Par exemple, il concerne aussi bien le droit des robots que celui des programmes autonomes.

Pour éviter le vide juridique d’un futur immédiat, chaque acteur du monde juridique se doit d’y contribuer à son propre niveau.

Anticipant sur ce futur, les avocats, au travers de leurs instances nationales, y travaillent déjà depuis bien longtemps.

Et il appartient aux pouvoirs publics de prendre en compte les propositions qu’ils portent en faveur de la préservation d’un monde de droit en faveur de l’humain.

Pour aller plus loin,
lisez le rapport de de Cérdic Villani, en cliquant ici
lisez la rapport de Ganay & Gillot, en cliquant ici



Pour partager vos observations sur cet avis, contactez :

Arnaud de SAINT REMY
Avocat Associé
Ancien Bâtonnier de l’Ordre des avocats
Président de la Conférence Régionale des Bâtonniers de Normandie
Membre du Conseil de l’Ordre des avocats au barreau de Rouen
https://www.linkedin.com/in/arnaud-de-saint-remy-a65582122/
adestremy@emo-hebert.com

  
 

Par Arnaud de Saint Remy le 29/03/2018
 

Newsletter