Les perspectives qu’offre le rapport Villani

Le 28 mars 2018, le mathématicien et député Cédric Villani (LREM) a rendu public son rapport sur l’intelligence artificielle (IA). Objectif : valoriser cette nouvelle filière et appeler les acteurs publics et privés à prendre les mesures adéquates pour saisir les opportunités qu’offre l’IA afin d’en faire un outil au service de l’intérêt général.

Notre article, publié dans l’Argus de l’assurance du 29 juin 2018, propose quelques pistes de réflexion à ce sujet.

Retrouvez l’intégralité de l’article ici: Article Argus SELENE Avocats

« Intelligence artificielle et droit : les enjeux et les opportunités » Retour sur la formation CAMPUS du 2 juillet 2018 et notamment sur la notion de « système expert »

Le cabinet SELENE Avocats a eu le plaisir d’assister à la conférence « Intelligence artificielle et droit : les enjeux et les opportunités », présentée par Melik Boudemagh, Président de l’agence Hercule[1], à l’occasion des formations CAMPUS[2].

Melik Boudemagh a d’emblée rappelé les difficultés d’appréhension de la notion d’« intelligence artificielle », liées notamment au fait que le terme « intelligence » est souvent synonyme d’intelligence humaine. Ainsi, dans l’inconscient collectif, l’IA est une réplication de l’humain sur une chose inanimée, ce qui conduirait la machine à remplacer l’humain. On parle par exemple de « robot-avocat ». Or, ce n’est pas ce qu’il faut comprendre par intelligence artificielle, et l’homme est d’ailleurs aujourd’hui incapable de reproduire artificiellement l’intelligence humaine dans son ensemble.

En réalité, l’IA consiste à simuler une partie de l’intelligence, à savoir la capacité analytique. En conséquence, le Président d’Hercule estime qu’il est plus pertinent de parler de « Système Expert », défini comme un outil capable de reproduire les mécanismes cognitifs d’un expert, dans un domaine particulier. Par exemple, Siri n’est pas une « intelligence artificielle », mais un « système expert », dont l’expertise est circonscrite à un domaine particulier, l’assistance personnelle.

Il est possible de distinguer deux générations de systèmes experts : les modèles logiques, et les modèles statistiques et apprenants.

Les modèles logiques permettent de prendre en charge la part de l’intelligence des avocats qui est « automatisable ». A l’image de Deep Blue, vainqueur au jeu d’échec en 1997, les modèles logiques fonctionnent sur le système de l’optimisation sous contrainte (raisonnement si … alors …). Selon Melik Boudemagh, ces modèles vont bientôt être présents partout, et être utilisés quotidiennement au sein de la profession d’avocat. Ils peuvent prendre en charge les « diagnostics », des « bilans de santé juridiques », servir à automatiser des procédures juridiques et judiciaires, ou encore constituer un outil d’aide à la décision. Ces modèles ont pour avantage d’être fiables et faciles à implémenter. Toutefois, ils se limitent à une représentation « théorique », parfois éloignée du réel.

Les modèles statistiques et apprenants sont plus évolués, à l’image cette fois d’Alphago, vainqueur au jeu de go en 2017. Ils sont basés sur le machine learning, et permettent d’adopter une approche empirique beaucoup plus proche du réel. Ces modèles peuvent être utilisés pour exploiter des données historiques, intégrer des modules de langage naturel, ou encore extraire des informations de documents existants. Toutefois, pour fonctionner, ces modèles nécessitent un dataset très important, ainsi que des ressources conséquentes en temps et en argent. Melik Boudemagh considère que les modèles statistiques et « apprenants » ne sont pas encore tout à fait au point actuellement, bien que prometteurs pour l’avenir.

De manière générale, l’intervenant a souligné les nombreuses opportunités offertes par les systèmes experts. Il est revenu par exemple sur la possibilité de générer automatiquement des contrats et autres documents, qui permettent selon lui un gain de temps et de productivité considérable, et assure fiabilité et cohérence. Plus sophistiquée est l’extraction intelligente de données, basée sur la reconnaissance de patterns au sein des documents.

Melik Boudemagh a également évoqué l’exploitation de données historiques et les enjeux de la justice prédictive, sur lesquels le cabinet SELENE Avocats était revenu en février dernier[3].

Toutefois, ces évolutions ne sont pas sans risque, et il faudra notamment être attentif à la gestion de la gouvernance des données et de l’information, sujet au cœur de l’actualité d l’entrée en application du Règlement Général de Protection des Données (RGPD) en mai dernier. LZ

[1] Agence spécialisée dans le Legal Tech.

[2] Session de formation continue des avocats au barreau de Paris, dont SELENE tient à saluer la qualité des enseignements

[3] http://www.selene-avocats.fr/publications-activites/2075-justice-predictive-risque-opportunite-retour-colloque-organise-lordre-avocats-conseil-detat-a-cour-de-cassation/

Intelligence artificielle : progrès ou menace pour l’homme ? Retour sur le dîner annuel des Jeunes Mécènes des Bernardins du 28 mai 2018

Le 28 mai 2018, le cabinet SELENE Avocats a assisté au dîner annuel des Jeunes Mécènes des Bernardins et en profite pour remercier les organisateurs (en particulier F. Bardoux et I. de Chatellus) pour cette soirée passionnante qui a été l’occasion de discuter des enjeux éthiques liés à l’intelligence artificielle (IA) avec des intervenants aux parcours et aux spécialités variés.

Les prouesses de l’IA de plus en plus impressionnantes

Le spationaute Jean-François Clervoy a expliqué que l’IA pouvait intervenir à chaque étape de fonctionnement d’un engin spatial, que ce soit pour capter l’information, pour la traiter, ou pour prendre une décision. Plus encore, durant la première minute et demi (décollage), seule la machine est en mesure de piloter parfaitement, l’homme ne disposant pas de la réactivité nécessaire.

Jean-François Clervoy a aussi retracé l’évolution de notre utilisation de la machine, soulignant la différence entre les anciens cockpits, dotés de milliers d’interrupteurs, et les cockpits envisagés pour les capsules de SpaceX d’Elon Musk, où les commandes se limitent à quatre écrans tactiles, et une quinzaine d’interrupteurs. Dans le domaine de l’exploration, l’IA permet d’accéder à des lieux où l’homme ne peut pas aller physiquement. En 2015, l’IA a permis de déposer une sonde interplanétaire à 1,4 milliard de kilomètres de la Terre !

Par ailleurs, plusieurs intervenants ont mentionné la victoire d’AlphaGo sur l’homme au jeu de go. François Régis de Guényveau, auteur de l’ouvrage Un dissident, est notamment revenu sur un coup étonnant joué par l’IA, qui fera dire à son adversaire Lee Sedol : « Je croyais qu’AlphaGo était basé sur des calculs de probabilités. Que ce n’était qu’une machine. Mais quand j’ai vu ce coup, j’ai changé d’avis. C’était évident qu’AlphaGo était créatif ».

Comment articuler intelligence humaine et intelligence artificielle ?

L’IA ne peut pas et ne doit pas remplacer l’humain. Jean-François Clervoy estime qu’il est essentiel que l’humain demeure celui qui prend la décision de recourir ou non à l’IA, par exemple en appuyant ou non sur le bouton de pilotage automatique. Pour lui, la statistique selon laquelle 95% des accidents d’avion sont dus à des erreurs humaines est trompeuse, puisqu’elle ne rend pas compte des très nombreuses fois où la situation a été sauvée grâce à l’équipage (l’être humain conservant un esprit critique et une capacité d’adaptation très importante)

L’IA peut toutefois être un outil fantastique pour aider l’homme à devenir, non pas surhumain, mais « plus humain ». Pour Mathieu Rougé, docteur en théologie, il est important de ne pas adopter une posture de rejet face à l’idée de « développement de l’homme », au cœur de l’IA et du transhumanisme.

Frédéric Mazzela, fondateur et CEO de Blablacar, s’est interrogé sur les spécificités de l’intelligence humaine, et sur les limites des robots et de l’IA. Selon lui, la réponse réside dans l’acronyme « GLASS » : game, love, art, sport, science. De quoi envisager un avenir non pas obscur, mais au contraire assez réjouissant !

Jean-François Clervoy estime, quant à lui, que la qualité majeure de l’Homme est sa curiosité. L’IA ne saurait faire preuve de curiosité spontanée, mais elle aide l’être humain à assouvir sa curiosité, à acquérir toujours plus de connaissances.

Plusieurs participants ont également évoqué la frustration pour l’Homme de se voir concurrencer par l’IA, qui serait la « quatrième blessure narcissique de l’Homme ». En effet, après avoir appris avec Copernic qu’il n’était pas au centre de l’univers, avec Darwin qu’il n’était pas si éloigné  des animaux, et avec Freud qu’il ne maitrisait pas tout son inconscient, l’Homme se rendrait aujourd’hui compte qu’il n’est pas le plus intelligent dans tous les domaines. Pourtant, François Régis de Guényveau estime que toutes ces découvertes sont, bien au contraire, la preuve du génie humain.

La nécessité de s’engager pleinement dans la révolution que représente l’IA

Comme l’ensemble des intervenants, Laurent Alexandre, chirurgien-urologue, co-fondateur de Doctissimo, président de DNA Vision et auteur de La mort de la mort et La guerre des intelligences, estime qu’il est essentiel de maîtriser et d’accompagner le développement de l’IA. Selon lui, l’intelligence est synonyme d’une seule chose : la prise et l’exercice du pouvoir.

Comme Laurent Alexandre, François Régis de Guényveau considère que la technologie n’est pas neutre, en ce qu’elle est toujours en soi une volonté de maitriser le monde, d’avoir la main mise sur le réel.

Pourtant, pour le médecin, le constat est sans appel : l’Europe est passée à côté de la révolution technologique du début du 21ème siècle. Il a par exemple critiqué le Règlement général sur la protection des données (RGPD), qu’il trouve dangereux. Selon lui, dans un contexte de « guerre de la data », ce texte donne encore davantage le dessus aux entreprises étrangères, telles que les GAFA[1] et les BATX[2], qui n’ont pas les mêmes références éthiques et ne s’imposeront pas nécessairement les mêmes contraintes réglementaires.

Toutefois, Laurent Alexandre considère que l’Europe n’est pas condamnée au « déterminisme technologique », et qu’il est indispensable de s’engager pleinement dans le secteur de cette nouvelle intelligence, afin d’être en mesure de choisir la manière dont sera utilisée l’IA dans le monde de demain. LZ

[1] Google, Apple, Facebook et Amazon.

[2] Baidu, Alibaba, Tencent et Xiaomi.

VERS DE NOUVELLES PERSONNALITES JURIDIQUES AU 21ème SIECLE ?  (robots, animaux et espaces naturels)

Retour sur le colloque organisé par la Grande Bibliothèque du Droit

Le 16 mai dernier, le cabinet SELENE Avocats a été très heureux d’assister à la table ronde de grande qualité, organisée par la Grande Bibliothèque du Droit, au sujet des nouvelles personnalités juridiques du 21ème siècle.

Comme indiqué par Didier Guével, professeur de droit privé et sciences criminelles à l’Université Paris 13, ce colloque a été l’occasion de réfléchir à l’opportunité d’allonger la liste des sous-catégories bénéficiant de la « personnalité juridique », aujourd’hui composée des personnes physiques et des personnes morales.

La personnalité juridique est traditionnellement définie comme une fiction juridique conférant des droits subjectifs et imposant des devoirs à son titulaire. L’idée de « personne » a été conceptualisée pour l’humain et par l’humain, afin de régir les rapports humains.

Toutefois, à l’heure où l’Arabie Saoudite octroie au robot humanoïde Sophia la nationalité saoudienne, et où la Cour suprême de Colombie reconnait l’Amazonie comme sujet de droit, les classifications traditionnelles tendent à exploser.

Aujourd’hui déjà, la notion de « personnalité juridique » n’est pas monolithique. Ainsi, la personnalité juridique des « humains » est variable, allant d’abord crescendo (embryon, fœtus), puis decrescendo (respect dû au cadavre). De même, la personne morale est loin de constituer une entité totalement cohérente, et n’est assimilée que partiellement à la personne physique. Elle n’a pas de vie privée, et demeure « soumise à la peine de mort ».

Durant cette table ronde, trois séries de « candidats à la personnalité » ont été successivement étudiées : les animaux, les éléments de la nature et les robots.

« Etres vivants doués de sensibilité », code de l’animal… quel niveau de protection pour les animaux ? Vers un dépassement de la summa divisio personnes/choses

Gandhi disait « on reconnaît le degré de civilisation d’un peuple à la manière dont il traite ses animaux ». Il est certain que la perception de l’animal diffère d’un Etat à un autre, d’une personne à une autre.

Marie-Bénédicte Desvallon, avocate responsable du groupe de travail d’avocats dédié à l’élaboration d’un Code français autonome des droits de l’animal et d’un statut juridique, est favorable à la remise en question du monopole de l’homme « sujet de droits ». Pour autant, elle a souligné qu’il était dangereux de réfléchir à la protection des animaux en ayant pour référence unique les caractéristiques de la personnalité humaine, et qu’il était plus pertinent de s’intéresser aux caractéristiques propres aux besoins des animaux (qui passe notamment par une protection vis-à-vis de l’homme).

Thierry Revet, professeur de droit privé et sciences criminelles à l’Université Paris 1, partage son point de vue tout en s’interrogeant sur « l’intérêt de l’animal ». Selon lui, doter les animaux de la personnalité juridique serait un signe d’anthropocentrisme, puisque cela conduit à penser l’autre par rapport à nous-même. Il estime que la création d’obligations vis-à-vis des personnes physiques, accompagnées de sanctions en cas de non-respect, serait plus à même d’assurer une meilleure protection des animaux.

En vertu de l’article 515-14 du Code civil, les animaux sont désormais « des êtres vivants doués de sensibilité ». Pour les intervenants, la lettre de l’article nous invite à considérer que les animaux ne sont plus des biens, puisque ces derniers sont seulement « soumis au régime des biens ». La summa divisio classique entre les personnes et les choses ne serait donc plus d’actualité.

La personnalité juridique, mode de protection de l’environnement ?

Alexandre Moustardier, associé au sein du cabinet ATMOS Avocats, a d’abord rappelé que la « personnalité » avait déjà été accordée à plusieurs reprises à des espaces naturels. Il a évoqué par exemple une décision de justice ayant estimé que le fleuve du Gange en Inde devait être considéré comme une entité vivante, dotée d’une personnalité juridique. Toutefois, l’intervenant a insisté sur les difficultés liées à une application pratique d’une telle personnalité. Il s’interroge ironiquement : va-t-on tenir le Gange responsable de ses inondations ?

Selon lui, la création d’une personnalité juridique nouvelle conduirait à de nombreuses problématiques, sans pour autant avoir un réel intérêt d’un point de vue environnemental. Il estime que le système actuel est de plus en plus efficace pour indemniser le « préjudice écologique ». Ainsi, la Loi Biodiversité 2016 dispose clairement que « toute personne responsable d’un préjudice écologique est tenue de le réparer ».

« Révolution des robots », quel cadre juridique pour une intelligence artificielle éthique ?

Mady Delvaux, députée au Parlement européen, est revenue sur son Rapport sur la robotique du 16 février 2017. Ce rapport conclut, entre autres, que la Directive sur les produits défectueux n’est pas suffisante pour permettre une indemnisation optimale des victimes de dommages liés aux robots, et à l’intelligence artificielle. En effet, il faudra faire face à la pluralité d’intervenants, et aux difficultés à établir un lien de causalité clair, à identifier le producteur, ou encore à définir « l’usage raisonnable » d’un robot par son utilisateur.

La députée est revenue sur l’une des propositions majeures du rapport, à savoir la création d’une personnalité juridique spécifique aux robots. Elle a souligné que contrairement à ce que certains avaient cru, il s’agissait seulement de rendre les robots responsables, et non de leur accorder une quelconque protection. S’agissant des sinistres pouvant résulter de l’utilisation de robots, Mady Delvaux a terminé son propos en insistant sur l’importance d’un régime d’assurance obligatoire et de fonds d’indemnisation spécifiques.

Alain Bensoussan (avocat fondateur du cabinet Lexing Alain Bensoussan Avocats) après avoir regretté que la France ait « loupé le virage » de la généralisation des drones civils professionnels (en raison, selon lui, de la réglementation aérienne trop complexe), est également intervenu pour défendre la création d’une personnalité juridique pour les robots. Selon lui, « tous les humains sont des personnes, mais toutes les personnes ne sont pas des humains ». Afin de le démontrer, il a notamment « discuté » avec une assistante virtuelle devant l’auditoire qui souriait largement à cette occasion !  Il a également évoqué les prouesses médicales réalisées par le programme d’intelligence artificielle Watson.

Selon l’avocat spécialisé en droit des nouvelles technologies, les robots sont une nouvelle espèce, que l’état du droit ne permet pas encore de prendre en compte. Par exemple, il a souligné que le droit d’auteur tel qu’il est actuellement conçu, ne protège pas les créations des robots. Pour lui, que l’on crée ou non une personnalité juridique propre aux robots, il est indispensable de remédier rapidement à cette situation.

Enfin, Laurent Gamet, associé au sein du cabinet Flichy Grangé Avocats, s’est intéressé aux conséquences de l’émergence des robots sur le droit du travail. Pour lui, appliquer le droit du travail aux robots, ou encore créer un « droit du robot travailleur », n’aurait pas de sens, et n’est pas nécessaire. En effet, le robot fonctionne sans contraintes horaires ni temps de pause, et n’a pas de besoins spécifiques en terme de santé et de sécurité.

Toutefois, il est nécessaire de penser dès maintenant à adapter le droit du travail afin de protéger les personnes physiques qui pourront être affectées par l’émergence des robots. En effet, cette évolution pourrait avoir des conséquences significatives sur l’emploi. Laurent Gamet a également souligné l’enjeu lié à la sécurité sociale. Il estime qu’il faudra à terme déconnecter la protection sociale du travail, et trouver de nouveaux modes de financement. Pour autant, il n’est pas favorable à l’établissement d’une « taxe-robot ».

Besoin d’information à 360 ? de la voiture autonome/sytèmes embarquant de l’I.A au droit des contrats en passant par le RGPD : lisez vite la Newsletter du mois de mai de SELENE Avocats !

 

Newsletter mai 2018_SELENE Avocats

L’impression 3D/4D ou comment marier innovation, impératifs de sécurité industrielle et protection juridique ?

AIR COSMOS_impressions 3 4D_avril 2018_SELENE Avocats

Nouvel article publié par Selene Avocats au sujet de l’intelligence artificielle

Dans le prolongement de son article dans la Gazette du Palais, Selene Avocats publie un nouvel article au sujet de l’intelligence artificielle dans « L’Usine nouvelle ».

Le cabinet revient sur la réparation des dommages causés par l’IA, et sur la nécessité d’adapter notre système actuel de responsabilité civile.

L’article est disponible ici en intégralité.

La réparation des dommages causés par l’intelligence artificielle : le droit français doit évoluer

Nous sommes définitivement entrés dans l’ère de la multiplication des « systèmes embarqués », des drones, des objets connectés et des voitures autonomes qui intègrent de plus en plus d’intelligence artificielle.

Comme le souligne le Professeur Laurent Alexandre « quasiment aucune activité humaine ne résistera à l’intelligence artificielle », et de nombreuses start-up s’y intéressent. L’I.A. est perçue comme une « technologie disruptive », à l’origine de la création d’un marché.

Le droit français est appelé à évoluer, notamment pour permettre l’adoption de mécanismes de réparation plus adaptés face à la difficulté d’identifier le ou les responsables de dysfonctionnements éventuels de l’I.A, à l’intérieur de la chaîne des intervenants, parfois très nombreux (concepteur, fabricant, sous-traitant, co-traitant etc.).

Notre article, publié dans la Gazette du Palais du 6 mars 2018, propose quelques pistes de réflexion à ce sujet.

A lire en intégralité ici : https://www.gazette-du-palais.fr/article/GPL315c3/

La justice « prédictive » : risque ou opportunité ? Retour sur le colloque organisé par l’Ordre des avocats au Conseil d’Etat et à la Cour de cassation

Le 12 février 2018, le cabinet Selene Avocats a eu le privilège d’assister au passionnant colloque organisé à l’occasion du bicentenaire de l’Ordre des avocats au Conseil d’Etat et à la Cour de cassation, au sujet de la justice prédictive.

A l’ère de la révolution numérique et de l’émergence croissante des legaltechs, ce colloque a été l’occasion d’une réflexion prospective sur la justice prédictive, qui laisse envisager des transformations majeures, mais ambivalentes.

Le rapport Cadiet[1], souvent évoqué durant la rencontre, définit la justice prédictive comme un « ensemble d’instruments développés grâce à l’analyse de grande masses de données de justice qui proposent, notamment à partir d’un calcul de probabilités, de prévoir autant qu’il est possible l’issue d’un litige ». Olivier Chaduteau, Managing partner de la société Day One, a précisé que la justice prédictive s’appuyait essentiellement sur trois technologies : le machine learning, le deep learning et le reinforcement learning.

Comme l’a souligné Jean-Claude Marin, Procureur Général auprès de la Cour de cassation, l’expression de « justice prédictive » est trompeuse, et il s’agit d’avantage d’un travail de prévision que de prédiction (au sens d’une action surnaturelle consistant à annoncer par avance, de prédire l’avenir). Yves Gaudemet, Membre de l’Institut et Professeur émérite de l’Université Panthéon-Assas, a ajouté que la justice, dans son essence, n’était pas et ne pouvait pas être prédictive.

 

Les opportunités offertes par la justice prédictive

La plupart des intervenants ont insisté sur les nombreuses perspectives offertes par la justice prospective.

Selon François Molinié, Avocat au Conseil d’Etat et à la Cour de cassation, elle pourrait permettre d’améliorer la prévisibilité des litiges et de combattre l’aléa judiciaire dès lors que les juges du siège bénéficieraient d’une base de décisions recensées et ciblées. A terme, la justice prédictive conduirait à une harmonisation et une cohérence renforcées des décisions de justice. De plus, les justiciables auraient la possibilité de recourir davantage et de manière plus adéquate aux modes alternatifs de résolution des litiges.

Bertrand Louvel, Premier Président de la Cour de cassation, a affirmé que dans un contexte d’inflation des recours, la justice prédictive serait également un outil de « recentrage » du travail des juges. En effet, ces derniers pourraient se décharger de tâches chronophages et répétitives, et se libérer du traitement d’une partie du contentieux de masse. Par ailleurs, la justice prédictive pourrait permettre aux avocats de faire preuve d’une plus grande rationalité dans l’élaboration des stratégies judiciaires de leurs clients.

A juste titre, Sophie Lemaire, Professeure à l’Université Paris-Dauphine, a insisté sur les avantages que pouvait apporter la justice prédictive en matière d’évaluation du quantum des dommages et intérêts. Parfois difficile à calculer, le montant des indemnités alloué est aujourd’hui très disparate en fonction des zones géographiques et des tribunaux. L’intelligence artificielle (le plus souvent basées sur des procédures algorithmiques) pourrait permettre de pallier ces difficultés et ces disparités.

Les risques et limites liés au développement de la justice prédictive : le juge pourrait perdre sa liberté d’appréciation !

Toutefois, l’utilisation croissante de la justice prédictive n’est pas sans risque.

Il existe un risque de diminution de la liberté d’appréciation du juge, ce dernier pouvant se sentir contraint de suivre les solutions proposées par l’intelligence artificielle. Ce risque prescriptif, qui est intrinsèquement lié au risque d’uniformisation et au risque performatif, met en péril l’office du juge qui, comme l’a rappelé Mattias Guyomar, Président de la dixième chambre de la Section du contentieux du Conseil d’Etat, n’est pas d’infirmer ou confirmer une solution type, majoritaire, mais bien de procéder à un arbitrage entre les intérêts des différentes parties.

Par ailleurs, l’utilisation de la justice prédictive limite les possibilités de revirement, et  fait naître un véritable risque de cristallisation de la jurisprudence. Jean-Claude Marin a ainsi affirmé que cette justice future était paradoxalement éminemment conservatrice, puisqu’elle se fonde sur des données et des décisions passées.

D’après Soraya Amrani-Mekki, Professeure à l’Université Paris-Ouest Nanterre La Défense, la justice prédictive n’est pas encore totalement opérationnelle, et les algorithmes ne sont pas infaillibles. Plusieurs intervenants, notamment Arnaud de Chaisemartin, Avocat au Conseil d’Etat et à la Cour de cassation, ont fait état des résultats décevants de l’utilisation du logiciel Predictice, à titre expérimental, au sein des Cours d’appel de Rennes et Douai.

D’autres risques doivent également être pris en compte. Mattias Guyomar a mis en garde contre le risque de « profilage » des juges en cas d’absence d’anonymisation de leur nom. Par ailleurs, les algorithmes sont loin d’être neutres, comme l’indique Jean-Marc Sauvé, Vice-Président du Conseil d’Etat. Ils ont tendance à reproduire, renforcer, et créer de nouveaux biais sociaux,  par exemple dans le calcul des risques de récidives de prévenus.

Les « conditions d’emploi » pour une utilisation optimale de la justice prédictive, qui ne doit constituer qu’une aide et ne pas se substituer au juge !

En raison de ces limites et risques, de nombreux intervenants se sont accordés sur la nécessité d’organiser, de réguler et de réglementer l’utilisation de la justice prédictive, par l’autorité judiciaire et les services publics, afin qu’elle soit utilisée à bonne escient.

Le Directeur ELS IT-Lab des Editions Lefebvre-Sarrut, Dominique Péré, a insisté sur l’importance pour les autorités judicaires de garder et contrôler les données de jurisprudence utilisées au service de la justice prédictive. Cette gestion centralisée pourrait être assurée par les juridictions suprêmes de chaque ordre juridique. Comme l’a souligné Antoine Louvaris, Professeur à l’Université Paris-Dauphine, il faudra veiller à conserver une hiérarchisation des jurisprudences en fonction des formations de jugement.

Enfin, plusieurs orateurs se sont prononcés en faveur de la mise en place d’un feedback organisé, éventuellement par le biais d’une commission de contrôle, pour faire évoluer au mieux l’utilisation de la justice prédictive.

Ainsi, le recours à la justice prédictive se révèle très prometteur pour l’évolution à venir du droit et des métiers du droit. Toutefois, Yves Gaudemet a parfaitement rappelé que la justice prédictive ne pouvait être qu’une aide à la justice, et n’avait pas vocation à se substituer aux juges ou aux auxiliaires de justice.

En définitive, il ressort de ce colloque que la justice prédictive est un phénomène inéluctable qu’il ne s’agit pas d’endiguer, mais plutôt d’accompagner, en restant très vigilant, comme l’a indiqué Renaud Salomon, Avocat Général à la Cour de cassation. LZ

[1] Rapport sur « L’open data des décisions de justice » remis à la ministre de la Justice le 9 janvier 2018 par Loïc Cadiet, professeur à l’École de droit de la Sorbonne.

L’intelligence artificielle ne doit pas supplanter l’homme, elle doit le servir !

Chargée par la loi pour une République numérique de mener une réflexion sur les questions éthiques et de société posées par les nouvelles technologies, la CNIL s’est intéressée au thème des algorithmes à l’heure de l’intelligence artificielle. Dans un rapport publié en décembre 2018, elle dresse un état des lieux de l’ensemble des enjeux éthiques soulevés, en s’appuyant notamment sur les résultats d’un débat public qu’elle a animé de janvier à octobre 2017.

Les champs d’exploration des algorithmes ne cessent de croître (médias, vie publique et politique, éducation, santé, culture, justice etc.). Des tâches, de la plus simple à la plus critique, sont ainsi déléguées à des systèmes de plus en plus autonomes à mesure que les techniques d’apprentissage propres à l’intelligence artificielle se développent. Ces usages multiples et croissants, indissociables des masses de données à disposition dans tous les secteurs, soulèvent de nombreuses questions : quelles réponses éthiques au développement des algorithmes et de l’intelligence artificielle ?

  1. Les problématiques soulevées par les algorithmes et l’intelligence artificielle

Le débat public organisé par la CNIL a permis de faire remonter six problématiques essentielles, sur lesquelles s’est basé le rapport.

  • Le développement croissant des algorithmes et de l’intelligence artificielle n’ouvre-t-il pas la voie à une confiance excessive de l’homme dans la machine et, in fine, à une déresponsabilisation de ce dernier ?
  • Comment faire face à ces nouvelles formes de dilution de la responsabilité ?
  • Comment appréhender les problèmes de discrimination et d’exclusion que posent les algorithmes et l’intelligence artificielle ?
  • Dans quelle mesure la segmentation et le profilage, qui découlent de la fragmentation algorithmique, affectent-ils les logiques collectives essentielles à nos sociétés (pluralisme démocratique et culturel notamment) ?
  • Comment concilier la quantité de données nécessaires à l’apprentissage de l’intelligence artificielle avec l’impératif de protéger les libertés individuelles de chacun ? Il y a là un réel équilibre à réinventer selon la CNIL.
  • Comment parvenir à une « alimentation » raisonnée de l’intelligence artificielle, c’est-à-dire avec des données pertinentes et suffisantes au regard de l’objectif poursuivi, malgré la tendance à une confiance excessive dans la machine ?

 

  1. L’affirmation de deux principes fondateurs pour une IA au service de l’homme : loyauté et vigilance

Deux principes fondateurs ont été dégagés au cours des débats, pour répondre à l’objectif d’une intelligence artificielle au service de l’homme.

Le premier est le principe de loyauté, selon lequel l’intérêt des utilisateurs doit primer. En d’autres termes, tout algorithme, qu’il traite ou non des données personnelles, doit être loyal envers ses utilisateurs, non pas seulement en tant que consommateurs, mais également en tant que citoyens, voire envers de grands intérêts collectifs dont l’existence pourrait être directement affectée.

Le second, le principe de vigilance, conduit à organiser un questionnement régulier, méthodique et délibératif à l’égard de ces objets mouvants. Pour ce faire, l’ensemble des maillons de la chaine algorithmique (concepteurs, entreprises, citoyens) doivent être mobilisés et, des procédures concrètes mises en place (ex : comité d’éthique pour dialogue entre les différentes parties prenantes).

Selon la CNIL, « ces principes pourraient s’inscrire dans une nouvelle génération de garanties et de droits fondamentaux à l’ère numérique ».

 

  1. Les six recommandations opérationnelles

La CNIL décline ces principes de loyauté et de vigilance en six principes organisationnels ayant trait à l’intelligibilité, à la responsabilité et à la nature de l’intervention humaine dans les systèmes algorithmiques.

Elle insiste, entre autres, sur la nécessité de former à l’éthique tous les acteurs-maillons de la chaîne algorithmique. Chaque humain doit comprendre les ressorts de la machine. Par ailleurs, elle recommande de rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs. Elle encourage également un renforcement de la fonction éthique au sein des entreprises.

Ainsi, par ce rapport, la CNIL souhaite participer à l’élaboration d’un modèle français de gouvernance éthique de l’IA, qui garantisse que l’IA augmente l’homme, plutôt qu’elle ne le supplante.

Le philosophe Armen Khatchatourov souligne toutefois les limites que présente l’intégration de réflexions éthiques au sein des algorithmes. Il indique que ce processus mène nécessairement à des dilemmes, ce qui rend impossible l’identification de règles universelles.