« Intelligence artificielle et droit : les enjeux et les opportunités » Retour sur la formation CAMPUS du 2 juillet 2018 et notamment sur la notion de « système expert »

Le cabinet SELENE Avocats a eu le plaisir d’assister à la conférence « Intelligence artificielle et droit : les enjeux et les opportunités », présentée par Melik Boudemagh, Président de l’agence Hercule[1], à l’occasion des formations CAMPUS[2].

Melik Boudemagh a d’emblée rappelé les difficultés d’appréhension de la notion d’« intelligence artificielle », liées notamment au fait que le terme « intelligence » est souvent synonyme d’intelligence humaine. Ainsi, dans l’inconscient collectif, l’IA est une réplication de l’humain sur une chose inanimée, ce qui conduirait la machine à remplacer l’humain. On parle par exemple de « robot-avocat ». Or, ce n’est pas ce qu’il faut comprendre par intelligence artificielle, et l’homme est d’ailleurs aujourd’hui incapable de reproduire artificiellement l’intelligence humaine dans son ensemble.

En réalité, l’IA consiste à simuler une partie de l’intelligence, à savoir la capacité analytique. En conséquence, le Président d’Hercule estime qu’il est plus pertinent de parler de « Système Expert », défini comme un outil capable de reproduire les mécanismes cognitifs d’un expert, dans un domaine particulier. Par exemple, Siri n’est pas une « intelligence artificielle », mais un « système expert », dont l’expertise est circonscrite à un domaine particulier, l’assistance personnelle.

Il est possible de distinguer deux générations de systèmes experts : les modèles logiques, et les modèles statistiques et apprenants.

Les modèles logiques permettent de prendre en charge la part de l’intelligence des avocats qui est « automatisable ». A l’image de Deep Blue, vainqueur au jeu d’échec en 1997, les modèles logiques fonctionnent sur le système de l’optimisation sous contrainte (raisonnement si … alors …). Selon Melik Boudemagh, ces modèles vont bientôt être présents partout, et être utilisés quotidiennement au sein de la profession d’avocat. Ils peuvent prendre en charge les « diagnostics », des « bilans de santé juridiques », servir à automatiser des procédures juridiques et judiciaires, ou encore constituer un outil d’aide à la décision. Ces modèles ont pour avantage d’être fiables et faciles à implémenter. Toutefois, ils se limitent à une représentation « théorique », parfois éloignée du réel.

Les modèles statistiques et apprenants sont plus évolués, à l’image cette fois d’Alphago, vainqueur au jeu de go en 2017. Ils sont basés sur le machine learning, et permettent d’adopter une approche empirique beaucoup plus proche du réel. Ces modèles peuvent être utilisés pour exploiter des données historiques, intégrer des modules de langage naturel, ou encore extraire des informations de documents existants. Toutefois, pour fonctionner, ces modèles nécessitent un dataset très important, ainsi que des ressources conséquentes en temps et en argent. Melik Boudemagh considère que les modèles statistiques et « apprenants » ne sont pas encore tout à fait au point actuellement, bien que prometteurs pour l’avenir.

De manière générale, l’intervenant a souligné les nombreuses opportunités offertes par les systèmes experts. Il est revenu par exemple sur la possibilité de générer automatiquement des contrats et autres documents, qui permettent selon lui un gain de temps et de productivité considérable, et assure fiabilité et cohérence. Plus sophistiquée est l’extraction intelligente de données, basée sur la reconnaissance de patterns au sein des documents.

Melik Boudemagh a également évoqué l’exploitation de données historiques et les enjeux de la justice prédictive, sur lesquels le cabinet SELENE Avocats était revenu en février dernier[3].

Toutefois, ces évolutions ne sont pas sans risque, et il faudra notamment être attentif à la gestion de la gouvernance des données et de l’information, sujet au cœur de l’actualité d l’entrée en application du Règlement Général de Protection des Données (RGPD) en mai dernier. LZ

[1] Agence spécialisée dans le Legal Tech.

[2] Session de formation continue des avocats au barreau de Paris, dont SELENE tient à saluer la qualité des enseignements

[3] http://www.selene-avocats.fr/publications-activites/2075-justice-predictive-risque-opportunite-retour-colloque-organise-lordre-avocats-conseil-detat-a-cour-de-cassation/

De l’utilité des drones au service de la sécurisation des populations et des espaces: dans quel cadre juridique?

Les pouvoirs publics ont de plus en plus recours aux drones, tant en matière de sécurité publique que de sécurité privée.

Notre article, publié dans la Gazette du Palais du 19 juin 2018, propose quelques pistes de réflexion à ce sujet.

Retrouvez l’intégralité de l’article ici: https://www.gazette-du-palais.fr/article/GPL324b3/

 

Intelligence artificielle : progrès ou menace pour l’homme ? Retour sur le dîner annuel des Jeunes Mécènes des Bernardins du 28 mai 2018

Le 28 mai 2018, le cabinet SELENE Avocats a assisté au dîner annuel des Jeunes Mécènes des Bernardins et en profite pour remercier les organisateurs (en particulier F. Bardoux et I. de Chatellus) pour cette soirée passionnante qui a été l’occasion de discuter des enjeux éthiques liés à l’intelligence artificielle (IA) avec des intervenants aux parcours et aux spécialités variés.

Les prouesses de l’IA de plus en plus impressionnantes

Le spationaute Jean-François Clervoy a expliqué que l’IA pouvait intervenir à chaque étape de fonctionnement d’un engin spatial, que ce soit pour capter l’information, pour la traiter, ou pour prendre une décision. Plus encore, durant la première minute et demi (décollage), seule la machine est en mesure de piloter parfaitement, l’homme ne disposant pas de la réactivité nécessaire.

Jean-François Clervoy a aussi retracé l’évolution de notre utilisation de la machine, soulignant la différence entre les anciens cockpits, dotés de milliers d’interrupteurs, et les cockpits envisagés pour les capsules de SpaceX d’Elon Musk, où les commandes se limitent à quatre écrans tactiles, et une quinzaine d’interrupteurs. Dans le domaine de l’exploration, l’IA permet d’accéder à des lieux où l’homme ne peut pas aller physiquement. En 2015, l’IA a permis de déposer une sonde interplanétaire à 1,4 milliard de kilomètres de la Terre !

Par ailleurs, plusieurs intervenants ont mentionné la victoire d’AlphaGo sur l’homme au jeu de go. François Régis de Guényveau, auteur de l’ouvrage Un dissident, est notamment revenu sur un coup étonnant joué par l’IA, qui fera dire à son adversaire Lee Sedol : « Je croyais qu’AlphaGo était basé sur des calculs de probabilités. Que ce n’était qu’une machine. Mais quand j’ai vu ce coup, j’ai changé d’avis. C’était évident qu’AlphaGo était créatif ».

Comment articuler intelligence humaine et intelligence artificielle ?

L’IA ne peut pas et ne doit pas remplacer l’humain. Jean-François Clervoy estime qu’il est essentiel que l’humain demeure celui qui prend la décision de recourir ou non à l’IA, par exemple en appuyant ou non sur le bouton de pilotage automatique. Pour lui, la statistique selon laquelle 95% des accidents d’avion sont dus à des erreurs humaines est trompeuse, puisqu’elle ne rend pas compte des très nombreuses fois où la situation a été sauvée grâce à l’équipage (l’être humain conservant un esprit critique et une capacité d’adaptation très importante)

L’IA peut toutefois être un outil fantastique pour aider l’homme à devenir, non pas surhumain, mais « plus humain ». Pour Mathieu Rougé, docteur en théologie, il est important de ne pas adopter une posture de rejet face à l’idée de « développement de l’homme », au cœur de l’IA et du transhumanisme.

Frédéric Mazzela, fondateur et CEO de Blablacar, s’est interrogé sur les spécificités de l’intelligence humaine, et sur les limites des robots et de l’IA. Selon lui, la réponse réside dans l’acronyme « GLASS » : game, love, art, sport, science. De quoi envisager un avenir non pas obscur, mais au contraire assez réjouissant !

Jean-François Clervoy estime, quant à lui, que la qualité majeure de l’Homme est sa curiosité. L’IA ne saurait faire preuve de curiosité spontanée, mais elle aide l’être humain à assouvir sa curiosité, à acquérir toujours plus de connaissances.

Plusieurs participants ont également évoqué la frustration pour l’Homme de se voir concurrencer par l’IA, qui serait la « quatrième blessure narcissique de l’Homme ». En effet, après avoir appris avec Copernic qu’il n’était pas au centre de l’univers, avec Darwin qu’il n’était pas si éloigné  des animaux, et avec Freud qu’il ne maitrisait pas tout son inconscient, l’Homme se rendrait aujourd’hui compte qu’il n’est pas le plus intelligent dans tous les domaines. Pourtant, François Régis de Guényveau estime que toutes ces découvertes sont, bien au contraire, la preuve du génie humain.

La nécessité de s’engager pleinement dans la révolution que représente l’IA

Comme l’ensemble des intervenants, Laurent Alexandre, chirurgien-urologue, co-fondateur de Doctissimo, président de DNA Vision et auteur de La mort de la mort et La guerre des intelligences, estime qu’il est essentiel de maîtriser et d’accompagner le développement de l’IA. Selon lui, l’intelligence est synonyme d’une seule chose : la prise et l’exercice du pouvoir.

Comme Laurent Alexandre, François Régis de Guényveau considère que la technologie n’est pas neutre, en ce qu’elle est toujours en soi une volonté de maitriser le monde, d’avoir la main mise sur le réel.

Pourtant, pour le médecin, le constat est sans appel : l’Europe est passée à côté de la révolution technologique du début du 21ème siècle. Il a par exemple critiqué le Règlement général sur la protection des données (RGPD), qu’il trouve dangereux. Selon lui, dans un contexte de « guerre de la data », ce texte donne encore davantage le dessus aux entreprises étrangères, telles que les GAFA[1] et les BATX[2], qui n’ont pas les mêmes références éthiques et ne s’imposeront pas nécessairement les mêmes contraintes réglementaires.

Toutefois, Laurent Alexandre considère que l’Europe n’est pas condamnée au « déterminisme technologique », et qu’il est indispensable de s’engager pleinement dans le secteur de cette nouvelle intelligence, afin d’être en mesure de choisir la manière dont sera utilisée l’IA dans le monde de demain. LZ

[1] Google, Apple, Facebook et Amazon.

[2] Baidu, Alibaba, Tencent et Xiaomi.

Drone: ce que vous n’avez pas le droit de faire!

Conscient que la communication sur la réglementation des drones est fondamentale, SELENE Avocats (membre du Conseil pour les drones civils) est heureux de pouvoir vous faire profiter de quelques conseils à l’occasion d’un article paru dans Dossier Familial.

L’intelligence artificielle ne doit pas supplanter l’homme, elle doit le servir !

Chargée par la loi pour une République numérique de mener une réflexion sur les questions éthiques et de société posées par les nouvelles technologies, la CNIL s’est intéressée au thème des algorithmes à l’heure de l’intelligence artificielle. Dans un rapport publié en décembre 2018, elle dresse un état des lieux de l’ensemble des enjeux éthiques soulevés, en s’appuyant notamment sur les résultats d’un débat public qu’elle a animé de janvier à octobre 2017.

Les champs d’exploration des algorithmes ne cessent de croître (médias, vie publique et politique, éducation, santé, culture, justice etc.). Des tâches, de la plus simple à la plus critique, sont ainsi déléguées à des systèmes de plus en plus autonomes à mesure que les techniques d’apprentissage propres à l’intelligence artificielle se développent. Ces usages multiples et croissants, indissociables des masses de données à disposition dans tous les secteurs, soulèvent de nombreuses questions : quelles réponses éthiques au développement des algorithmes et de l’intelligence artificielle ?

  1. Les problématiques soulevées par les algorithmes et l’intelligence artificielle

Le débat public organisé par la CNIL a permis de faire remonter six problématiques essentielles, sur lesquelles s’est basé le rapport.

  • Le développement croissant des algorithmes et de l’intelligence artificielle n’ouvre-t-il pas la voie à une confiance excessive de l’homme dans la machine et, in fine, à une déresponsabilisation de ce dernier ?
  • Comment faire face à ces nouvelles formes de dilution de la responsabilité ?
  • Comment appréhender les problèmes de discrimination et d’exclusion que posent les algorithmes et l’intelligence artificielle ?
  • Dans quelle mesure la segmentation et le profilage, qui découlent de la fragmentation algorithmique, affectent-ils les logiques collectives essentielles à nos sociétés (pluralisme démocratique et culturel notamment) ?
  • Comment concilier la quantité de données nécessaires à l’apprentissage de l’intelligence artificielle avec l’impératif de protéger les libertés individuelles de chacun ? Il y a là un réel équilibre à réinventer selon la CNIL.
  • Comment parvenir à une « alimentation » raisonnée de l’intelligence artificielle, c’est-à-dire avec des données pertinentes et suffisantes au regard de l’objectif poursuivi, malgré la tendance à une confiance excessive dans la machine ?

 

  1. L’affirmation de deux principes fondateurs pour une IA au service de l’homme : loyauté et vigilance

Deux principes fondateurs ont été dégagés au cours des débats, pour répondre à l’objectif d’une intelligence artificielle au service de l’homme.

Le premier est le principe de loyauté, selon lequel l’intérêt des utilisateurs doit primer. En d’autres termes, tout algorithme, qu’il traite ou non des données personnelles, doit être loyal envers ses utilisateurs, non pas seulement en tant que consommateurs, mais également en tant que citoyens, voire envers de grands intérêts collectifs dont l’existence pourrait être directement affectée.

Le second, le principe de vigilance, conduit à organiser un questionnement régulier, méthodique et délibératif à l’égard de ces objets mouvants. Pour ce faire, l’ensemble des maillons de la chaine algorithmique (concepteurs, entreprises, citoyens) doivent être mobilisés et, des procédures concrètes mises en place (ex : comité d’éthique pour dialogue entre les différentes parties prenantes).

Selon la CNIL, « ces principes pourraient s’inscrire dans une nouvelle génération de garanties et de droits fondamentaux à l’ère numérique ».

 

  1. Les six recommandations opérationnelles

La CNIL décline ces principes de loyauté et de vigilance en six principes organisationnels ayant trait à l’intelligibilité, à la responsabilité et à la nature de l’intervention humaine dans les systèmes algorithmiques.

Elle insiste, entre autres, sur la nécessité de former à l’éthique tous les acteurs-maillons de la chaîne algorithmique. Chaque humain doit comprendre les ressorts de la machine. Par ailleurs, elle recommande de rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs. Elle encourage également un renforcement de la fonction éthique au sein des entreprises.

Ainsi, par ce rapport, la CNIL souhaite participer à l’élaboration d’un modèle français de gouvernance éthique de l’IA, qui garantisse que l’IA augmente l’homme, plutôt qu’elle ne le supplante.

Le philosophe Armen Khatchatourov souligne toutefois les limites que présente l’intégration de réflexions éthiques au sein des algorithmes. Il indique que ce processus mène nécessairement à des dilemmes, ce qui rend impossible l’identification de règles universelles.

Pokémon Go au pays des partenaires commerciaux

Pokémon Go : « Si c’est gratuit, c’est vous le produit » ?

Sorti officiellement en France le 24 juillet 2016, ce jeu gratuit en réalité augmentée permet au joueur de capturer et dresser des Pokémon sur son Smartphone, lesquels apparaissent sur une carte en fonction de la localisation du téléphone.

Un concept innovant, qui a instantanément séduit des millions de joueurs, bien plus intéressés par la capture de Pikachu, que par la protection de leurs données personnelles !

Pokémon Go et l’utilisation classique des données personnelles

Outre l’accès à l’appareil photo et la localisation de l’appareil, le joueur autorise l’application à recueillir des données à caractère personnel tel que l’adresse e-mail avec laquelle il accède au jeu, la date de naissance du joueur, le nom d’utilisateur, les messages envoyés à d’autres utilisateurs, le pays, la langue, le carnet d’adresse de l’appareil ou la page Web qu’un utilisateur a consultée avant d’accéder au jeu.

Pokémon Go et l’utilisation renouvelée des données personnelles

Le placement d’un Pokémon dans un espace physique commercial permet à l’application d’attirer des joueurs chez ses partenaires commerciaux. Ces derniers rémunèrent  l’application selon la qualité des profils qui franchiront leur porte. Ainsi, la CNIL considère que « plus les données collectées par l’application sont précises, plus le profilage du joueur/consommateur est fiable, meilleure sera la rémunération de l’éditeur ».

Le député européen Marc Tarabella, arguant d’une violation du droit européen relatif à la protection des données à caractère personnel et souhaitant qu’une enquête soit menée en ce sens, devrait saisir sous peu la Commission européenne.

Protection des données nominatives dans l’UE

Protection des données nominatives dans l’Union : invalidation de la décision Safe Harbor. A l’origine de cette jurisprudence, l’autorité irlandaise de protection des données a refusé d’enquêter sur une plainte de M. Schrems relative au transfert de ses données nominatives par Facebook vers les Etats-Unis (CJUE, 6 octobre 2015, Schrems c. Data Protection Commissioner, Aff. C-362/14).

Invalidation de la décision Safe Harbor en matière de données nominatives

La directive n°95/46/CE a instauré un système garantissant, sur le territoire de l’Union, un traitement des données nominatives respectueux des droits fondamentaux de la personne. Les transferts de données hors de l’Union Européenne (UE) sont envisageables lorsque l’environnement juridique et sectoriel du pays destinataire assure une protection adéquate des données. La Commission Européenne a certifié que les entreprises américaines, offraient un niveau de protection suffisant. Ce système reposait sur un mécanisme d’auto-certification des entreprises américaines (Décision 2000/520 dite « sphère de sécurité » ou Safe Harbor).

Le 6 octobre 2015, la Cour de Justice de l’Union Européenne (CJUE) a annulé la décision Safe Harbor. La High Court of Ireland avait saisi la CJUE d’une question préjudicielle : une autorité nationale de contrôle peut-elle enquêter sur une plainte alléguant qu’un pays n’assure pas un niveau de protection adéquat des données personnelles, malgré l’auto-certification de la Commission ?

La CJUE considère que l’auto-certification octroyée par la Commission ne limite pas les pouvoirs de contrôle des autorités nationales. Ces dernières doivent examiner, en toute indépendance, si le transfert des données nominatives est conforme à la Charte des droits fondamentaux de l’UE.

En pratique, la décision Safe Harbor consacrait la primauté des impératifs de sécurité nationale et des lois des Etats-Unis, au détriment du droit au respect de la vie privée. Les autorités publiques américaines pouvaient accéder, de manière généralisée, au contenu des communications électroniques. Cette atteinte était d’autant plus grave que le justiciable ne disposait pas de voie de droit lui permettant d’accéder, rectifier ou supprimer ses données, portant une grave atteinte au droit à une protection juridictionnelle effective.

La décision 2000/520 est donc invalide.

Les recommandations de la CNIL en matière de données nominatives

La disparition de cette décision met un certain nombre d’entreprises dans l’embarras. Les effets de cet arrêt seront effectifs à compter du 1er février 2016.

En attendant les conclusions du groupe de travail du G29 sur les conséquences juridiques de cet arrêt, les entreprises sont tenues de procéder à une déclaration normale accompagnée de la signature des clauses contractuelles types ou de la mise en place de règles internes d’entreprise validées par la CNIL.