La justice « prédictive » : risque ou opportunité ? Retour sur le colloque organisé par l’Ordre des avocats au Conseil d’Etat et à la Cour de cassation

Le 12 février 2018, le cabinet Selene Avocats a eu le privilège d’assister au passionnant colloque organisé à l’occasion du bicentenaire de l’Ordre des avocats au Conseil d’Etat et à la Cour de cassation, au sujet de la justice prédictive.

A l’ère de la révolution numérique et de l’émergence croissante des legaltechs, ce colloque a été l’occasion d’une réflexion prospective sur la justice prédictive, qui laisse envisager des transformations majeures, mais ambivalentes.

Le rapport Cadiet[1], souvent évoqué durant la rencontre, définit la justice prédictive comme un « ensemble d’instruments développés grâce à l’analyse de grande masses de données de justice qui proposent, notamment à partir d’un calcul de probabilités, de prévoir autant qu’il est possible l’issue d’un litige ». Olivier Chaduteau, Managing partner de la société Day One, a précisé que la justice prédictive s’appuyait essentiellement sur trois technologies : le machine learning, le deep learning et le reinforcement learning.

Comme l’a souligné Jean-Claude Marin, Procureur Général auprès de la Cour de cassation, l’expression de « justice prédictive » est trompeuse, et il s’agit d’avantage d’un travail de prévision que de prédiction (au sens d’une action surnaturelle consistant à annoncer par avance, de prédire l’avenir). Yves Gaudemet, Membre de l’Institut et Professeur émérite de l’Université Panthéon-Assas, a ajouté que la justice, dans son essence, n’était pas et ne pouvait pas être prédictive.

 

Les opportunités offertes par la justice prédictive

La plupart des intervenants ont insisté sur les nombreuses perspectives offertes par la justice prospective.

Selon François Molinié, Avocat au Conseil d’Etat et à la Cour de cassation, elle pourrait permettre d’améliorer la prévisibilité des litiges et de combattre l’aléa judiciaire dès lors que les juges du siège bénéficieraient d’une base de décisions recensées et ciblées. A terme, la justice prédictive conduirait à une harmonisation et une cohérence renforcées des décisions de justice. De plus, les justiciables auraient la possibilité de recourir davantage et de manière plus adéquate aux modes alternatifs de résolution des litiges.

Bertrand Louvel, Premier Président de la Cour de cassation, a affirmé que dans un contexte d’inflation des recours, la justice prédictive serait également un outil de « recentrage » du travail des juges. En effet, ces derniers pourraient se décharger de tâches chronophages et répétitives, et se libérer du traitement d’une partie du contentieux de masse. Par ailleurs, la justice prédictive pourrait permettre aux avocats de faire preuve d’une plus grande rationalité dans l’élaboration des stratégies judiciaires de leurs clients.

A juste titre, Sophie Lemaire, Professeure à l’Université Paris-Dauphine, a insisté sur les avantages que pouvait apporter la justice prédictive en matière d’évaluation du quantum des dommages et intérêts. Parfois difficile à calculer, le montant des indemnités alloué est aujourd’hui très disparate en fonction des zones géographiques et des tribunaux. L’intelligence artificielle (le plus souvent basées sur des procédures algorithmiques) pourrait permettre de pallier ces difficultés et ces disparités.

Les risques et limites liés au développement de la justice prédictive : le juge pourrait perdre sa liberté d’appréciation !

Toutefois, l’utilisation croissante de la justice prédictive n’est pas sans risque.

Il existe un risque de diminution de la liberté d’appréciation du juge, ce dernier pouvant se sentir contraint de suivre les solutions proposées par l’intelligence artificielle. Ce risque prescriptif, qui est intrinsèquement lié au risque d’uniformisation et au risque performatif, met en péril l’office du juge qui, comme l’a rappelé Mattias Guyomar, Président de la dixième chambre de la Section du contentieux du Conseil d’Etat, n’est pas d’infirmer ou confirmer une solution type, majoritaire, mais bien de procéder à un arbitrage entre les intérêts des différentes parties.

Par ailleurs, l’utilisation de la justice prédictive limite les possibilités de revirement, et  fait naître un véritable risque de cristallisation de la jurisprudence. Jean-Claude Marin a ainsi affirmé que cette justice future était paradoxalement éminemment conservatrice, puisqu’elle se fonde sur des données et des décisions passées.

D’après Soraya Amrani-Mekki, Professeure à l’Université Paris-Ouest Nanterre La Défense, la justice prédictive n’est pas encore totalement opérationnelle, et les algorithmes ne sont pas infaillibles. Plusieurs intervenants, notamment Arnaud de Chaisemartin, Avocat au Conseil d’Etat et à la Cour de cassation, ont fait état des résultats décevants de l’utilisation du logiciel Predictice, à titre expérimental, au sein des Cours d’appel de Rennes et Douai.

D’autres risques doivent également être pris en compte. Mattias Guyomar a mis en garde contre le risque de « profilage » des juges en cas d’absence d’anonymisation de leur nom. Par ailleurs, les algorithmes sont loin d’être neutres, comme l’indique Jean-Marc Sauvé, Vice-Président du Conseil d’Etat. Ils ont tendance à reproduire, renforcer, et créer de nouveaux biais sociaux,  par exemple dans le calcul des risques de récidives de prévenus.

Les « conditions d’emploi » pour une utilisation optimale de la justice prédictive, qui ne doit constituer qu’une aide et ne pas se substituer au juge !

En raison de ces limites et risques, de nombreux intervenants se sont accordés sur la nécessité d’organiser, de réguler et de réglementer l’utilisation de la justice prédictive, par l’autorité judiciaire et les services publics, afin qu’elle soit utilisée à bonne escient.

Le Directeur ELS IT-Lab des Editions Lefebvre-Sarrut, Dominique Péré, a insisté sur l’importance pour les autorités judicaires de garder et contrôler les données de jurisprudence utilisées au service de la justice prédictive. Cette gestion centralisée pourrait être assurée par les juridictions suprêmes de chaque ordre juridique. Comme l’a souligné Antoine Louvaris, Professeur à l’Université Paris-Dauphine, il faudra veiller à conserver une hiérarchisation des jurisprudences en fonction des formations de jugement.

Enfin, plusieurs orateurs se sont prononcés en faveur de la mise en place d’un feedback organisé, éventuellement par le biais d’une commission de contrôle, pour faire évoluer au mieux l’utilisation de la justice prédictive.

Ainsi, le recours à la justice prédictive se révèle très prometteur pour l’évolution à venir du droit et des métiers du droit. Toutefois, Yves Gaudemet a parfaitement rappelé que la justice prédictive ne pouvait être qu’une aide à la justice, et n’avait pas vocation à se substituer aux juges ou aux auxiliaires de justice.

En définitive, il ressort de ce colloque que la justice prédictive est un phénomène inéluctable qu’il ne s’agit pas d’endiguer, mais plutôt d’accompagner, en restant très vigilant, comme l’a indiqué Renaud Salomon, Avocat Général à la Cour de cassation. LZ

[1] Rapport sur « L’open data des décisions de justice » remis à la ministre de la Justice le 9 janvier 2018 par Loïc Cadiet, professeur à l’École de droit de la Sorbonne.

L’intelligence artificielle ne doit pas supplanter l’homme, elle doit le servir !

Chargée par la loi pour une République numérique de mener une réflexion sur les questions éthiques et de société posées par les nouvelles technologies, la CNIL s’est intéressée au thème des algorithmes à l’heure de l’intelligence artificielle. Dans un rapport publié en décembre 2018, elle dresse un état des lieux de l’ensemble des enjeux éthiques soulevés, en s’appuyant notamment sur les résultats d’un débat public qu’elle a animé de janvier à octobre 2017.

Les champs d’exploration des algorithmes ne cessent de croître (médias, vie publique et politique, éducation, santé, culture, justice etc.). Des tâches, de la plus simple à la plus critique, sont ainsi déléguées à des systèmes de plus en plus autonomes à mesure que les techniques d’apprentissage propres à l’intelligence artificielle se développent. Ces usages multiples et croissants, indissociables des masses de données à disposition dans tous les secteurs, soulèvent de nombreuses questions : quelles réponses éthiques au développement des algorithmes et de l’intelligence artificielle ?

  1. Les problématiques soulevées par les algorithmes et l’intelligence artificielle

Le débat public organisé par la CNIL a permis de faire remonter six problématiques essentielles, sur lesquelles s’est basé le rapport.

  • Le développement croissant des algorithmes et de l’intelligence artificielle n’ouvre-t-il pas la voie à une confiance excessive de l’homme dans la machine et, in fine, à une déresponsabilisation de ce dernier ?
  • Comment faire face à ces nouvelles formes de dilution de la responsabilité ?
  • Comment appréhender les problèmes de discrimination et d’exclusion que posent les algorithmes et l’intelligence artificielle ?
  • Dans quelle mesure la segmentation et le profilage, qui découlent de la fragmentation algorithmique, affectent-ils les logiques collectives essentielles à nos sociétés (pluralisme démocratique et culturel notamment) ?
  • Comment concilier la quantité de données nécessaires à l’apprentissage de l’intelligence artificielle avec l’impératif de protéger les libertés individuelles de chacun ? Il y a là un réel équilibre à réinventer selon la CNIL.
  • Comment parvenir à une « alimentation » raisonnée de l’intelligence artificielle, c’est-à-dire avec des données pertinentes et suffisantes au regard de l’objectif poursuivi, malgré la tendance à une confiance excessive dans la machine ?

 

  1. L’affirmation de deux principes fondateurs pour une IA au service de l’homme : loyauté et vigilance

Deux principes fondateurs ont été dégagés au cours des débats, pour répondre à l’objectif d’une intelligence artificielle au service de l’homme.

Le premier est le principe de loyauté, selon lequel l’intérêt des utilisateurs doit primer. En d’autres termes, tout algorithme, qu’il traite ou non des données personnelles, doit être loyal envers ses utilisateurs, non pas seulement en tant que consommateurs, mais également en tant que citoyens, voire envers de grands intérêts collectifs dont l’existence pourrait être directement affectée.

Le second, le principe de vigilance, conduit à organiser un questionnement régulier, méthodique et délibératif à l’égard de ces objets mouvants. Pour ce faire, l’ensemble des maillons de la chaine algorithmique (concepteurs, entreprises, citoyens) doivent être mobilisés et, des procédures concrètes mises en place (ex : comité d’éthique pour dialogue entre les différentes parties prenantes).

Selon la CNIL, « ces principes pourraient s’inscrire dans une nouvelle génération de garanties et de droits fondamentaux à l’ère numérique ».

 

  1. Les six recommandations opérationnelles

La CNIL décline ces principes de loyauté et de vigilance en six principes organisationnels ayant trait à l’intelligibilité, à la responsabilité et à la nature de l’intervention humaine dans les systèmes algorithmiques.

Elle insiste, entre autres, sur la nécessité de former à l’éthique tous les acteurs-maillons de la chaîne algorithmique. Chaque humain doit comprendre les ressorts de la machine. Par ailleurs, elle recommande de rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs. Elle encourage également un renforcement de la fonction éthique au sein des entreprises.

Ainsi, par ce rapport, la CNIL souhaite participer à l’élaboration d’un modèle français de gouvernance éthique de l’IA, qui garantisse que l’IA augmente l’homme, plutôt qu’elle ne le supplante.

Le philosophe Armen Khatchatourov souligne toutefois les limites que présente l’intégration de réflexions éthiques au sein des algorithmes. Il indique que ce processus mène nécessairement à des dilemmes, ce qui rend impossible l’identification de règles universelles.

POINTS CLÉS DE LA DECLARATION D’HELSINKI SUR LES DRONES DU 22 NOVEMBRE 2017 (appel à un renforcement de la coopération européenne)

Le 22 novembre 2017, dans le cadre de la stratégie européenne de l’aviation, la Déclaration d’Helsinki a été adoptée lors d’une conférence sur les drones organisée conjointement par la Commission et les autorités finlandaises. L’objectif est de garantir la mise en place d’opérations de drones commerciaux sûrs d’ici 2019 en Europe. Trois points clés peuvent être identifiés.

  1. Des exigences légales pour les drones et opérations de drones afin de garantir une utilisation sûre et efficace de l’espace aérien et pour la fourniture de services U-Space rentables.

En premier lieu, la Déclaration dresse le constat de la fragmentation croissante des frontières nationales européennes concernant le marché des drones. Aussi, met-elle un point d’honneur à rappeler ô combien il est important pour les autorités européennes et nationales de coopérer.

En second lieu, elle émet le souhait d’obtenir rapidement les bases d’un nouveau cadre législatif européen et exhorte l’AESA à effectuer tous les travaux de suivi nécessaires. Sans être exhaustive, la Déclaration souhaite, notamment, que cette réglementation :

  • repose sur des normes ouvertes ;
  • assure la qualité de l’information ;
  • reflète les rôles et responsabilités probables des acteurs impliqués dans les opérations de drones et U-Space ;
  • explique la façon dont les drones peuvent opérer dans l’espace aérien afin que les autorités aient les outils adéquats pour protéger les citoyens avec des niveaux élevés de sûreté, de sécurité, de confidentialité et de protection de l’environnement.

En troisième lieu, tout en soulignant la nécessité de garantir un accès équitable à tous les usagers de l’espace aérien, la Déclaration demande une certaine flexibilité dans la fourniture des services U-Space. Elle fait remarquer que pour que l’accès à l’espace aérien et aux services puissent être offert au meilleur rapport coût-bénéfice possible tout en permettant des services équitables et opportuns, il faudrait :

  • que la fourniture de ces services soient basée sur la demande du marché local ; et
  • que soit mis en place, dans la mesure du possible, une certaines concurrence entre les fournisseurs de U-Space.

Enfin, la Déclaration appelle à renforcer la coopération internationale en matière de réglementation avec l’OACI, JARUS et les pays tiers.

  1. Des investissements supplémentaires dans des démonstrateurs.

La Déclaration appelle à la mise en place, dans les meilleurs délais, d’un « European U-Space Demonstrator Network ». Cela permettrait d’avoir un réel partage des connaissances et, des retours basés sur l’expertise pratique des démonstrateurs.

Il est précisé que ces démonstrateurs devraient d’une part couvrir tous les aspects des opérations de drones et, d’autre part, être développés en étroite collaboration avec les autorités locales, y compris dans le cadre du Partenariat européen d’innovation – « Smart Cities & Communities projects ».

  1. Des investissements supplémentaires dans les projets de R & D à long terme.

Sur ce point, la Déclaration invite le secteur industriel à investir davantage dans des projets contribuant à l’intégration sûre des drones (comprendre « safe and secure »), notamment pour l’édition 2018 du plan directeur ATM en cours d’élaboration par le comité mixte SESAR entreprise. JM

Réflexions en marge du Colloque « L’héroïsme à l’ère de l’intelligence artificielle » organisé par l’armée de l’air à l’Ecole militaire le 18 décembre 2017.

« Si nous croyons que la machine abîme l’homme c’est que, peut-être, nous manquons un peu de recul pour juger les effets de transformations aussi rapides que celles que nous avons subies. » (Saint-Exupéry)

 

Les avancées technologiques depuis vingt ans ont été vertigineuses. Une machine peut à présent écrire ses propres algorithmes et modéliser ses comportements futurs. Dans le domaine aéronautique, cela se traduit, entres autres, par la possibilité de réaliser une maintenance prédictive : c’est-à-dire d’identifier, avant le posé de l’avion, les pièces à changer afin d’éviter une panne. Dans le domaine militaire, à travers l’automatisation des drones opérant en essaim.

 

Cette multiplication des applications usant de l’intelligence artificielle est source de multiples questions éthiques, démocratiques, philosophiques, voire sociologiques. En plein cœur de l’actualité, la voiture autonome : lorsque cette dernière ne pourra plus éviter une collision mortelle, elle devra décider de l’impact, et donc de la personne à sacrifier. On comprend donc que la programmation de cette décision sera basée sur des règles. Seront-elles imposées par le gouvernement aux concepteurs ? Ou, chaque concepteur aura un programme dont il fera la promotion auprès de sa clientèle ?  Les questions n’en finissent pas.

 

Cédric Villani, mathématicien de renom et Député de la cinquième circonscription de l’Essonne, intervenu lors du colloque organisé par l’armée de l’air intitulé « L’héroïsme à l’ère de l’intelligence artificielle », s’est interrogé sur trois points : comment peut-on analyser l’intelligence artificielle ? Quels sont les points clés pour avoir et maitriser cette intelligence artificielle ? Quels sont les axes clés pour l’aborder ?

 

Comment peut-on analyser l’intelligence artificielle ? Il n’existe, selon lui, aucune définition générale. Il s’agirait de « toute technologie donnant un résultat très perfectionné et dont on pourrait croire que cela relève de l’humain ». L’intelligence artificielle serait un amoncellement continu de techniques basées sur la compréhension, l’exemple de bons comportements etc. Ainsi de conclure qu’il n’existe aujourd’hui aucuns grands principes et, pourtant, une efficacité qui croit de jour en jour.

 

Quels sont les points clés pour avoir et maîtriser l’IA ? Aux dires de Cédric Villani, quatre composantes ont été identifiées :

  • D’une part, il faut de l’intelligence humaine. Le combat de la France est donc de réussir à retenir les meilleurs experts, étudiants.
  • D’autre part, il faut un stock de données classées. En effet, grâce à ces données, des statistiques peuvent être élaborées et des lignes des apprentissages programmées.
  • De plus, il faut des méthodes de calcul. Or, aujourd’hui Cédric Villani dresse le constat que l’Europe est en retard comparé aux USA ou à la Chine.
  • Enfin, il faut de l’argent pour financer tout cela.

 

Quels axes clés pour l’aborder ? Monsieur Cédric Villani a énuméré de nombreux axes qu’on se propose ici de relayer et, lorsque cela est nécessaire, commenter :

  • Stratégie et talent humain. En d’autres termes, il est nécessaire de disposer d’experts restant au contact de l’ensemble des idées soulevées dans le monde.
  • Une certaine souplesse dans la façon de travailler. En effet, c’est une matière qui évolue souvent et, rapidement.
  • Le besoin de règles sur les questions de droit et de responsabilité humaine. L’idée est de ne pas tout déléguer à la machine. La responsabilité humaine doit persister.
  • Travailler sur l’explicabilité. C’est-à-dire réussir à expliquer pourquoi et comment l’algorithme d’une machine est arrivé à certaines conclusions et pas à d’autres.
  • Penser l’homme avec la machine et la machine avec l’homme. Quelle est la place respective de chacun ? Cela suppose de s’interroger sur le protocole de communication qui sera mis en place entre l’homme et la machine. Car en effet, sans bon protocole, il n’y a pas de bons développements.

 

Tout ceci prouve que l’on réfléchit à la complémentarité entre l’homme et la machine. Pour autant, une crainte persiste : celle que l’homme puisse être à terme dépassé par la machine. Prenons l’exemple du drone militaire et de la distanciation au combat : une vidéo envoyée par le drone et jugée par un opérateur. Décision de la machine ? Décision humaine ? A ce stade, ce qu’il faut retenir, c’est que l’humain reste au centre du dispositif. L’homme ne disparaît pas, il se positionne différemment. Ainsi, ce qu’il faut penser aujourd’hui, c’est la place de l’homme dans ces nouvelles chaînes intégrant l’intelligence artificielle. L’intelligence artificielle n’est pas une fin en soi mais un moyen.

 

Amusante, une question a été soulevée lors de ce colloque : le héros de demain ne serait-il pas celui capable de déjouer les pronostics de la machine ? Qu’en pensez-vous ?

 

Bonnes fêtes de fin d’année à tous et bonnes réflexions ! JM

Les drones et les robots au service de la sécurité privée, une filière prometteuse mais juridiquement très encadrée

L’essor des drones et des robots permet désormais de les utiliser comme de véritables outils et non plus simplement comme des gadgets.

A ce titre, dotés de mobilité croissante et de capteurs de plus en plus performants, les drones et robots trouvent leur place dans la sécurité privée que ce soit pour les sites industriels, les chantiers de BTP de grande ampleur,  les sites agricoles ou encore les banques.

 

  • Des systèmes améliorant le métier de la sécurité

De nombreuses start-up investissent dans le marché de la sécurité privée en développant des produits sur mesure destinés à améliorer le métier de la sécurité.

Par exemple, l’entreprise EOS innovation a créé « e-vigilante », un robot autonome qui effectue des rondes automatisées et alerte la personne en charge de la surveillance du site dès lors qu’il détecte un incident. La personne en charge peut alors intervenir à distance par le biais de caméras, micros ou haut-parleurs.

De son côté, la société Azur Drones propose notamment un drone filaire pour des sites sans caméra d’une surface de 100 à 200 hectares. Le drone est en vol stationnaire et alimenté par un câble mais détient des capteurs capables de détecter des mouvements à 10 km pendant 10 heures.

Que ce soit les drones ou les robots, ils sont utilisés par les entreprises dans un objectif de réduction de couts mais également des risques relatifs aux aléas de la sécurité. Toutefois, alors que l’Homme a souvent peur d’être remplacé par le robot, les entreprises qui développent le marché de la sécurité affirment que ces robots n’ont pas vocation à remplacer le salarié mais à compléter efficacement son travail.

En effet, le salarié, plutôt que de faire des rondes sur le site, peut être installé à un poste de surveillance pour recueillir des informations plus précises en temps réels. Ceci lui permet de recourir à des solutions plus pertinentes et plus efficaces pour résoudre les incidents.

Cependant, les entreprises ne sont pas encore prêtes à utiliser ces systèmes tant du fait du défaut d’expérimentation et de formation dans ces domaines que de la règlementation stricte de l’utilisation de ces engins.

 

  • Les problématiques juridiques d’utilisation de ces technologies par les entreprises

De nombreuses entreprises aimeraient pouvoir se doter de drones pour garantir la sécurité de leurs sites.

Toutefois, la règlementation en matière d’utilisation des drones dits civils est assez stricte.

Le gouvernement français, tout comme l’Union européenne, légifèrent en la matière afin de de protéger les personnes face au terrorisme mais surtout de garantir le respect des libertés individuelles.

C’est ainsi que, par exemple, le vol de drone de nuit est interdit (sauf dérogation exceptionnelle). Or, l’utilisation de moyens de sécurité est plus spécifiquement nécessaire de nuit. De plus, si certains drones ont vocation à intervenir automatiquement en cas d’alerte d’un robot sur site et doivent décoller d’une base située à quelques kilomètres du site, le drone aura probablement à survoler des zones habitées, ce qui engendre des problématiques d’atteinte à la vie privée.

Par conséquent, tant que l’utilisation de drones demeurera aussi stricte, le marché de la sécurité privée, certes en croissance, ne pourra prospérer comme le souhaitent les industriels.  PB

L’intelligence artificielle : une notion, mal encadrée juridiquement, qui fascine autant qu’elle inquiète

SELENE Avocats était présent à la 17ème édition des Matins de l’Économie du JDD le vendredi 13 octobre 2017 pour évoquer les perspectives de développement de l’intelligence artificielle à l’horizon 2040 et les enjeux éthiques, philosophiques, sociaux et économiques qu’elle soulève.

D’après l’encyclopédie Larousse, l’intelligence artificielle est « l’ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence ». Elle correspond donc à un ensemble de concepts et de technologies plus qu’à une discipline autonome constituée.Considérée comme l’objet d’une « 4ème Révolution industrielle », l’intelligence artificielle constitue-t-elle un véritable progrès? En effet, cette notion fascine tout autant qu’elle inquiète.

« L’intelligence artificielle, c’est avant tout la capacité d’une machine à prendre des décisions et à apprendre de ses décisions« , résume Antoine Blondeau, PDG de Sentient Technologies, à l’origine du système utilisé par l’assistant vocal d’Apple, Siri.

Par conséquent, la machine pouvant prendre des décisions, se pose la question de son encadrement juridique réclamé par de nombreux acteurs tels qu’Elon Musk (PDG de Tesla Motors).

 

  • L’intelligence artificielle au sein des entreprises

Ces technologies sont de plus en plus présentes dans le quotidien des salariés qui n’ont pas d’autre choix que de s’adapter. Dominique Rémy, Directrice Développement & Ingénierie de Natixis Assurances indique avoir « mis l’intelligence artificielle au service de [ses] collaborateurs » et évoque une réelle appropriation par les salariés de cette dernière. En effet, cela permet aux salariés d’être moins complexés en posant les questions qui les préoccupent à la machine.

Par ailleurs, ces technologies n’ont pas pour but de remplacer l’Homme, qui apportera toujours une valeur ajoutée dans son travail. Toutefois, il a été mis en avant lors de cette rencontre qu’« on ne sait pas vraiment si l’IA va créer ou tuer des emplois, mais ce qui est certain, c’est qu’elle va le changer ». « 

Ainsi, mieux vaut se préparer que de s’effrayer.

 

  • L’intelligence artificielle, un défi à relever au plan macro-économique

Aujourd’hui, seulement 4% des entreprises en France sont digitalisées et tous les pays sont loin d’être concernés par la montée de l’intelligence artificielle.

Reste à savoir si la France est capable de relever le défi en finançant de tels projets et en conservant ses talents afin de les mobiliser pour développer des systèmes intelligents comme c’est déjà le cas aux Etats-Unis et en Chine.

 

  • L’intelligence artificielle, un nouvel agent déroutant pour le système juridique actuel

Par les décisions qu’elle prend et les actions qu’elle entreprend, l’intelligence artificielle peut être source de dommages, notamment corporels, par exemple en guidant un véhicule qui peut percuter des personnes et des biens.

Ces dommages pourront être considérables et justifieront une réparation pour ne pas laisser la victime impuissante endurer les conséquences du fait de ces dysfonctionnements.

Il convient alors de se demander si le régime de responsabilité de droit positif, dans le cas présent, la loi Badinter de 1985,  est armé pour proposer un traitement satisfaisant ?

L’intelligence artificielle présentant des caractéristiques jusque-là méconnues, elles peuvent la soustraire à certaines des conditions d’application de ce régime.

En effet, l’autonomisation croissante et progressive des véhicules impliquera de faire évoluer la notion de « conducteur », laquelle est aujourd’hui déterminante pour la mise en œuvre de la responsabilité civile en cas d’accident automobile.

Sur ce dernier point, la loi Badinter du 5 juillet 1985 prévoit que l’indemnisation des victimes d’accidents de la circulation est mise à la charge soit du conducteur, soit de celle du gardien du véhicule.

Le conducteur du véhicule avait-il le contrôle de celui-ci lors de l’accident ou n’était-il qu’un simple passager ? Le conducteur a-t-il commis une faute en reprenant inopinément la main lors d’une situation délicate ? Qui avait la garde du véhicule au moment des faits ? Autant de questions auxquelles il faudra répondre. PB 

 

Les professionnels des drones civils se préparent face aux cyber risques

Ce lundi 26 juin 2017, le cabinet Selene Avocats était présent au colloque organisé par le cabinet Gide sur « La filière des drones civils professionnels face aux risques de cyber attaques ».

A partir de 2018, un règlement européen viendra imposer de nombreuses obligations aux entreprises qui devront faire preuve de davantage de rigueur dans la protection des données de leurs clients. En matière de drones, toutes les informations captées dans le cadre notamment d’opérations agricoles ou de travaux publics seront davantage sécurisées et chiffrées.

L’utilisation des drones civils a énormément évolué. Un drone peut en effet faire office de défibrillateur, de livreur, d’inspecteur, de transport de secours, de taxi, d’instrument de pollinisation et d’épandage, tant d’usages qui en font la cible idéale pour les hackers et qui pousse les entreprises à se former dans la protection et la sécurisation.

Toujours au cœur de l’actualité, les membres de Selene Avocats se forment aux différentes questions relatives aux nouvelles technologies afin d’apporter une solution toujours plus adaptée à vos problèmes.

Les participants ont ainsi pu échanger sur les principales problématiques en matière de cyber menaces : virus, systèmes de brouillages et prises de contrôle à distance. Les intervenants ont informé les professionnels sur les différentes mesures à mettre en place pour se prémunir de telles attaques et ne pas perdre ou se faire voler leurs données.

L’EASA a émis des  recommandations sur l’usage des drones de moins de 25 kg. En 2016, 1.400 signalements ont ainsi été recensés, dont 7 conflictuels avec un autre trafic. L’EASA développe également un Centre européen pour la cyber sécurité en Europe.

Grâce à cette sensibilisation, les entreprises et leurs conseils peuvent anticiper problématiques de sécurité et ainsi apporter des solutions toujours plus protectrices pour leurs clients.

SELENE Avocats intervenant lors de la matinée de l’Argus de l’assurance dédiée aux objets connectés (incluant les drones civils professionnels)

La matinée « Objets connectés et nouveaux risques » organisée par l’Argus de l’assurance s’est tenue le 22 juin 2017 à Paris. Laurent Archambault (associé) est intervenu à cette occasion sur la question de l’encadrement juridique des drones civils professionnels et des enjeux en matière d’assurance.

A ses côtés, des professionnels du droit (Alain Bensoussan) et du marché des assurances (Kadidja Sinz pour Liberty, Christophe Pardessus pour Marsh ou encore Laurent Benichou pour AXA Next) ont pris la parole afin d’identifier les défis liés à l’explosion du marché des objets connectés et les réponses potentielles à y apporter. Plusieurs études annoncent en effet le chiffre de 30 millions de ces objets en France dans les 3 prochaines années. Or, le cadre juridique reste incertain. Ont ainsi été évoqués le récent rapport d’initiative sur la robotique adopté par le Parlement européen en février 2017 et le Règlement européen sur la protection des données et son application par la CNIL dès mai 2018.

Les débats ont notamment porté sur :

  • La responsabilité civile du fait des objets connectés (notamment des drones) ;
  • Le développement d’une offre assurantielle cohérente dans un cadre juridique en mutation ;
  • L’essor du marché de la cyber-assurance.

 

 

Une nouvelle volière de drones et une Chaire spécialisée pour l’ENAC

Afin d’offrir une formation adaptée aux besoins du marché des drones civils, l’Ecole Nationale de l’Aviation Civile (ENAC) a ouvert une formation entièrement dédiée aux aéronefs sans pilote.

Avec le développement des drones à des fins professionnelles, de nombreux exploitants et télépilotes ont ressenti le besoin de suivre un cursus d’enseignement sur l’exploitation et les applications de drones. De même, les spécialistes de l’aviation civile, les autorités et les industriels pourront bénéficier de cette formation qui a pour ambition une véritable harmonisation des règles et des connaissances en la matière.

Parallèlement à ce projet, l’ENAC a conçu l’une des plus grandes volières de drones d’Europe. Ce Fab Lab ultra-spécialisé va de pair avec un ensemble de laboratoires d’automatique, de robotique et de drones pour une collaboration en matière technologique et réglementaire. Présent au cœur de la région Occitanie, le centre d’expérimentation géré par M. Yannick Jestin dispose d’un budget d’1,5 million d’euros et sera lancé à l’automne 2017.

Tremplin pour une meilleure coordination entre les corps de métier, ce programme se veut européen et transversal pour permettre un développement rapide et efficace avec tous les acteurs du secteur. Une Chaire « Système de drones » propose d’aborder la recherche sous quatre angles : les systèmes, accompagné d’un projet opensource, l’intégration dans l’espace aérien, les applications civiles et des programmes pédagogiques avec notamment la présence d’un certificat Drones.

Dès la rentrée 2017, l’ENAC fait le pari des drones et il est fort à parier qu’à ce rythme, la filière sera prête plus tôt que prévu !

 

Voitures volantes : Airbus crée le transport du futur

En mars dernier, Airbus a profité du Salon de l’Auto qui se déroulait à Genève pour présenter son nouveau prototype de voiture volante : le Pop.Up. Pratique pour échapper à la circulation et aux obstacles, le véhicule est équipé d’un drone suffisamment puissant pour le transporter dans les airs.


Airbus a chargé Urban Air Mobility, son bureau spécialement consacré à l’invention et l’office d’études Italdesign de s’occuper de l’élaboration de l’appareil. En plus de réfléchir à l’intégration de l’appareil dans la circulation aérienne, elles devront s’adapter aux difficultés liées à la sécurité et à l’énergie. Par-dessus tout, elles cherchent à anticiper un encombrement du trafic routier à l’horizon 2030.


Equipée d’un châssis de quatre roues à propulsion électrique et d’un module aérien à huit rotors, la capsule de transport se veut intégralement électrique, ce qui pose un défi supplémentaire en matière d’autonomie et de moteur pour l’entreprise aéronautique. Allant jusqu’à 100km/h sur une distance de 130 km, le véhicule aura, selon Airbus, un temps de charge de 15 minutes.
D’un point de vue technique, la capsule a une hauteur de 1,41 m et mesurera 2,64 m sur 1,54 m. Elle est capable de transporter une charge de 200 kg. En compétition directe avec l’entreprise chinoise eHang qui développe actuellement un drone-taxi de transport, Airbus allie design et technologie pour attirer les investisseur.


L’entreprise travaille également à un système d’intelligence artificielle supplémentaire pour établir des trajets les plus rapides possibles en fonction de ses passagers. Les habitudes de l’utilisateur sont enregistrées et étudiées pour s’adapter à ses préférences en tenant compte de la météo, de l’état du trafic et des coûts.