Le virage complexe de la voiture « automatisée » par Laurent Archambault et Sabrina Dupont, publié dans L’Argus de l’Assurance

U-SPACE : un système européen innovant de gestion de la circulation des drones 2/2

Suivez la deuxième partie de notre article dédié au concept de U-SPACE.

La réponse U-SPACE permettra assurément de gérer l’intégration des drones dans l’espace aérien en garantissant un haut niveau de sécurité. Mais ce système européen innovant ne se mettra pas en place du jour au lendemain ; seront progressivement mis en place de nouveaux services allant des services de base comme l’identification électronique, en passant par la planification de vol, son approbation et son suivi, jusqu’aux opérations plus complexes, telle l’intégration des drones dans des zones plus denses. Des premiers essais visant à prouver la viabilité d’un tel système sont en cours, afin de démontrer que U-SPACE pourra prendre en charge un large éventail d’opérations de drones et contribuera à assurer la cohabitation des drones avec l’aviation classique.

U-SPACE : un système européen innovant de gestion de la circulation des drones 1/2

Suivez la première partie de notre article dédié au concept de U-SPACE qui apparaît comme une réponse européenne efficace à la question de l’intégration des drones dans le trafic aérien civil des 20 prochaines années.

 

Comment voyager à l’étranger avec un drone en toute sécurité?

De plus en plus de voyageurs décident d’investir dans l’achat d’un drone pour garder des souvenirs de vacances mémorables. Mais le drone est un objet juridique relativement récent ; les réglementations des pays ne sont pas uniformes à travers le monde et les conditions de transport en avion diffèrent selon les compagnies. Alors comment voyager à l’étranger avec un drone en toute sécurité ?

Laurent Archambault, Associé, et Cassandra Rotily, Doctorante, évoquent ce sujet dans Air & Cosmos.

Impression 3D, gare à la contrefaçon !

Les technologies de fabrication additive comportent des risques d’infraction à la propriété intellectuelle. Il importe de s’en protéger.

Retrouvez l’article de Béatrice Erhwein et Laurent Archambault sur l’Usine Nouvelle:

https://www.usinenouvelle.com/editorial/impression-3d-gare-a-la-contrefacon.N748679

 

Affaire Facebook : une conception extensive du responsable de traitement par la CJUE au profit d’une protection effective des données personnelles

Dans l’arrêt de la Grande Chambre de la Cour de Justice de l’Union Européenne du 5 juin 2018 (affaire C-210/16), la Cour administrative fédérale d’Allemagne a saisi la CJUE au titre de l’article 267 du TFUE. Cela a été l’occasion pour la Cour, à la suite de l’arrêt Google Spain, d’étendre la responsabilité du responsable de traitement aux utilisateurs de réseaux sociaux, en l’espèce Facebook.

Au vu de la complexité de cette affaire, rappelons les faits. Une société allemande, Wirtschaftsakademie, offre des services de formation, grâce à une page Facebook. L’ULD, la « CNIL allemande », a ordonné à Wirtschaftsakademie de désactiver cette page, au motif que ni Wirtschaftsakademie ni Facebook n’informaient de la collecte de données personnelles.

Après une longue procédure administrative, l’ULD introduit un recours en révision devant la Cour Administrative Fédérale d’Allemagne, considérant que la Wirtschaftsakademie a confié à « un fournisseur inapproprié […] le soin de l’hébergement […] d’un site Internet ». La Cour administrative fédérale a posé plusieurs questions à la CJUE :

  • Les deux premières portent sur la responsabilité du traitement : la Wirtschaftsakademie doit-elle être considérée comme responsable de traitement, en sa qualité d’administrateur d’une page hébergée sur un réseau social? La Cour répond par l’affirmative.
  • Les troisièmes et quatrièmes questions portent sur le droit national applicable et sur la compétence de l’autorité de contrôle allemande. La Cour de justice a déterminé que l’autorité de contrôle allemande est compétente à l’égard de Facebook Germany, qui doit être considéré comme un établissement de Facebook Inc, alors même que cet établissement n’est chargé que de la vente d’espaces publicitaires en Allemagne.
  • Les deux dernières questions concernent l’exercice des pouvoirs et attributions des autorités de contrôle prévus par l’article 28 de la directive dans le cas où le responsable de la violation de règles relatives à la protection des données personnelles se trouve sur un autre Etat membre. La Cour répond que l’autorité de contrôle peut « apprécier de manière autonome » par rapport à l’autre autorité de contrôle la légalité d’un traitement de données.

Dans son raisonnement relatif à la responsabilité du traitement, la Cour a donc dû se poser la question complexe de la responsabilité du traitement de Wirtschaftsakademie. Pour cela, il faut déterminer si l’administrateur de la page participe à déterminer les finalités et moyens du traitement. Or, les cookies bénéficient aussi bien à Facebook qu’à l’administrateur de la page qui obtient des statistiques établies par Facebook. La création d’une page Facebook implique de la part de son administrateur une fonction de paramétrage, et il peut demander à obtenir, et donc que soit traitées, des données démographiques concernant son audience cible. Peu importe que celles-ci soient anonymisées, puisque « la directive 95/46 n’exige pas, lorsqu’il y a une responsabilité conjointe de plusieurs opérateurs pour un même traitement, que chacun ait accès aux données à caractère personnel concernées ».

La Cour est très claire : « il y a lieu de considérer que l’administrateur d’une page hébergée sur Facebook, tel que Wirtschaftsakademie, participe, par son action de paramétrage, en fonction, notamment, de son audience cible ainsi que d’objectifs de gestion ou de promotion de ses activités, à la détermination des finalités et des moyens de traitement des données personnelles des visiteurs de sa page fan. De ce fait, cet administrateur doit être qualifié de responsable au sein de l’Union. »

Cette conception extensive du responsable semble sévère pour l’administrateur de la page Facebook, qui n’obtient que des données anonymisées et ne traite pas les données personnelles directement. Toutefois, cette décision représente un grand pas en avant pour la protection des données personnelles, grâce à l’élargissement du champ d’application territorial et de la notion de responsable de traitement.

VERS DE NOUVELLES PERSONNALITES JURIDIQUES AU 21ème SIECLE ?  (robots, animaux et espaces naturels)

Retour sur le colloque organisé par la Grande Bibliothèque du Droit

Le 16 mai dernier, le cabinet SELENE Avocats a été très heureux d’assister à la table ronde de grande qualité, organisée par la Grande Bibliothèque du Droit, au sujet des nouvelles personnalités juridiques du 21ème siècle.

Comme indiqué par Didier Guével, professeur de droit privé et sciences criminelles à l’Université Paris 13, ce colloque a été l’occasion de réfléchir à l’opportunité d’allonger la liste des sous-catégories bénéficiant de la « personnalité juridique », aujourd’hui composée des personnes physiques et des personnes morales.

La personnalité juridique est traditionnellement définie comme une fiction juridique conférant des droits subjectifs et imposant des devoirs à son titulaire. L’idée de « personne » a été conceptualisée pour l’humain et par l’humain, afin de régir les rapports humains.

Toutefois, à l’heure où l’Arabie Saoudite octroie au robot humanoïde Sophia la nationalité saoudienne, et où la Cour suprême de Colombie reconnait l’Amazonie comme sujet de droit, les classifications traditionnelles tendent à exploser.

Aujourd’hui déjà, la notion de « personnalité juridique » n’est pas monolithique. Ainsi, la personnalité juridique des « humains » est variable, allant d’abord crescendo (embryon, fœtus), puis decrescendo (respect dû au cadavre). De même, la personne morale est loin de constituer une entité totalement cohérente, et n’est assimilée que partiellement à la personne physique. Elle n’a pas de vie privée, et demeure « soumise à la peine de mort ».

Durant cette table ronde, trois séries de « candidats à la personnalité » ont été successivement étudiées : les animaux, les éléments de la nature et les robots.

« Etres vivants doués de sensibilité », code de l’animal… quel niveau de protection pour les animaux ? Vers un dépassement de la summa divisio personnes/choses

Gandhi disait « on reconnaît le degré de civilisation d’un peuple à la manière dont il traite ses animaux ». Il est certain que la perception de l’animal diffère d’un Etat à un autre, d’une personne à une autre.

Marie-Bénédicte Desvallon, avocate responsable du groupe de travail d’avocats dédié à l’élaboration d’un Code français autonome des droits de l’animal et d’un statut juridique, est favorable à la remise en question du monopole de l’homme « sujet de droits ». Pour autant, elle a souligné qu’il était dangereux de réfléchir à la protection des animaux en ayant pour référence unique les caractéristiques de la personnalité humaine, et qu’il était plus pertinent de s’intéresser aux caractéristiques propres aux besoins des animaux (qui passe notamment par une protection vis-à-vis de l’homme).

Thierry Revet, professeur de droit privé et sciences criminelles à l’Université Paris 1, partage son point de vue tout en s’interrogeant sur « l’intérêt de l’animal ». Selon lui, doter les animaux de la personnalité juridique serait un signe d’anthropocentrisme, puisque cela conduit à penser l’autre par rapport à nous-même. Il estime que la création d’obligations vis-à-vis des personnes physiques, accompagnées de sanctions en cas de non-respect, serait plus à même d’assurer une meilleure protection des animaux.

En vertu de l’article 515-14 du Code civil, les animaux sont désormais « des êtres vivants doués de sensibilité ». Pour les intervenants, la lettre de l’article nous invite à considérer que les animaux ne sont plus des biens, puisque ces derniers sont seulement « soumis au régime des biens ». La summa divisio classique entre les personnes et les choses ne serait donc plus d’actualité.

La personnalité juridique, mode de protection de l’environnement ?

Alexandre Moustardier, associé au sein du cabinet ATMOS Avocats, a d’abord rappelé que la « personnalité » avait déjà été accordée à plusieurs reprises à des espaces naturels. Il a évoqué par exemple une décision de justice ayant estimé que le fleuve du Gange en Inde devait être considéré comme une entité vivante, dotée d’une personnalité juridique. Toutefois, l’intervenant a insisté sur les difficultés liées à une application pratique d’une telle personnalité. Il s’interroge ironiquement : va-t-on tenir le Gange responsable de ses inondations ?

Selon lui, la création d’une personnalité juridique nouvelle conduirait à de nombreuses problématiques, sans pour autant avoir un réel intérêt d’un point de vue environnemental. Il estime que le système actuel est de plus en plus efficace pour indemniser le « préjudice écologique ». Ainsi, la Loi Biodiversité 2016 dispose clairement que « toute personne responsable d’un préjudice écologique est tenue de le réparer ».

« Révolution des robots », quel cadre juridique pour une intelligence artificielle éthique ?

Mady Delvaux, députée au Parlement européen, est revenue sur son Rapport sur la robotique du 16 février 2017. Ce rapport conclut, entre autres, que la Directive sur les produits défectueux n’est pas suffisante pour permettre une indemnisation optimale des victimes de dommages liés aux robots, et à l’intelligence artificielle. En effet, il faudra faire face à la pluralité d’intervenants, et aux difficultés à établir un lien de causalité clair, à identifier le producteur, ou encore à définir « l’usage raisonnable » d’un robot par son utilisateur.

La députée est revenue sur l’une des propositions majeures du rapport, à savoir la création d’une personnalité juridique spécifique aux robots. Elle a souligné que contrairement à ce que certains avaient cru, il s’agissait seulement de rendre les robots responsables, et non de leur accorder une quelconque protection. S’agissant des sinistres pouvant résulter de l’utilisation de robots, Mady Delvaux a terminé son propos en insistant sur l’importance d’un régime d’assurance obligatoire et de fonds d’indemnisation spécifiques.

Alain Bensoussan (avocat fondateur du cabinet Lexing Alain Bensoussan Avocats) après avoir regretté que la France ait « loupé le virage » de la généralisation des drones civils professionnels (en raison, selon lui, de la réglementation aérienne trop complexe), est également intervenu pour défendre la création d’une personnalité juridique pour les robots. Selon lui, « tous les humains sont des personnes, mais toutes les personnes ne sont pas des humains ». Afin de le démontrer, il a notamment « discuté » avec une assistante virtuelle devant l’auditoire qui souriait largement à cette occasion !  Il a également évoqué les prouesses médicales réalisées par le programme d’intelligence artificielle Watson.

Selon l’avocat spécialisé en droit des nouvelles technologies, les robots sont une nouvelle espèce, que l’état du droit ne permet pas encore de prendre en compte. Par exemple, il a souligné que le droit d’auteur tel qu’il est actuellement conçu, ne protège pas les créations des robots. Pour lui, que l’on crée ou non une personnalité juridique propre aux robots, il est indispensable de remédier rapidement à cette situation.

Enfin, Laurent Gamet, associé au sein du cabinet Flichy Grangé Avocats, s’est intéressé aux conséquences de l’émergence des robots sur le droit du travail. Pour lui, appliquer le droit du travail aux robots, ou encore créer un « droit du robot travailleur », n’aurait pas de sens, et n’est pas nécessaire. En effet, le robot fonctionne sans contraintes horaires ni temps de pause, et n’a pas de besoins spécifiques en terme de santé et de sécurité.

Toutefois, il est nécessaire de penser dès maintenant à adapter le droit du travail afin de protéger les personnes physiques qui pourront être affectées par l’émergence des robots. En effet, cette évolution pourrait avoir des conséquences significatives sur l’emploi. Laurent Gamet a également souligné l’enjeu lié à la sécurité sociale. Il estime qu’il faudra à terme déconnecter la protection sociale du travail, et trouver de nouveaux modes de financement. Pour autant, il n’est pas favorable à l’établissement d’une « taxe-robot ».

Drone: ce que vous n’avez pas le droit de faire!

Conscient que la communication sur la réglementation des drones est fondamentale, SELENE Avocats (membre du Conseil pour les drones civils) est heureux de pouvoir vous faire profiter de quelques conseils à l’occasion d’un article paru dans Dossier Familial.

La justice « prédictive » : risque ou opportunité ? Retour sur le colloque organisé par l’Ordre des avocats au Conseil d’Etat et à la Cour de cassation

Le 12 février 2018, le cabinet Selene Avocats a eu le privilège d’assister au passionnant colloque organisé à l’occasion du bicentenaire de l’Ordre des avocats au Conseil d’Etat et à la Cour de cassation, au sujet de la justice prédictive.

A l’ère de la révolution numérique et de l’émergence croissante des legaltechs, ce colloque a été l’occasion d’une réflexion prospective sur la justice prédictive, qui laisse envisager des transformations majeures, mais ambivalentes.

Le rapport Cadiet[1], souvent évoqué durant la rencontre, définit la justice prédictive comme un « ensemble d’instruments développés grâce à l’analyse de grande masses de données de justice qui proposent, notamment à partir d’un calcul de probabilités, de prévoir autant qu’il est possible l’issue d’un litige ». Olivier Chaduteau, Managing partner de la société Day One, a précisé que la justice prédictive s’appuyait essentiellement sur trois technologies : le machine learning, le deep learning et le reinforcement learning.

Comme l’a souligné Jean-Claude Marin, Procureur Général auprès de la Cour de cassation, l’expression de « justice prédictive » est trompeuse, et il s’agit d’avantage d’un travail de prévision que de prédiction (au sens d’une action surnaturelle consistant à annoncer par avance, de prédire l’avenir). Yves Gaudemet, Membre de l’Institut et Professeur émérite de l’Université Panthéon-Assas, a ajouté que la justice, dans son essence, n’était pas et ne pouvait pas être prédictive.

 

Les opportunités offertes par la justice prédictive

La plupart des intervenants ont insisté sur les nombreuses perspectives offertes par la justice prospective.

Selon François Molinié, Avocat au Conseil d’Etat et à la Cour de cassation, elle pourrait permettre d’améliorer la prévisibilité des litiges et de combattre l’aléa judiciaire dès lors que les juges du siège bénéficieraient d’une base de décisions recensées et ciblées. A terme, la justice prédictive conduirait à une harmonisation et une cohérence renforcées des décisions de justice. De plus, les justiciables auraient la possibilité de recourir davantage et de manière plus adéquate aux modes alternatifs de résolution des litiges.

Bertrand Louvel, Premier Président de la Cour de cassation, a affirmé que dans un contexte d’inflation des recours, la justice prédictive serait également un outil de « recentrage » du travail des juges. En effet, ces derniers pourraient se décharger de tâches chronophages et répétitives, et se libérer du traitement d’une partie du contentieux de masse. Par ailleurs, la justice prédictive pourrait permettre aux avocats de faire preuve d’une plus grande rationalité dans l’élaboration des stratégies judiciaires de leurs clients.

A juste titre, Sophie Lemaire, Professeure à l’Université Paris-Dauphine, a insisté sur les avantages que pouvait apporter la justice prédictive en matière d’évaluation du quantum des dommages et intérêts. Parfois difficile à calculer, le montant des indemnités alloué est aujourd’hui très disparate en fonction des zones géographiques et des tribunaux. L’intelligence artificielle (le plus souvent basées sur des procédures algorithmiques) pourrait permettre de pallier ces difficultés et ces disparités.

Les risques et limites liés au développement de la justice prédictive : le juge pourrait perdre sa liberté d’appréciation !

Toutefois, l’utilisation croissante de la justice prédictive n’est pas sans risque.

Il existe un risque de diminution de la liberté d’appréciation du juge, ce dernier pouvant se sentir contraint de suivre les solutions proposées par l’intelligence artificielle. Ce risque prescriptif, qui est intrinsèquement lié au risque d’uniformisation et au risque performatif, met en péril l’office du juge qui, comme l’a rappelé Mattias Guyomar, Président de la dixième chambre de la Section du contentieux du Conseil d’Etat, n’est pas d’infirmer ou confirmer une solution type, majoritaire, mais bien de procéder à un arbitrage entre les intérêts des différentes parties.

Par ailleurs, l’utilisation de la justice prédictive limite les possibilités de revirement, et  fait naître un véritable risque de cristallisation de la jurisprudence. Jean-Claude Marin a ainsi affirmé que cette justice future était paradoxalement éminemment conservatrice, puisqu’elle se fonde sur des données et des décisions passées.

D’après Soraya Amrani-Mekki, Professeure à l’Université Paris-Ouest Nanterre La Défense, la justice prédictive n’est pas encore totalement opérationnelle, et les algorithmes ne sont pas infaillibles. Plusieurs intervenants, notamment Arnaud de Chaisemartin, Avocat au Conseil d’Etat et à la Cour de cassation, ont fait état des résultats décevants de l’utilisation du logiciel Predictice, à titre expérimental, au sein des Cours d’appel de Rennes et Douai.

D’autres risques doivent également être pris en compte. Mattias Guyomar a mis en garde contre le risque de « profilage » des juges en cas d’absence d’anonymisation de leur nom. Par ailleurs, les algorithmes sont loin d’être neutres, comme l’indique Jean-Marc Sauvé, Vice-Président du Conseil d’Etat. Ils ont tendance à reproduire, renforcer, et créer de nouveaux biais sociaux,  par exemple dans le calcul des risques de récidives de prévenus.

Les « conditions d’emploi » pour une utilisation optimale de la justice prédictive, qui ne doit constituer qu’une aide et ne pas se substituer au juge !

En raison de ces limites et risques, de nombreux intervenants se sont accordés sur la nécessité d’organiser, de réguler et de réglementer l’utilisation de la justice prédictive, par l’autorité judiciaire et les services publics, afin qu’elle soit utilisée à bonne escient.

Le Directeur ELS IT-Lab des Editions Lefebvre-Sarrut, Dominique Péré, a insisté sur l’importance pour les autorités judicaires de garder et contrôler les données de jurisprudence utilisées au service de la justice prédictive. Cette gestion centralisée pourrait être assurée par les juridictions suprêmes de chaque ordre juridique. Comme l’a souligné Antoine Louvaris, Professeur à l’Université Paris-Dauphine, il faudra veiller à conserver une hiérarchisation des jurisprudences en fonction des formations de jugement.

Enfin, plusieurs orateurs se sont prononcés en faveur de la mise en place d’un feedback organisé, éventuellement par le biais d’une commission de contrôle, pour faire évoluer au mieux l’utilisation de la justice prédictive.

Ainsi, le recours à la justice prédictive se révèle très prometteur pour l’évolution à venir du droit et des métiers du droit. Toutefois, Yves Gaudemet a parfaitement rappelé que la justice prédictive ne pouvait être qu’une aide à la justice, et n’avait pas vocation à se substituer aux juges ou aux auxiliaires de justice.

En définitive, il ressort de ce colloque que la justice prédictive est un phénomène inéluctable qu’il ne s’agit pas d’endiguer, mais plutôt d’accompagner, en restant très vigilant, comme l’a indiqué Renaud Salomon, Avocat Général à la Cour de cassation. LZ

[1] Rapport sur « L’open data des décisions de justice » remis à la ministre de la Justice le 9 janvier 2018 par Loïc Cadiet, professeur à l’École de droit de la Sorbonne.

Responsabilité des arbitres: une pluralité de fondements

Le recours croissant à l’arbitrage a mis en exergue certaines problématiques inhérentes à la responsabilité des arbitres. Bien que calquée sur le modèle des magistrats judiciaires, cette responsabilité demeure toutefois singulière. Tout comme pour ces derniers, la mission juridictionnelle des arbitres leur confère une certaine immunité, garde-fou de leur indépendance, dont les limites se dessinent en cas de « faute personnelle équipollente au dol ou constitutive d’une fraude, d’une faute lourde ou d’un déni de justice » qui engageraient alors leur responsabilité (Cass., 15 janvier 2014, n° 11-17196). 

Toutefois, le particularisme de la responsabilité des arbitres a été souligné par la Cour d’appel de Paris qui a condamné solidairement des arbitres à restituer 1.116.000 d’euros d’honoraires pour avoir rendu leur sentence hors délai (CA, 31 mars 2015 n° 14/05436). Il a été considéré que cela représentait une faute dans l’exécution de leur contrat d’arbitre : le lien contractuel entre les parties faisant naître leur responsabilité contractuelle.

Ainsi, les missions juridictionnelles des arbitres sont défendues, dans une certaine mesure, au moyen de leur immunité alors que leurs missions contractuelles sont soumises au droit commun.

Le récent rapport du Club des juristes (datant de juin 2017) sur la responsabilité des arbitres envisage, quant à lui, leur responsabilité pénale, rarement engagée en pratique. En effet, au risque d’une instrumentalisation de la procédure pénale à des fins de déstabilisation, les parties peuvent engager la responsabilité pénale des arbitres en cas d’escroquerie, de corruption, de violation du secret professionnel, etc. Il s’agit, pour la plupart, d’infractions intentionnelles portant atteinte au principe de garantie du procès équitable.

Ce même rapport porte une réflexion sur la manière d’appréhender la responsabilité des arbitres et soulève la question de savoir s’il ne conviendrait pas de distinguer ce qui relève de la décision juridictionnelle de la manière dont la décision a été prise. Sur ce point, Jean-Claude Magendie estime qu’au nom de la nécessité de l’indépendance des arbitres, garantie par la protection juridictionnelle qui leur est accordée, tout doute sur la nature de l’acte mettant en cause l’arbitre, le caractère juridictionnel devrait l’emporter sur la mission contractuelle.