Repairing damages caused by artificial intelligence : French law needs to evolve

Artificial intelligence is now an unavoidable topic, and is increasingly present in our daily lives. Undeniably beneficial in some respects, artificial intelligence can also cause damage.

Laurent Archambault, Lawyer at SELENE Avocats, and Lea Zimmermann, Legal trainee, student at Sciences Po Law School wrote about it in La Gazette du Palais.

 

 

Après Oslo et Londres-Gatwick, bientôt Paris ? La question du « survol sauvage » des aéroports par des drones / Rappel des règles applicables au-dessus du territoire français

Deux drones ont été aperçus en train de survoler l’aéroport londonien de Gatwick, mercredi soir. Le trafic aérien a immédiatement été interrompu pour des raisons de sécurité. Ce jeudi 20 décembre 2018 au matin, les vols étaient toujours suspendus, a indiqué la direction de l’aéroport.

Ce grave incident fait suite au « survol sauvage », par des drones, de l’aéroport d’Oslo en juin 2018, qui, lui aussi, avait conduit à l’arrêt du trafic (seulement pendant 30 minutes dans ce cas).

Cela est l’occasion de rappeler quelques règles :

  • L’utilisation en extérieur d’un drone, même de petite taille, est considérée comme une activité aérienne et relève donc de la réglementation applicable à l’Aviation Civile.
  • Si les pouvoirs publics (notamment la DGAC sous la Direction du très compétent Patrick GANDIL) souhaitent encourager le développement de la filière des drones civils, la sécurité et le bonne cohabitation des différents aéronefs dans l’espace aérien, nécessitent que toutes les précautions soient prises pour éviter les abordages et que des sanctions civiles et pénales soient prononcées en cas de violation notamment à proximité des aérodromes [en effet, un drone, même de petite taille, peut largement endommager un avion de ligne dont la vitesse, même en approche, est considérable (jusqu’à 250 kt/460 km/h environ en dessous de 3000m) au péril éventuel des passagers].
  • Le code des transports, articles L6232-4, L6232-12, L6232-13, fixe les peines d’emprisonnement et les amendes prévues dans les cas suivants:
    • violation des règles de sécurité ;
    • violation des interdictions de survol par négligence ;
    • violation volontaire des interdictions de survol;
    • refus d’obtempérer aux injonctions de l’autorité ;
    • atteinte volontaire à l’intimité de la vie privée.
  • Avant chaque vol, chaque télépilote (de drone de loisir) est invité à consulter, sur internet, la carte de France interactive pour l’utilisation des drones de loisir, y compris pour localiser les aérodromes et aéroports.

Voir : https://www.geoportail.gouv.fr/donnees/restrictions-pour-drones-de-loisir

  • Pour simplifier, un aérodrome matérialise une surface (sur terre ou sur l’eau) et des moyens utilisés par des aéronefs pour l’atterrissage, le décollage et les évolutions aux abords de l’aérodrome.

L’aéroport est un aérodrome avec en plus, des infrastructures pour gérer les passagers et le fret ainsi qu’un service de douane. C’est pourquoi les aéroports (exemple Roissy) sont très souvent de plus grande taille que les aérodromes (exemple St Cyr l’Ecole ou Lyon-Brindas).

  • En schématisant, les drones doivent évoluer bien loin des aérodromes et en dessous de 150 mètres (500 pieds), tandis que les aéronefs habités (avions, hélicoptères, ULM…) évoluent au-dessus de 150m afin que les deux catégories se croisent au minimum.
  • Cela dit, il existe de nombreuses restrictions supplémentaires telles que des zones interdites (centrales nucléaires, couloirs de vols tactiques de l’armée…), mais également des exceptions permettant aux aéronefs habités de voler sous ce plafond, pour décoller ou atterrir.
  • Les zones à proximité des aérodromes importants (comme Londres, Oslo, Orly ou Roissy) sont appelées CTR (Control Traffic Region) et la présence d’aéronefs à basse altitude sont très restrictives.En somme, il est fortement déconseillé d’utiliser un drone à proximité d’un aéroport spécialement Orly ou Roissy.
  • De façon plus précise, lorsque la piste fait plus de 1200m de long ou bien est équipée de procédures aux instruments (vols par mauvais temps récurrent à Londres, Oslo, Orly ou Roissy) la règle est la suivante la distance du drone à la droite support de l’axe de piste, ou à la droite de support du seuil de piste physique le plus proche doit être supérieur ou égal à 10 km ou bien le drone doit évoluer en vue de sorte que la distance de l’aérodrome soit au moins égale à 2,5 km et à une hauteur de vol inférieure à des valeurs définis en fonction de la distance à l’axe de piste.
  • De manière générale, toute utilisation d’un drone (professionnel en particulier) à proximité d’un aérodrome nécessite l’accord de l’organisme rendant le service de circulation aérienne sur l’aérodrome, ou, à défaut, du prestataire du service d’information de vol ou de l’exploitant de l’aérodrome. Un accord est nécessaire pour tout vol:
    • sur l’emprise de l’aérodrome ;
    • « hors vue », à l’intérieur du périmètre total de protection ;
    • « en vue », au-dessus des hauteurs minimales définies.

Cet accord peut faire l’objet d’un protocole sur demande de l’organisme concerné.

  • Procédure AIRPROX: tout événement qui a ou aurait pu compromettre la sécurité du trafic aérien doit être notifié à l’autorité.

Ainsi, lorsqu’un (télé)pilote détecte un non-respect des minima de séparation avec un autre aéronef, il notifie cet incident en utilisant la procédure AIRPROX :

  • le plus tôt possible en vol par radio ou, une fois posé, par téléphone avec le centre de contrôle aérien le plus proche;
  • dans un délai de 2 semaines en faisant parvenir un compte rendu de l’incident à l’autorité dont il relève (DGAC/BGTA/BEA).

En conclusion : le télépilote doit prendre toutes les mesures pour éviter tout risque d’abordage avec les autres aéronefs en appliquant un principe majeur des règles de l’air: « Un aéronef n’évolue pas à une distance d’un autre aéronef telle qu’il puisse en résulter un risque d’abordage. »

SELENE, Cabinet comportant des avocats et des pilotes, spécialisé notamment en matière aéronautique est  Membre du Conseil Pour Les Drones Civils (émanation de la Direction Générale de l’Aviation Civile).

Comment voyager à l’étranger avec un drone en toute sécurité?

De plus en plus de voyageurs décident d’investir dans l’achat d’un drone pour garder des souvenirs de vacances mémorables. Mais le drone est un objet juridique relativement récent ; les réglementations des pays ne sont pas uniformes à travers le monde et les conditions de transport en avion diffèrent selon les compagnies. Alors comment voyager à l’étranger avec un drone en toute sécurité ?

Laurent Archambault, Associé, et Cassandra Rotily, Doctorante, évoquent ce sujet dans Air & Cosmos.

Retour sur le salon « drones Paris Région Expo » : les drones, un secteur en phase V2 de décollage ?

Le cabinet SELENE AVOCATS a eu le plaisir d’assister fin septembre à ce salon très réussi sur l’ancienne base aérienne de Brétigny sur Orge (sud-est des approches de l’aeroport d’Orly), laquelle abrite notamment un centre de formation au pilotage de drones et le « cluster drones Paris Region ».

Comme l’expliquait très bien Jean-Philippe BONHOMME, Directeur du Cluster, la filière des drones donne les premiers signes de maturité.

Ceci étant, comme le rappelle l’excellent reportage de Benoit GILSON (Air & Cosmos), la filière doit faire face à plusieurs défis :

  • Renforcer la sécurité : rendre les drones plus sûrs afin de leur permettre de réaliser des missions jusque là interdites : vols à grande élongation, vols urbains et plus tard le transport de personnes (objectif affiché pour les J.O 2024 se tenant à Paris, avec une liaison Roissy/La Défense en 15 minutes environ) ;
  • Besoin de structuration (face à l’émiettement des acteurs et aux problèmes de communication et de formation des télépilotes)
  • Montée en compétences : en faisant entrer des spécialistes métiers dans la filière (spécialiste du financement aéronautique, maintenance, formateurs, commerciaux, analystes de données etc)
  • Gestion de l’information : le drone n’est pas forcément l’élément le plus important ; en effet, il s’agit surtout d’optimiser les capteurs pour obtenir les bonnes informations et de gérer ces dernières dans le cadre du RGPD
  • Changer la culture : les opérateurs de drones et leurs clients doivent se concentrer davantage sur les besoins que sur la méthode mais cela nécessite des changements culturels parfois profonds.

Il a été possible d’assister à plusieurs conférences de grande qualité.

Parmi celles-ci, l’une a marqué le cabinet SELENE : elle portait sur la distinction entre l’automatisation et l’autonomatisation des drones civils professionnels : enjeux stratégiques pour le développement de la filière drones professionnels (Engie, EDF, Altametris, Uavia)

Les datas ont une utilité pour la filière des drones professionnels. Au-delà de rendre les drones automatiques, le fait d’apporter une dose d’autonomie aux drones, ou les rendre en grande partie autonomes (grâce à l’intelligence artificielle), peut avoir une incidence importante dans les usages professionnels des aéronefs non habités.

Cette conférence très intéressante, qui réunissait des responsables d’Engie, d’EDF, d’Altametris (SNCF Réseau) et Uavia, avait pour objectif d’en exposer les intérêts et les impacts.

Tout d’abord, fut rappelée la distinction entre automatisation et autonomisation. L’automatisation peut se définir comme le fait de programmer un drone pour qu’il agisse toujours de la même manière face à une situation donnée. Le drone automatique n’est pas doté d’une intelligence artificielle. Son caractère automatique donne une régularité parfaite dans l’exécution de tâches répétitives qui ne demande pas une appréciation poussée. Plusieurs exemples où l’automatisation est utile ont été apportés par Anthony Victor, responsable d’Altametris, la filière drones de la SNCF. Les drones permettent ainsi de réaliser l’inspection des poteaux ferroviaires (qui est une tâche très répétitive), des caténaires et des abords des voies.

L’automatisation dans l’usage des drones apporte une fiabilité plus grande, avec le recueil de données objectives. Mais aussi une agilité décuplée, notamment car l’usage plus « automatique » de drones permet de ne pas avoir à suspendre ou modifier le cours normal des activités pour une inspection. Enfin, l’automatisation des drones permet un gain de performance et de sécurité non négligeable : les tâches répétitives sont plus rapidement réalisées par les drones automatiques et les employés ne se mettent plus en danger.

Par ailleurs, et comme l’expliquent plusieurs études menées par l’ONERA, l’enjeu dans le futur est de développer des drones de plus en plus « autonomes » ; à cet égard, les limites observées pour le développement de l’autonomisation de système de drones opérationnels sont les suivantes :

  • autonomie décisionnelle embarquée
  • intégration de   la   charge   utile   et   du   système   de conduite
  • sécurité, sûreté de fonctionnement et certification.
  • capteurs, capacités tout-temps, « voir et éviter »
  • les liaisons de données

Actuellement, un début d’autonomisation des drones est déjà mis en œuvre (présence d’une intelligence artificielle à bord). Le drone autonome est celui qui peut prendre ses décisions seul, selon Clément Christomanos (Uavia). Ainsi Uavia a développé à la fois une plateforme, permettant de connecter drones et entreprises et une intelligence artificielle qu’elle intègre aux drones pour qu’ils réalisent les tâches demandées sans l’intervention d’un télépilote.

L’objectif d’Uavia est que « l’expert métier » soit seul maitre à bord, qu’il n’y ait pas besoin de télépilote.

Néanmoins, le télépilote n’est pas à écarter totalement, notamment pour les phases de test et d’expérimentation. Un système d’exploitation est donc présent dans le drone ; celui-ci permet de s’abstraire du pilotage pour laisser simplement la mission. Un drone ne peut réaliser toutes les missions ; cette intelligence artificielle a l’avantage de permettre d’opérer n’importe quel drone de la même manière.

Les entreprises ont également l’occasion de fournir leurs propres algorithmes via un cloud prévu à cet effet.

En conclusion, pour les intervenants, les domaines de la sécurité, de l’inspection, de la surveillance en général vont connaitre une demande croissante en matière de drones autonomes.

Il ne s’agira pas de remplacer le télépilote par un  calculateur  embarqué,  mais  plutôt  de  faire  remplir  à  des  systèmes  autonomes  des  missions  que  les  humains font moins bien moins longtemps ou moins systématiquement,   et   qui   de   ce   fait   ne   sont   pas parfaitement réalisables aujourd’hui.

Les perspectives qu’offre le rapport Villani

Le 28 mars 2018, le mathématicien et député Cédric Villani (LREM) a rendu public son rapport sur l’intelligence artificielle (IA). Objectif : valoriser cette nouvelle filière et appeler les acteurs publics et privés à prendre les mesures adéquates pour saisir les opportunités qu’offre l’IA afin d’en faire un outil au service de l’intérêt général.

Notre article, publié dans l’Argus de l’assurance du 29 juin 2018, propose quelques pistes de réflexion à ce sujet.

Retrouvez l’intégralité de l’article ici: Article Argus SELENE Avocats

« Intelligence artificielle et droit : les enjeux et les opportunités » Retour sur la formation CAMPUS du 2 juillet 2018 et notamment sur la notion de « système expert »

Le cabinet SELENE Avocats a eu le plaisir d’assister à la conférence « Intelligence artificielle et droit : les enjeux et les opportunités », présentée par Melik Boudemagh, Président de l’agence Hercule[1], à l’occasion des formations CAMPUS[2].

Melik Boudemagh a d’emblée rappelé les difficultés d’appréhension de la notion d’« intelligence artificielle », liées notamment au fait que le terme « intelligence » est souvent synonyme d’intelligence humaine. Ainsi, dans l’inconscient collectif, l’IA est une réplication de l’humain sur une chose inanimée, ce qui conduirait la machine à remplacer l’humain. On parle par exemple de « robot-avocat ». Or, ce n’est pas ce qu’il faut comprendre par intelligence artificielle, et l’homme est d’ailleurs aujourd’hui incapable de reproduire artificiellement l’intelligence humaine dans son ensemble.

En réalité, l’IA consiste à simuler une partie de l’intelligence, à savoir la capacité analytique. En conséquence, le Président d’Hercule estime qu’il est plus pertinent de parler de « Système Expert », défini comme un outil capable de reproduire les mécanismes cognitifs d’un expert, dans un domaine particulier. Par exemple, Siri n’est pas une « intelligence artificielle », mais un « système expert », dont l’expertise est circonscrite à un domaine particulier, l’assistance personnelle.

Il est possible de distinguer deux générations de systèmes experts : les modèles logiques, et les modèles statistiques et apprenants.

Les modèles logiques permettent de prendre en charge la part de l’intelligence des avocats qui est « automatisable ». A l’image de Deep Blue, vainqueur au jeu d’échec en 1997, les modèles logiques fonctionnent sur le système de l’optimisation sous contrainte (raisonnement si … alors …). Selon Melik Boudemagh, ces modèles vont bientôt être présents partout, et être utilisés quotidiennement au sein de la profession d’avocat. Ils peuvent prendre en charge les « diagnostics », des « bilans de santé juridiques », servir à automatiser des procédures juridiques et judiciaires, ou encore constituer un outil d’aide à la décision. Ces modèles ont pour avantage d’être fiables et faciles à implémenter. Toutefois, ils se limitent à une représentation « théorique », parfois éloignée du réel.

Les modèles statistiques et apprenants sont plus évolués, à l’image cette fois d’Alphago, vainqueur au jeu de go en 2017. Ils sont basés sur le machine learning, et permettent d’adopter une approche empirique beaucoup plus proche du réel. Ces modèles peuvent être utilisés pour exploiter des données historiques, intégrer des modules de langage naturel, ou encore extraire des informations de documents existants. Toutefois, pour fonctionner, ces modèles nécessitent un dataset très important, ainsi que des ressources conséquentes en temps et en argent. Melik Boudemagh considère que les modèles statistiques et « apprenants » ne sont pas encore tout à fait au point actuellement, bien que prometteurs pour l’avenir.

De manière générale, l’intervenant a souligné les nombreuses opportunités offertes par les systèmes experts. Il est revenu par exemple sur la possibilité de générer automatiquement des contrats et autres documents, qui permettent selon lui un gain de temps et de productivité considérable, et assure fiabilité et cohérence. Plus sophistiquée est l’extraction intelligente de données, basée sur la reconnaissance de patterns au sein des documents.

Melik Boudemagh a également évoqué l’exploitation de données historiques et les enjeux de la justice prédictive, sur lesquels le cabinet SELENE Avocats était revenu en février dernier[3].

Toutefois, ces évolutions ne sont pas sans risque, et il faudra notamment être attentif à la gestion de la gouvernance des données et de l’information, sujet au cœur de l’actualité d l’entrée en application du Règlement Général de Protection des Données (RGPD) en mai dernier. LZ

[1] Agence spécialisée dans le Legal Tech.

[2] Session de formation continue des avocats au barreau de Paris, dont SELENE tient à saluer la qualité des enseignements

[3] https://www.selene-avocats.fr/publications-activites/2075-justice-predictive-risque-opportunite-retour-colloque-organise-lordre-avocats-conseil-detat-a-cour-de-cassation/

De l’utilité des drones au service de la sécurisation des populations et des espaces: dans quel cadre juridique?

Les pouvoirs publics ont de plus en plus recours aux drones, tant en matière de sécurité publique que de sécurité privée.

Notre article, publié dans la Gazette du Palais du 19 juin 2018, propose quelques pistes de réflexion à ce sujet.

Retrouvez l’intégralité de l’article ici: https://www.gazette-du-palais.fr/article/GPL324b3/

 

Intelligence artificielle : progrès ou menace pour l’homme ? Retour sur le dîner annuel des Jeunes Mécènes des Bernardins du 28 mai 2018

Le 28 mai 2018, le cabinet SELENE Avocats a assisté au dîner annuel des Jeunes Mécènes des Bernardins et en profite pour remercier les organisateurs (en particulier F. Bardoux et I. de Chatellus) pour cette soirée passionnante qui a été l’occasion de discuter des enjeux éthiques liés à l’intelligence artificielle (IA) avec des intervenants aux parcours et aux spécialités variés.

Les prouesses de l’IA de plus en plus impressionnantes

Le spationaute Jean-François Clervoy a expliqué que l’IA pouvait intervenir à chaque étape de fonctionnement d’un engin spatial, que ce soit pour capter l’information, pour la traiter, ou pour prendre une décision. Plus encore, durant la première minute et demi (décollage), seule la machine est en mesure de piloter parfaitement, l’homme ne disposant pas de la réactivité nécessaire.

Jean-François Clervoy a aussi retracé l’évolution de notre utilisation de la machine, soulignant la différence entre les anciens cockpits, dotés de milliers d’interrupteurs, et les cockpits envisagés pour les capsules de SpaceX d’Elon Musk, où les commandes se limitent à quatre écrans tactiles, et une quinzaine d’interrupteurs. Dans le domaine de l’exploration, l’IA permet d’accéder à des lieux où l’homme ne peut pas aller physiquement. En 2015, l’IA a permis de déposer une sonde interplanétaire à 1,4 milliard de kilomètres de la Terre !

Par ailleurs, plusieurs intervenants ont mentionné la victoire d’AlphaGo sur l’homme au jeu de go. François Régis de Guényveau, auteur de l’ouvrage Un dissident, est notamment revenu sur un coup étonnant joué par l’IA, qui fera dire à son adversaire Lee Sedol : « Je croyais qu’AlphaGo était basé sur des calculs de probabilités. Que ce n’était qu’une machine. Mais quand j’ai vu ce coup, j’ai changé d’avis. C’était évident qu’AlphaGo était créatif ».

Comment articuler intelligence humaine et intelligence artificielle ?

L’IA ne peut pas et ne doit pas remplacer l’humain. Jean-François Clervoy estime qu’il est essentiel que l’humain demeure celui qui prend la décision de recourir ou non à l’IA, par exemple en appuyant ou non sur le bouton de pilotage automatique. Pour lui, la statistique selon laquelle 95% des accidents d’avion sont dus à des erreurs humaines est trompeuse, puisqu’elle ne rend pas compte des très nombreuses fois où la situation a été sauvée grâce à l’équipage (l’être humain conservant un esprit critique et une capacité d’adaptation très importante)

L’IA peut toutefois être un outil fantastique pour aider l’homme à devenir, non pas surhumain, mais « plus humain ». Pour Mathieu Rougé, docteur en théologie, il est important de ne pas adopter une posture de rejet face à l’idée de « développement de l’homme », au cœur de l’IA et du transhumanisme.

Frédéric Mazzela, fondateur et CEO de Blablacar, s’est interrogé sur les spécificités de l’intelligence humaine, et sur les limites des robots et de l’IA. Selon lui, la réponse réside dans l’acronyme « GLASS » : game, love, art, sport, science. De quoi envisager un avenir non pas obscur, mais au contraire assez réjouissant !

Jean-François Clervoy estime, quant à lui, que la qualité majeure de l’Homme est sa curiosité. L’IA ne saurait faire preuve de curiosité spontanée, mais elle aide l’être humain à assouvir sa curiosité, à acquérir toujours plus de connaissances.

Plusieurs participants ont également évoqué la frustration pour l’Homme de se voir concurrencer par l’IA, qui serait la « quatrième blessure narcissique de l’Homme ». En effet, après avoir appris avec Copernic qu’il n’était pas au centre de l’univers, avec Darwin qu’il n’était pas si éloigné  des animaux, et avec Freud qu’il ne maitrisait pas tout son inconscient, l’Homme se rendrait aujourd’hui compte qu’il n’est pas le plus intelligent dans tous les domaines. Pourtant, François Régis de Guényveau estime que toutes ces découvertes sont, bien au contraire, la preuve du génie humain.

La nécessité de s’engager pleinement dans la révolution que représente l’IA

Comme l’ensemble des intervenants, Laurent Alexandre, chirurgien-urologue, co-fondateur de Doctissimo, président de DNA Vision et auteur de La mort de la mort et La guerre des intelligences, estime qu’il est essentiel de maîtriser et d’accompagner le développement de l’IA. Selon lui, l’intelligence est synonyme d’une seule chose : la prise et l’exercice du pouvoir.

Comme Laurent Alexandre, François Régis de Guényveau considère que la technologie n’est pas neutre, en ce qu’elle est toujours en soi une volonté de maitriser le monde, d’avoir la main mise sur le réel.

Pourtant, pour le médecin, le constat est sans appel : l’Europe est passée à côté de la révolution technologique du début du 21ème siècle. Il a par exemple critiqué le Règlement général sur la protection des données (RGPD), qu’il trouve dangereux. Selon lui, dans un contexte de « guerre de la data », ce texte donne encore davantage le dessus aux entreprises étrangères, telles que les GAFA[1] et les BATX[2], qui n’ont pas les mêmes références éthiques et ne s’imposeront pas nécessairement les mêmes contraintes réglementaires.

Toutefois, Laurent Alexandre considère que l’Europe n’est pas condamnée au « déterminisme technologique », et qu’il est indispensable de s’engager pleinement dans le secteur de cette nouvelle intelligence, afin d’être en mesure de choisir la manière dont sera utilisée l’IA dans le monde de demain. LZ

[1] Google, Apple, Facebook et Amazon.

[2] Baidu, Alibaba, Tencent et Xiaomi.

VERS DE NOUVELLES PERSONNALITES JURIDIQUES AU 21ème SIECLE ?  (robots, animaux et espaces naturels)

Retour sur le colloque organisé par la Grande Bibliothèque du Droit

Le 16 mai dernier, le cabinet SELENE Avocats a été très heureux d’assister à la table ronde de grande qualité, organisée par la Grande Bibliothèque du Droit, au sujet des nouvelles personnalités juridiques du 21ème siècle.

Comme indiqué par Didier Guével, professeur de droit privé et sciences criminelles à l’Université Paris 13, ce colloque a été l’occasion de réfléchir à l’opportunité d’allonger la liste des sous-catégories bénéficiant de la « personnalité juridique », aujourd’hui composée des personnes physiques et des personnes morales.

La personnalité juridique est traditionnellement définie comme une fiction juridique conférant des droits subjectifs et imposant des devoirs à son titulaire. L’idée de « personne » a été conceptualisée pour l’humain et par l’humain, afin de régir les rapports humains.

Toutefois, à l’heure où l’Arabie Saoudite octroie au robot humanoïde Sophia la nationalité saoudienne, et où la Cour suprême de Colombie reconnait l’Amazonie comme sujet de droit, les classifications traditionnelles tendent à exploser.

Aujourd’hui déjà, la notion de « personnalité juridique » n’est pas monolithique. Ainsi, la personnalité juridique des « humains » est variable, allant d’abord crescendo (embryon, fœtus), puis decrescendo (respect dû au cadavre). De même, la personne morale est loin de constituer une entité totalement cohérente, et n’est assimilée que partiellement à la personne physique. Elle n’a pas de vie privée, et demeure « soumise à la peine de mort ».

Durant cette table ronde, trois séries de « candidats à la personnalité » ont été successivement étudiées : les animaux, les éléments de la nature et les robots.

« Etres vivants doués de sensibilité », code de l’animal… quel niveau de protection pour les animaux ? Vers un dépassement de la summa divisio personnes/choses

Gandhi disait « on reconnaît le degré de civilisation d’un peuple à la manière dont il traite ses animaux ». Il est certain que la perception de l’animal diffère d’un Etat à un autre, d’une personne à une autre.

Marie-Bénédicte Desvallon, avocate responsable du groupe de travail d’avocats dédié à l’élaboration d’un Code français autonome des droits de l’animal et d’un statut juridique, est favorable à la remise en question du monopole de l’homme « sujet de droits ». Pour autant, elle a souligné qu’il était dangereux de réfléchir à la protection des animaux en ayant pour référence unique les caractéristiques de la personnalité humaine, et qu’il était plus pertinent de s’intéresser aux caractéristiques propres aux besoins des animaux (qui passe notamment par une protection vis-à-vis de l’homme).

Thierry Revet, professeur de droit privé et sciences criminelles à l’Université Paris 1, partage son point de vue tout en s’interrogeant sur « l’intérêt de l’animal ». Selon lui, doter les animaux de la personnalité juridique serait un signe d’anthropocentrisme, puisque cela conduit à penser l’autre par rapport à nous-même. Il estime que la création d’obligations vis-à-vis des personnes physiques, accompagnées de sanctions en cas de non-respect, serait plus à même d’assurer une meilleure protection des animaux.

En vertu de l’article 515-14 du Code civil, les animaux sont désormais « des êtres vivants doués de sensibilité ». Pour les intervenants, la lettre de l’article nous invite à considérer que les animaux ne sont plus des biens, puisque ces derniers sont seulement « soumis au régime des biens ». La summa divisio classique entre les personnes et les choses ne serait donc plus d’actualité.

La personnalité juridique, mode de protection de l’environnement ?

Alexandre Moustardier, associé au sein du cabinet ATMOS Avocats, a d’abord rappelé que la « personnalité » avait déjà été accordée à plusieurs reprises à des espaces naturels. Il a évoqué par exemple une décision de justice ayant estimé que le fleuve du Gange en Inde devait être considéré comme une entité vivante, dotée d’une personnalité juridique. Toutefois, l’intervenant a insisté sur les difficultés liées à une application pratique d’une telle personnalité. Il s’interroge ironiquement : va-t-on tenir le Gange responsable de ses inondations ?

Selon lui, la création d’une personnalité juridique nouvelle conduirait à de nombreuses problématiques, sans pour autant avoir un réel intérêt d’un point de vue environnemental. Il estime que le système actuel est de plus en plus efficace pour indemniser le « préjudice écologique ». Ainsi, la Loi Biodiversité 2016 dispose clairement que « toute personne responsable d’un préjudice écologique est tenue de le réparer ».

« Révolution des robots », quel cadre juridique pour une intelligence artificielle éthique ?

Mady Delvaux, députée au Parlement européen, est revenue sur son Rapport sur la robotique du 16 février 2017. Ce rapport conclut, entre autres, que la Directive sur les produits défectueux n’est pas suffisante pour permettre une indemnisation optimale des victimes de dommages liés aux robots, et à l’intelligence artificielle. En effet, il faudra faire face à la pluralité d’intervenants, et aux difficultés à établir un lien de causalité clair, à identifier le producteur, ou encore à définir « l’usage raisonnable » d’un robot par son utilisateur.

La députée est revenue sur l’une des propositions majeures du rapport, à savoir la création d’une personnalité juridique spécifique aux robots. Elle a souligné que contrairement à ce que certains avaient cru, il s’agissait seulement de rendre les robots responsables, et non de leur accorder une quelconque protection. S’agissant des sinistres pouvant résulter de l’utilisation de robots, Mady Delvaux a terminé son propos en insistant sur l’importance d’un régime d’assurance obligatoire et de fonds d’indemnisation spécifiques.

Alain Bensoussan (avocat fondateur du cabinet Lexing Alain Bensoussan Avocats) après avoir regretté que la France ait « loupé le virage » de la généralisation des drones civils professionnels (en raison, selon lui, de la réglementation aérienne trop complexe), est également intervenu pour défendre la création d’une personnalité juridique pour les robots. Selon lui, « tous les humains sont des personnes, mais toutes les personnes ne sont pas des humains ». Afin de le démontrer, il a notamment « discuté » avec une assistante virtuelle devant l’auditoire qui souriait largement à cette occasion !  Il a également évoqué les prouesses médicales réalisées par le programme d’intelligence artificielle Watson.

Selon l’avocat spécialisé en droit des nouvelles technologies, les robots sont une nouvelle espèce, que l’état du droit ne permet pas encore de prendre en compte. Par exemple, il a souligné que le droit d’auteur tel qu’il est actuellement conçu, ne protège pas les créations des robots. Pour lui, que l’on crée ou non une personnalité juridique propre aux robots, il est indispensable de remédier rapidement à cette situation.

Enfin, Laurent Gamet, associé au sein du cabinet Flichy Grangé Avocats, s’est intéressé aux conséquences de l’émergence des robots sur le droit du travail. Pour lui, appliquer le droit du travail aux robots, ou encore créer un « droit du robot travailleur », n’aurait pas de sens, et n’est pas nécessaire. En effet, le robot fonctionne sans contraintes horaires ni temps de pause, et n’a pas de besoins spécifiques en terme de santé et de sécurité.

Toutefois, il est nécessaire de penser dès maintenant à adapter le droit du travail afin de protéger les personnes physiques qui pourront être affectées par l’émergence des robots. En effet, cette évolution pourrait avoir des conséquences significatives sur l’emploi. Laurent Gamet a également souligné l’enjeu lié à la sécurité sociale. Il estime qu’il faudra à terme déconnecter la protection sociale du travail, et trouver de nouveaux modes de financement. Pour autant, il n’est pas favorable à l’établissement d’une « taxe-robot ».

Besoin d’information à 360 ? de la voiture autonome/sytèmes embarquant de l’I.A au droit des contrats en passant par le RGPD : lisez vite la Newsletter du mois de mai de SELENE Avocats !

 

Newsletter mai 2018_SELENE Avocats