CIVIL DRONES: Regulation in France and Europe

Although the European Commission[1] considers that the new EU regulatory framework for drones “provides operators with greater operational flexibility compared to previous national regulations”, it must be noted that, on the contrary, the introduction of such a framework has made the law applicable to these operations more complex.

Summary & overview of the key dates in the regulation of civil drones in France and Europe.


Between a ‘pure’ European regulation, or one that provides for transitional measures or leaves room for manoeuvre to the Member States, and the French regulation, either permanent or transitional, or one that has been modified to take account of the change in terminology, operators are at a loss! And we can understand them. In this article, we attempt to shed some light on all the twists and turns of the standard with key dates.

Until 11 September 2018, each EU Member State could issue its own standards for drones weighing less than 150 kilograms; above this threshold, the European Union Aviation Safety Agency (EASA) was competent. But since the advent of the new basic regulation adopted in 2018 (Regulation (EU) 2018/1139 of the European Parliament and of the Council of 4 July 2018 on common rules in the field of civil aviation and establishing a European Union Aviation Safety Agency), all drones, regardless of their mass, are subject to harmonised EU safety rules.

The extension of EASA’s competences has resulted in the publication of two main EU regulations (Commission Delegated Regulation (EU) 2019/945 of 12 March 2019 on unmanned aircraft systems and third country operators of unmanned aircraft systems and Commission Implementing Regulation (EU) 2019/947 of 24 May 2019 on rules and procedures for the operation of unmanned aircraft).

The aim of introducing such regulations at European level is to harmonise the legal framework for drones in Europe in order to promote their economic development.

Previously, national drone regulations provided for three categories depending on the use of the aircraft (aeromodelling, experiments and specific activities). With the advent of the new European framework, the categorisation is now based on the level of risk of the operations, with the categories “Open” (low-risk operations, mainly for leisure but also for simple professional operations), “Specific” (moderate-risk operations for most professional operations) and “Certified” (for high-risk operations, requiring a high level of reliability of the aircraft and operations such as the transport of people with “taxi-drones“). The former national regimes ceased to exist on 31 December 2020, when the European Drone Regulation came into force.

The two Regulations mentioned above are directly applicable in the Member States and therefore superseded national regulations as soon as they came into force. However, it is important to take into consideration several points concerning the impact of the European regulation and the evolution of national regulation:

  • Aviation safety is a European competence, unlike other areas which are national competences, such as public security or airspace management;
  • The European regulation has a progressive application and includes provisions to ensure a progressive transition between national and European regulations. For this reason, certain national texts are maintained to ensure this gradual transition       ;
  • The European regulation leaves some room for manoeuvre to Member States, either on a transitional or permanent basis;
  • Some requirements of national regulations (even those that remain under national jurisdiction) were not always consistent with those of European regulations. By making the regulations consistent, it is possible to clarify and simplify their application for users.

First of all, it is necessary to specify the conditions of use of drones according to their categorisation as well as the main transitional measures associated with them.

As far as aeromodelling is concerned, it is important to underline that Regulation 2019/947 has left the possibility for Member States to define national rules applicable to these aeromodelling clubs and associations. This is the choice of France, which wanted to leave the possibility for aeromodelling clubs and associations to continue to apply pre-existing national requirements. These rules can be found in the Order of 3 December 2020 on the operation of aeromodels within aeromodelling associations in application of the implementing regulation (ED) 2019/947.

The ‘Open’ category is for low risk, visual flight operations with EC identification and class endorsement (C0, C1; C2, C3 and C4 – each class allowing certain types of use) and is made up of three sub-categories of operations: Al, A2 and AS.

This category should have been used as of 31 December 2020, however, the drones marked CE according to the terms of Regulation 2019/945 were not yet available on the market. It was therefore necessary to create a “Limited Open” category to operate during the transitional period with drones that do not comply with the above-mentioned regulation (without CE class identification) in accordance with the conditions set out in Article 22 of Regulation 2019/947.

Like the “Open” category, the “Limited Open” category provides for three sub-categories of activities similar to those of the “Open” category, although with different mass and distance-to-person thresholds.

Each Member State shall define, for each subcategory of the limited Open category, levels of training equivalent to the subcategories in the Open category. Thus, drones without a class designation may continue to be operated until 1 January 2024.

All drones placed on the market from 1 January 2024 onwards must carry a class designation in order to be used in the “Open” category.

The “Specific” category is for moderate risk operations, in sight or out of sight, with European standard scenarios (STS-01 and STS-02) and EC identification with class mention (C5 or C6).

However, in the interests of transition, EU Regulation 2019/947 has provided for the possibility for a Member State to continue to use national standard scenarios until 1 January 2026 for operators declared under national scenarios before that date. Thus, three national standard scenarios (S-1, S-2 and S-S) are maintained so that they can continue to be used in the “Specific” category during the transition period. The Order of 3 December 2020 on the definition of national standard scenarios sets out the operating conditions and national requirements associated with the above-mentioned S-1, S-2 and S-3 scenarios.

On 1 January 2026, the national scenarios S-1, S-2 and S-5 will come to an end. Any operator wishing to continue to operate under the reporting regime after 1 January 2026 will have to do so under a standard European scenario.

The European standard scenarios (STS-01 and STS-02) are not yet applicable. They will only become applicable from 1 January 2024, before which date only the national standard scenarios are applicable in France.

If the operation does not fit into the standard scenarios (whether national or European), the operator must obtain a permit to operate after carrying out a risk assessment.

With regard to the “Certified” category, there is a significant technical and safety regulatory gap that prevents certified operations from being carried out. Rules will have to be adopted on the initial airworthiness and continuing airworthiness of UAVs subject to certification, as well as on the operational requirements applicable to VTOL aircraft with crew on board. Similarly, rules will have to be adopted on the design and operation of vertiports.

The purpose of this article is to review and explain the main changes that have taken place or will take place in 2023.

The actual changes

Among the main effective changes identified, some fall under national competence, while others fall under European competence.

Effective changes under national jurisdiction

With regard to purely national measures, operators taking aerial photographs are no longer required to make a declaration (visible spectrum) or seek authorisation (outside the visible spectrum – infrared camera, thermal camera, etc.) since 1 January 2023. This is due to the publication of decree no. 2022-1397 of 2 November 2022 implementing article L.6224-1 of the code des transports relating to the regime governing the capture and processing of data collected from an aircraft in certain areas (repealing article D.133-10 of the civil aviation code).

Another major change is a purely national measure: the list of areas prohibited to aerial data collection has been modified. A new order of 2 January 2023, setting the list of zones prohibited to the capture and processing of data collected from an aircraft (ZICAD), came into force on 4 January 2023. It repeals the order of 10 June 2021 setting the list of zones prohibited for aerial photography, cinematography or any other remote detection sensor (ZIPVA).

The actual changes falling under EU competence

At European level, the ‘U-Space package‘, i.e. the establishment of an ecosystem for the management of manned and unmanned aircraft traffic, has been in force since 26 January 2023. The regulatory basis of U-Space is based on three implementing regulations; Commission Implementing Regulation (EU) 2021/664 of 22 April 2021 on a regulatory framework for U-Space, Commission Implementing Regulation (EU) 2021/665 of 22 April 2021amending Implementing Regulation (EU) 2017/373 as regards requirements for air traffic management/air navigation service providers and other air traffic management network functions in U-Space designated in controlled airspace and finally Commission Implementing Regulation (EU) 2021/666 of 22 April 2021 amending Regulation (EU) No 923/2012 as regards requirements for manned flights in U-Space.

More practically, and as DGCA clearly explains[2] , U-Space is based on 3 main elements:

  • airspace designated as U-space by the State, in which the vast majority of aircraft operating there are drones. These areas can be penetrated by manned aircraft under certain conditions. In uncontrolled airspace: the “electronic perceptibility” of the aircraft and in controlled airspace the “dynamic reconfiguration of the airspace” under the responsibility of the control service;
  • standardised digital services known as “U-space services”. Four of these services are mandatory for UAS operators within U-space. The providers of these services are called “U-space service providers” (USSP). They must have a European certificate issued by the national authority of a European State or by the European Union Aviation Safety Agency (EASA);
  • Common information services (CIS), forming a basic digital infrastructure for each U-space. They consist of the provision of data enabling the use of U-space services and consequently traffic in U-space (e.g. airspace and traffic information) for the needs of USSPs but also of air navigation service providers, UAV operators and all other relevant actors (e.g. Air Force).

A single provider in a U-space may be designated by the State to provide these CIS services. This type of provider is called a single CISP (common information service provider). It must also have a European certificate.

Further changes, not yet effective, are expected by the end of this year 2023.

The changes to come

While many of the changes for 2023 are already in place, others are still under discussion.

Changes that will occur

Manufacturers or importers of drones are required to provide in the packaging of drones or their spare parts an information notice relating to their use and regulations (Article L. 425-1 of the Consumer Code). The content of this notice, currently defined in the annex to the order of 19 April 2019 on the information notice relating to the use of aircraft flying without a person on board, will be revised shortly to take into account the European notice for drones with a class designation.

Decree No. 2019-1253 of 28 November 2019 on criminal penalties applicable in the event of failure to comply with obligations intended to reinforce the safe use of civil aircraft circulating without a person on board will be the subject of a new version shortly. This decree sets out the fines applicable in the event of failure to comply with certain obligations (registration of drones, training of remote pilots).

In addition, a decree concerning “notified bodies”, i.e. the bodies that assess and issue the CE marking with class identification for drones, will soon be published. As a reminder, it is the responsibility of manufacturers to implement the appropriate means to ensure that their aircraft comply with the requirements of the European class markings, in particular by calling on a notified body.

A decree on market surveillance will also be adopted. It is up to the authority of each Member State to carry out market surveillance on its territory. In France, the DSAC (Direction de la sécurité de l’aviation civile) is competent in this area and monitors the manufacture and maintenance of aircraft.

Concerning aeromodelling clubs and associations, for which France has defined its own rules (as European law allowed it to do): the aforementioned Order of 3 December 2020 on the operation of aeromodels within aeromodelling associations will undergo some changes. The considerations provided for in Article 16 of the above-mentioned Regulation 2019/947 concerning the issue of operating licences to approved federations and aeromodelling associations (leisure and competition) with at least one       activity location will be introduced in this new text   (request made by Cerfa, this allows the zones to be published in the aeronautical information specifying the maximum flight height).

Considerations on flights at model aircraft sites will also be added (flight in the absence of third parties not involved in the operation in the area of operation, minimum horizontal distance of 150 metres from residential, commercial and industrial areas).

Changes under discussion

In addition, several proposals have been put forward by the Directorate General for Civil Aviation (not yet validated by the ministries) concerning the revision of the “Space” decree of 3 December 2020 (relating to the use of airspace by aircraft without crew on board). Among these proposals are the end of the night flight ban (while retaining the requirement for a light signal), the obligation to fly in segregated airspace for all visual flights above 120 metres (with a possible derogation directly in the operating permit), the abolition of the maximum flight height of 50 metres for aircraft with a mass of more than 2 kg (S-2 scenario) and the possibility of operating in the “Open” category in public areas in built-up areas (for commercial/professional flights for teleporters qualified for STS-01 or S-3 scenarios).

A bill has been introduced concerning the spraying of plant health products by drone (Bill 703 to authorise the aerial spraying of plant protection products), which concerns “large” drones weighing more than 25 kg at take-off. The latter must be deployed under an operating licence from the DGAC with a risk analysis (as they are outside the scenarios provided for by the regulations).

However, the development of comprehensive drone regulation will continue well beyond 2023, as the European Commission intends to propose a comprehensive package of measures to strengthen the entire drone ecosystem by 2030.




Partner at the Paris Bar (SELENE Avocats)

Member of the Council for Civilian Drones (part of the Directorate General for Civil Aviation)

Member of the SFDAS, lecturer in air law at the Universities of Aix-Marseille and Toulouse, drone pilot and private pilot (VFR/IFR)


Cassandra ROTILY

Doctor of Law

Head of legal and new technologies departments at Air Space Drone

Member of the Council for Civilian Drones

Associate researcher at CERDACC (EA 3992)



[1] Communication “A Drone 2.0 strategy to foster a smart and sustainable unmanned aircraft ecosystem in Europe”.

[2] Ministry of Ecological Transition, “U-space: the digital management of drone air traffic”.

RETOUR SUR CINQ ANNEES DE TRAVAUX CONCERNANT LES VEHICULES AUTONOMES (Colloque relatif aux « véhicules autonomes à la recherche d’un cadre juridique » Mulhouse – 20 février 2020)

Le Centre Européen de recherche sur le Risque, le Droit des Accidents Collectifs et des Catastrophes (CERDACC), rattaché à l’université Haute-Alsace, a organisé le 20 février 2020 un passionnant colloque intitulé « les véhicules autonomes à la recherche d’un cadre juridique », en partenariat avec l’Institut de Recherche en Informatique, Mathématiques, Automatique et Signal (IRIMAS). Il convient de souligner la grande qualité de ce colloque et de remercier l’ensemble des organisateurs (particulièrement Monsieur Eric DESFOUGERES) et intervenants.


Ce séminaire de restitution des travaux accomplis depuis cinq années a mis en perspective de nombreuses problématiques concernant les projets et l’évolution des véhicules autonomes en France.


La question de la définition du « véhicule autonome » est le point d’ancrage nécessaire à tout développement.

Ainsi, les intervenants ont envisagé toutes les dimensions de transports pouvant correspondre à la catégorie de « véhicule autonome ».


Les questions relatives au degré d’autonomie, à la fiabilité technologique, aux responsabilités (le « véhicule autonome », quel que soit son degré d’autonomie, n’est pas sans faille), à la dimension éthique, et à la réaction des usagers, ont été abordées tant pour les véhicules terrestres à moteur, que pour les navires ou aéronefs.


Toute nouvelle avancée technologique suppose une réflexion sur son encadrement juridique, l’encadrement juridique étant la pierre angulaire de toute nouvelle avancée technologique.

Le passionnant colloque de Mulhouse a permis de mettre en lumière des réflexions sur la législation existante en matières pénale et civile, ainsi que la nécessité d’élaborer une nouvelle législation autonome.


Il s’agit d’élaborer un régime précis tant pour les véhicules terrestres à moteur (I), que pour les autres moyens de mobilité (II).


I. L’encadrement juridique des véhicules autonomes : le cas des véhicules terrestres à moteur


D’un point de vue juridique, certains textes réglementent précisément la responsabilité des usagers de véhicules terrestres à moteur (« VTM »). Face à l’autonomisation de certains véhicules, des révisions et adaptations sont nécessaires.


A) La législation pénale

Si le code pénal et le code de la route s’appliquent en matière de circulation des VTM, certaines spécificités juridiques sont apportées du fait de l’autonomisation des véhicules.


D’un point de vue pécuniaire, le titulaire du certificat d’immatriculation de la voiture autonome sera responsable.


Les intervenants ont souligné une problématique essentielle : qui est pénalement responsable du véhicule autonome ?


La responsabilité pénale est gouvernée par le principe de responsabilité personnelle. Elle est énoncée à l’article 121-1 du code pénal : « Nul n’est responsable pénalement que de son propre fait. ».

En outre, en droit pénal, contrairement au droit civil, la responsabilité du fait des choses n’existe pas.


Or le véhicule autonome a pour finalité d’agir à la place de l’individu.

De la même manière que pour de nombreux autres systèmes autonomes et/ou utilisant des systèmes embarqués, le lien est difficile à établir avec la personne présente dans l’habitacle.


Le législateur s’est saisi de la question par deux lois.


La première, la loi du 22 mai 2019 relative à la croissance et la transformation des entreprises, dite « loi PACTE », élargit le champ de l’expérimentation des véhicules autonomes. Il en résulte :

  • la responsabilité pénale du titulaire de l’autorisation d’expérimentation,
  • l’irresponsabilité pénale du conducteur. La loi PACTE décharge effectivement de toute responsabilité pénale le conducteur qui agit dans le cadre de la délégation de conduite.

Ces règles s’expliquent par l’expérimentation. Pour autant cela n’empêche pas d’engager la responsabilité de toute autre personne ayant concouru à la réalisation du dommage.


La seconde, la loi d’orientation des mobilités du 24 décembre 2019, dite « LOM », réforme en profondeur le cadre général des politiques de mobilités, en intégrant les enjeux environnementaux et en autorisant le gouvernement à légiférer dans un délai de 24 mois sur la question de la responsabilité pénale.


Le chantier législatif en matière de responsabilité pénale est donc en cours, auquel s’ajoute celui de la responsabilité civile.


B) La législation civile

A la suite de la célèbre affaire « Jand’heur », arrêt rendu le 13 février 1930 par la Cour de cassation, le principe général de la responsabilité du fait des choses a été reconnu.


La loi du 5 juillet 1985 a adapté le régime de la responsabilité attachée aux accidents de la circulation.


Ainsi, la question de la responsabilité civile dans un accident impliquant un véhicule terrestre à moteur n’est plus en suspens.


Par conséquent, l’interrogation fondamentale est de savoir si ce régime issu de la loi de 1985 s’applique aux véhicules autonomes.


Le 1er article de la loi de 1985 définit le domaine d’application à tout « véhicule terrestre à moteur ».

Un véhicule autonome s’avère être effectivement un véhicule terrestre à moteur. Ainsi, à l’aune de cet article, les véhicules autonomes entrent dans le champ d’application de la loi de 1985.


Par ailleurs, le projet de réforme de la responsabilité civile engagé depuis 2016 est resté silencieux sur les véhicules autonomes et l’intelligence artificielle. Néanmoins, la loi d’orientation des mobilités de 2019 précitée autorise le gouvernement à légiférer pour adapter le régime de responsabilité civile à la circulation des véhicules autonomes.


Par conséquent, il existe des projets de refonte de la responsabilité civile qui ont vocation à mieux prendre en compte les véhicules autonomes. La loi de 1985 semble tout de même pouvoir offrir des solutions aux accidents qui impliquent des véhicules autonomes, sous réserve que les conditions d’application soient remplies, c’est-à-dire l’implication du véhicule terrestre à moteur dans l’accident et l’imputabilité du dommage à l’accident.


La question de l’adaptation de la réglementation ne s’arrête pas aux seuls véhicules terrestres à moteur.


L’évolution des transports autonomes concerne également les aéronefs et les navires.


II. L’encadrement juridique d’autres véhicules autonomes

A) Les aéronefs sans personne à bord (ou « drones » civils)

Communément appelés « drones », les aéronefs sans personne à bord sont considérés comme des véhicules autonomes et soumis au code de l’aviation civile (qui est intégré en grande partie dans le code des transports).


Pour autant, le concept d’autonomie des « drones » dans la réglementation est discutable. La plupart des drones de dernière génération sont faussement appelés autonomes, alors qu’ils sont seulement automatisés.


L’arrêté du 17 décembre 2015 relatif à leur conception prévoit trois paliers d’autonomie des drones civils, mais d’autres paliers sont en discussion.


En effet, plusieurs travaux internationaux, dont ceux en cours dans le groupe JARUS (Joint Authorities for Rulemaking on Unmanned Systems), cherchent à définir les niveaux progressifs d’autonomie des opérations de drones.


Ainsi, six niveaux ont été récemment définis par le groupe JARUS pour caractériser les niveaux d’autonomie de ces opérations sur des drones :


  • Niveau 0 : pilotage manuel (aucune autonomie),
  • Niveau 1 : nécessite une assistance,
  • Niveau 2 : permet la réduction des tâches,
  • Niveau 3 : automatisation sous surveillance,
  • Niveau 4 : simple intervention si nécessaire (notamment en cas d’urgence),
  • Niveau 5 : drone autonome.


Outre l’autonomisation des drones, la question de la réglementation applicable est primordiale. Ainsi l’Agence Européenne de la Sécurité Aérienne (AESA) a proposé une nouvelle réglementation européenne. Les textes réglementaires en résultant, intitulés « Commission Delegated Regulation (EU) 2019/945 » et « Commission Implementing regulation (EU) 2019/947 », et concernant les opérations de drones en Europe seront progressivement applicables à partir du 1er juillet 2020.


L’encadrement est donc en cours pour les drones, prenant en compte les niveaux d’autonomie.


B) Les navires autonomes

Des problématiques similaires s’imposent aux navires autonomes. La particularité tient au fait que l’encadrement juridique des navires est caractérisé par sa dimension internationale avec la Convention  des Nations Unies sur le droit de la mer, dite « Convention de Montego Bay », signée par la France le 10 décembre 1982.


En matière maritime, les questions relatives à la responsabilité sont très spécifiques, notamment en ce qui concerne les cas de pollution marine, les droits et obligations des Etats côtiers, et l’obligation de porter secours à un navire en détresse.


Il semble que le droit commun reste applicable en la matière. Ainsi, en cas de pollution, le propriétaire sera responsable même s’il n’est pas l’exploitant du navire autonome.


En prenant un peu de hauteur face aux voitures autonomes, drones et navires, il convient de souligner que la doctrine met en avant un droit des robots qui aurait vocation à s’appliquer aux véhicules visés plus haut ; comme tous les autres objets manufacturés, ces robots seraient, par exemple, soumis à la responsabilité des produits défectueux (prévue aux articles 1245 et suivants du code civil).


Point plus important :  les réflexions doctrinales sont divisées entre les partisans et les opposants à une reconnaissance de personnalité juridique des robots. Or, la réponse à cette question de personnalité juridique des robots est essentielle pour déterminer l’imputabilité de la responsabilité en cas d’incident.

Ce débat passionnant a de longs jours devant lui !

L’intelligence artificielle au service de la navigation maritime?

Retour sur l’une des thématiques du passionnant colloque « Journée d’étude Air et Mer ; droit et sécurité dans les transports maritimes et aériens », organisé par l’Ecole de Droit de La Sorbonne et l’Institut de Recherche Juridique de la Sorbonne, auquel le Cabinet SELENE Avocats a eu le plaisir d’assister mardi 15 janvier 2019.

A titre liminaire, il convient de remercier le Professeur Philippe Delebecque, Directeur scientifique du colloque, ainsi que tous les intervenants pour la qualité de leurs propos et des débats enrichissants qu’ils ont suscités.

Les propos tenus par différents intervenants au sujet de l’intelligence artificielle et son impact sur la sécurité en droit maritime ont retenu toute notre attention.

A l’ère de la démocratisation de l’intelligence artificielle (IA) et de l’avènement imminent des voitures autonomes (et, plus tard, des drones?), se pose la question légitime de l’intégration de l’IA dans le secteur très spécialisé du droit maritime.

Si les navires autonomes ne sont pour l’heure absolument pas envisagés, l’IA est toutefois au service de la sécurité en mer.

I. Les navires autonomes ne semblent pas être à l’ordre du jour

Il est pour l’heure exclu d’envisager l’exploitation des navires « autonomes », c’est-à-dire dépourvus de tout équipage à bord. Cette réticence s’explique pour des raisons de sécurité diverses.

Tout d’abord, parce que l’humain reste l’un des gages de la sécurité en mer (notamment du fait de sa capacité d’adaptation rapide face aux imprévus). En effet, dans le milieu maritime, l’Homme reste l’élément principal dans la gestion des risques. C’est pourquoi la formation approfondie des navigateurs semble rester le moyen le plus efficace de prévention.

Ensuite, l’aversion pour les navires sans équipages s’explique par les conséquences financières qu’impliquent les accidents. En effet, à l’ère des immenses navires et de leurs cargaisons coûteuses, il est peu aisé d’imaginer leur acheminement sans la supervision de l’Homme.

Toutefois, le secteur maritime n’est en aucun cas réfractaire à l’intelligence artificielle à condition qu’elle soit au service des Hommes, sans pour autant les remplacer

II. L’intelligence artificielle au service de la sécurité en mer

Si le transport maritime accuse un certain retard sur l’aérien en termes d’automatisation et de systèmes embarqués, ces technologies en font tout de même partie intégrante.

L’autonomie partielle est déjà bien présente dans de nombreux navires, notamment grâce à des systèmes de localisation  par satellite.

Par ailleurs, un projet PASSION (PASSerelle Intelligente pour l’Opération et la Navigation) a démarré en juillet 2016 et devrait aboutir courant 2019. Ce dernier a pour finalité de mettre l’IA au service de la navigation en fusionnant les données collectées par voie électronique sur les navires afin de mettre en place des algorithmes visant à fournir aux navigateurs un système d’aide à la décision, particulièrement lorsque les conditions de navigation deviennent hostiles.

Ces innovations appellent toutefois à la prudence, et il convient de s’interroger sur la manière d’appréhender leurs conséquences.

III. Les risques liés à l’IA en mer

L’innovation technologique fait montre d’une telle célérité qu’elle fait émerger des risques qu’il convient d’encadrer juridiquement, afin que l’Homme reste maître de la situation.

Que ce soit Frank Wilczek, prix Nobel de physique, ou encore des hommes d’affaire comme Bill Gates et Elon Musk, tous saluent l’I.A mais également appellent à une certaine prudence !

Le droit doit être au service de l’innovation en permettant l’émergence de nouvelles activités et le maintien prospère de ces dernières.

Un équilibre doit être recherché entre les améliorations permises par les progrès techniques et les régulations nécessaires pour protéger les acteurs économiques et les citoyens.

L’émergence de nouveaux risques silencieux nécessite ainsi l’adaptation des conditions générales de ventes – dans les connaissements – afin de  prendre en compte les nouveaux risques tels que la  Cybercriminalité ou encore ceux engendrés par les innovations technologiques, et encadrer les responsabilités afférentes.

Après Oslo et Londres-Gatwick, bientôt Paris ? La question du « survol sauvage » des aéroports par des drones / Rappel des règles applicables au-dessus du territoire français

Deux drones ont été aperçus en train de survoler l’aéroport londonien de Gatwick, mercredi soir. Le trafic aérien a immédiatement été interrompu pour des raisons de sécurité. Ce jeudi 20 décembre 2018 au matin, les vols étaient toujours suspendus, a indiqué la direction de l’aéroport.

Ce grave incident fait suite au « survol sauvage », par des drones, de l’aéroport d’Oslo en juin 2018, qui, lui aussi, avait conduit à l’arrêt du trafic (seulement pendant 30 minutes dans ce cas).

Cela est l’occasion de rappeler quelques règles :

  • L’utilisation en extérieur d’un drone, même de petite taille, est considérée comme une activité aérienne et relève donc de la réglementation applicable à l’Aviation Civile.
  • Si les pouvoirs publics (notamment la DGAC sous la Direction du très compétent Patrick GANDIL) souhaitent encourager le développement de la filière des drones civils, la sécurité et le bonne cohabitation des différents aéronefs dans l’espace aérien, nécessitent que toutes les précautions soient prises pour éviter les abordages et que des sanctions civiles et pénales soient prononcées en cas de violation notamment à proximité des aérodromes [en effet, un drone, même de petite taille, peut largement endommager un avion de ligne dont la vitesse, même en approche, est considérable (jusqu’à 250 kt/460 km/h environ en dessous de 3000m) au péril éventuel des passagers].
  • Le code des transports, articles L6232-4, L6232-12, L6232-13, fixe les peines d’emprisonnement et les amendes prévues dans les cas suivants:
    • violation des règles de sécurité ;
    • violation des interdictions de survol par négligence ;
    • violation volontaire des interdictions de survol;
    • refus d’obtempérer aux injonctions de l’autorité ;
    • atteinte volontaire à l’intimité de la vie privée.
  • Avant chaque vol, chaque télépilote (de drone de loisir) est invité à consulter, sur internet, la carte de France interactive pour l’utilisation des drones de loisir, y compris pour localiser les aérodromes et aéroports.

Voir :

  • Pour simplifier, un aérodrome matérialise une surface (sur terre ou sur l’eau) et des moyens utilisés par des aéronefs pour l’atterrissage, le décollage et les évolutions aux abords de l’aérodrome.

L’aéroport est un aérodrome avec en plus, des infrastructures pour gérer les passagers et le fret ainsi qu’un service de douane. C’est pourquoi les aéroports (exemple Roissy) sont très souvent de plus grande taille que les aérodromes (exemple St Cyr l’Ecole ou Lyon-Brindas).

  • En schématisant, les drones doivent évoluer bien loin des aérodromes et en dessous de 150 mètres (500 pieds), tandis que les aéronefs habités (avions, hélicoptères, ULM…) évoluent au-dessus de 150m afin que les deux catégories se croisent au minimum.
  • Cela dit, il existe de nombreuses restrictions supplémentaires telles que des zones interdites (centrales nucléaires, couloirs de vols tactiques de l’armée…), mais également des exceptions permettant aux aéronefs habités de voler sous ce plafond, pour décoller ou atterrir.
  • Les zones à proximité des aérodromes importants (comme Londres, Oslo, Orly ou Roissy) sont appelées CTR (Control Traffic Region) et la présence d’aéronefs à basse altitude sont très restrictives.En somme, il est fortement déconseillé d’utiliser un drone à proximité d’un aéroport spécialement Orly ou Roissy.
  • De façon plus précise, lorsque la piste fait plus de 1200m de long ou bien est équipée de procédures aux instruments (vols par mauvais temps récurrent à Londres, Oslo, Orly ou Roissy) la règle est la suivante la distance du drone à la droite support de l’axe de piste, ou à la droite de support du seuil de piste physique le plus proche doit être supérieur ou égal à 10 km ou bien le drone doit évoluer en vue de sorte que la distance de l’aérodrome soit au moins égale à 2,5 km et à une hauteur de vol inférieure à des valeurs définis en fonction de la distance à l’axe de piste.
  • De manière générale, toute utilisation d’un drone (professionnel en particulier) à proximité d’un aérodrome nécessite l’accord de l’organisme rendant le service de circulation aérienne sur l’aérodrome, ou, à défaut, du prestataire du service d’information de vol ou de l’exploitant de l’aérodrome. Un accord est nécessaire pour tout vol:
    • sur l’emprise de l’aérodrome ;
    • « hors vue », à l’intérieur du périmètre total de protection ;
    • « en vue », au-dessus des hauteurs minimales définies.

Cet accord peut faire l’objet d’un protocole sur demande de l’organisme concerné.

  • Procédure AIRPROX: tout événement qui a ou aurait pu compromettre la sécurité du trafic aérien doit être notifié à l’autorité.

Ainsi, lorsqu’un (télé)pilote détecte un non-respect des minima de séparation avec un autre aéronef, il notifie cet incident en utilisant la procédure AIRPROX :

  • le plus tôt possible en vol par radio ou, une fois posé, par téléphone avec le centre de contrôle aérien le plus proche;
  • dans un délai de 2 semaines en faisant parvenir un compte rendu de l’incident à l’autorité dont il relève (DGAC/BGTA/BEA).

En conclusion : le télépilote doit prendre toutes les mesures pour éviter tout risque d’abordage avec les autres aéronefs en appliquant un principe majeur des règles de l’air: « Un aéronef n’évolue pas à une distance d’un autre aéronef telle qu’il puisse en résulter un risque d’abordage. »

SELENE, Cabinet comportant des avocats et des pilotes, spécialisé notamment en matière aéronautique est  Membre du Conseil Pour Les Drones Civils (émanation de la Direction Générale de l’Aviation Civile).

L’encadrement juridique des “passagers indisciplinés” dans les avions (Paxi)

Le 14 mai dernier, un passionnant colloque regroupant de nombreux professionnels, a été organisé par le Master 2 Droit et Management du transport aérien du Pôle Transport de la Faculté de Droit d’Aix-en-Provence. Il portait sur le phénomène des « passagers indisciplinés », sujet sensible pour les transporteurs aériens à l’époque du numérique, de l’e-réputation et du souci de « risque zéro ». SELENE Avocats publie un un article sur le sujet dans la revue Air & Cosmos.

Intelligence artificielle : progrès ou menace pour l’homme ? Retour sur le dîner annuel des Jeunes Mécènes des Bernardins du 28 mai 2018

Le 28 mai 2018, le cabinet SELENE Avocats a assisté au dîner annuel des Jeunes Mécènes des Bernardins et en profite pour remercier les organisateurs (en particulier F. Bardoux et I. de Chatellus) pour cette soirée passionnante qui a été l’occasion de discuter des enjeux éthiques liés à l’intelligence artificielle (IA) avec des intervenants aux parcours et aux spécialités variés.

Les prouesses de l’IA de plus en plus impressionnantes

Le spationaute Jean-François Clervoy a expliqué que l’IA pouvait intervenir à chaque étape de fonctionnement d’un engin spatial, que ce soit pour capter l’information, pour la traiter, ou pour prendre une décision. Plus encore, durant la première minute et demi (décollage), seule la machine est en mesure de piloter parfaitement, l’homme ne disposant pas de la réactivité nécessaire.

Jean-François Clervoy a aussi retracé l’évolution de notre utilisation de la machine, soulignant la différence entre les anciens cockpits, dotés de milliers d’interrupteurs, et les cockpits envisagés pour les capsules de SpaceX d’Elon Musk, où les commandes se limitent à quatre écrans tactiles, et une quinzaine d’interrupteurs. Dans le domaine de l’exploration, l’IA permet d’accéder à des lieux où l’homme ne peut pas aller physiquement. En 2015, l’IA a permis de déposer une sonde interplanétaire à 1,4 milliard de kilomètres de la Terre !

Par ailleurs, plusieurs intervenants ont mentionné la victoire d’AlphaGo sur l’homme au jeu de go. François Régis de Guényveau, auteur de l’ouvrage Un dissident, est notamment revenu sur un coup étonnant joué par l’IA, qui fera dire à son adversaire Lee Sedol : « Je croyais qu’AlphaGo était basé sur des calculs de probabilités. Que ce n’était qu’une machine. Mais quand j’ai vu ce coup, j’ai changé d’avis. C’était évident qu’AlphaGo était créatif ».

Comment articuler intelligence humaine et intelligence artificielle ?

L’IA ne peut pas et ne doit pas remplacer l’humain. Jean-François Clervoy estime qu’il est essentiel que l’humain demeure celui qui prend la décision de recourir ou non à l’IA, par exemple en appuyant ou non sur le bouton de pilotage automatique. Pour lui, la statistique selon laquelle 95% des accidents d’avion sont dus à des erreurs humaines est trompeuse, puisqu’elle ne rend pas compte des très nombreuses fois où la situation a été sauvée grâce à l’équipage (l’être humain conservant un esprit critique et une capacité d’adaptation très importante)

L’IA peut toutefois être un outil fantastique pour aider l’homme à devenir, non pas surhumain, mais « plus humain ». Pour Mathieu Rougé, docteur en théologie, il est important de ne pas adopter une posture de rejet face à l’idée de « développement de l’homme », au cœur de l’IA et du transhumanisme.

Frédéric Mazzela, fondateur et CEO de Blablacar, s’est interrogé sur les spécificités de l’intelligence humaine, et sur les limites des robots et de l’IA. Selon lui, la réponse réside dans l’acronyme « GLASS » : game, love, art, sport, science. De quoi envisager un avenir non pas obscur, mais au contraire assez réjouissant !

Jean-François Clervoy estime, quant à lui, que la qualité majeure de l’Homme est sa curiosité. L’IA ne saurait faire preuve de curiosité spontanée, mais elle aide l’être humain à assouvir sa curiosité, à acquérir toujours plus de connaissances.

Plusieurs participants ont également évoqué la frustration pour l’Homme de se voir concurrencer par l’IA, qui serait la « quatrième blessure narcissique de l’Homme ». En effet, après avoir appris avec Copernic qu’il n’était pas au centre de l’univers, avec Darwin qu’il n’était pas si éloigné  des animaux, et avec Freud qu’il ne maitrisait pas tout son inconscient, l’Homme se rendrait aujourd’hui compte qu’il n’est pas le plus intelligent dans tous les domaines. Pourtant, François Régis de Guényveau estime que toutes ces découvertes sont, bien au contraire, la preuve du génie humain.

La nécessité de s’engager pleinement dans la révolution que représente l’IA

Comme l’ensemble des intervenants, Laurent Alexandre, chirurgien-urologue, co-fondateur de Doctissimo, président de DNA Vision et auteur de La mort de la mort et La guerre des intelligences, estime qu’il est essentiel de maîtriser et d’accompagner le développement de l’IA. Selon lui, l’intelligence est synonyme d’une seule chose : la prise et l’exercice du pouvoir.

Comme Laurent Alexandre, François Régis de Guényveau considère que la technologie n’est pas neutre, en ce qu’elle est toujours en soi une volonté de maitriser le monde, d’avoir la main mise sur le réel.

Pourtant, pour le médecin, le constat est sans appel : l’Europe est passée à côté de la révolution technologique du début du 21ème siècle. Il a par exemple critiqué le Règlement général sur la protection des données (RGPD), qu’il trouve dangereux. Selon lui, dans un contexte de « guerre de la data », ce texte donne encore davantage le dessus aux entreprises étrangères, telles que les GAFA[1] et les BATX[2], qui n’ont pas les mêmes références éthiques et ne s’imposeront pas nécessairement les mêmes contraintes réglementaires.

Toutefois, Laurent Alexandre considère que l’Europe n’est pas condamnée au « déterminisme technologique », et qu’il est indispensable de s’engager pleinement dans le secteur de cette nouvelle intelligence, afin d’être en mesure de choisir la manière dont sera utilisée l’IA dans le monde de demain. LZ

[1] Google, Apple, Facebook et Amazon.

[2] Baidu, Alibaba, Tencent et Xiaomi.

VERS DE NOUVELLES PERSONNALITES JURIDIQUES AU 21ème SIECLE ?  (robots, animaux et espaces naturels)

Retour sur le colloque organisé par la Grande Bibliothèque du Droit

Le 16 mai dernier, le cabinet SELENE Avocats a été très heureux d’assister à la table ronde de grande qualité, organisée par la Grande Bibliothèque du Droit, au sujet des nouvelles personnalités juridiques du 21ème siècle.

Comme indiqué par Didier Guével, professeur de droit privé et sciences criminelles à l’Université Paris 13, ce colloque a été l’occasion de réfléchir à l’opportunité d’allonger la liste des sous-catégories bénéficiant de la « personnalité juridique », aujourd’hui composée des personnes physiques et des personnes morales.

La personnalité juridique est traditionnellement définie comme une fiction juridique conférant des droits subjectifs et imposant des devoirs à son titulaire. L’idée de « personne » a été conceptualisée pour l’humain et par l’humain, afin de régir les rapports humains.

Toutefois, à l’heure où l’Arabie Saoudite octroie au robot humanoïde Sophia la nationalité saoudienne, et où la Cour suprême de Colombie reconnait l’Amazonie comme sujet de droit, les classifications traditionnelles tendent à exploser.

Aujourd’hui déjà, la notion de « personnalité juridique » n’est pas monolithique. Ainsi, la personnalité juridique des « humains » est variable, allant d’abord crescendo (embryon, fœtus), puis decrescendo (respect dû au cadavre). De même, la personne morale est loin de constituer une entité totalement cohérente, et n’est assimilée que partiellement à la personne physique. Elle n’a pas de vie privée, et demeure « soumise à la peine de mort ».

Durant cette table ronde, trois séries de « candidats à la personnalité » ont été successivement étudiées : les animaux, les éléments de la nature et les robots.

« Etres vivants doués de sensibilité », code de l’animal… quel niveau de protection pour les animaux ? Vers un dépassement de la summa divisio personnes/choses

Gandhi disait « on reconnaît le degré de civilisation d’un peuple à la manière dont il traite ses animaux ». Il est certain que la perception de l’animal diffère d’un Etat à un autre, d’une personne à une autre.

Marie-Bénédicte Desvallon, avocate responsable du groupe de travail d’avocats dédié à l’élaboration d’un Code français autonome des droits de l’animal et d’un statut juridique, est favorable à la remise en question du monopole de l’homme « sujet de droits ». Pour autant, elle a souligné qu’il était dangereux de réfléchir à la protection des animaux en ayant pour référence unique les caractéristiques de la personnalité humaine, et qu’il était plus pertinent de s’intéresser aux caractéristiques propres aux besoins des animaux (qui passe notamment par une protection vis-à-vis de l’homme).

Thierry Revet, professeur de droit privé et sciences criminelles à l’Université Paris 1, partage son point de vue tout en s’interrogeant sur « l’intérêt de l’animal ». Selon lui, doter les animaux de la personnalité juridique serait un signe d’anthropocentrisme, puisque cela conduit à penser l’autre par rapport à nous-même. Il estime que la création d’obligations vis-à-vis des personnes physiques, accompagnées de sanctions en cas de non-respect, serait plus à même d’assurer une meilleure protection des animaux.

En vertu de l’article 515-14 du Code civil, les animaux sont désormais « des êtres vivants doués de sensibilité ». Pour les intervenants, la lettre de l’article nous invite à considérer que les animaux ne sont plus des biens, puisque ces derniers sont seulement « soumis au régime des biens ». La summa divisio classique entre les personnes et les choses ne serait donc plus d’actualité.

La personnalité juridique, mode de protection de l’environnement ?

Alexandre Moustardier, associé au sein du cabinet ATMOS Avocats, a d’abord rappelé que la « personnalité » avait déjà été accordée à plusieurs reprises à des espaces naturels. Il a évoqué par exemple une décision de justice ayant estimé que le fleuve du Gange en Inde devait être considéré comme une entité vivante, dotée d’une personnalité juridique. Toutefois, l’intervenant a insisté sur les difficultés liées à une application pratique d’une telle personnalité. Il s’interroge ironiquement : va-t-on tenir le Gange responsable de ses inondations ?

Selon lui, la création d’une personnalité juridique nouvelle conduirait à de nombreuses problématiques, sans pour autant avoir un réel intérêt d’un point de vue environnemental. Il estime que le système actuel est de plus en plus efficace pour indemniser le « préjudice écologique ». Ainsi, la Loi Biodiversité 2016 dispose clairement que « toute personne responsable d’un préjudice écologique est tenue de le réparer ».

« Révolution des robots », quel cadre juridique pour une intelligence artificielle éthique ?

Mady Delvaux, députée au Parlement européen, est revenue sur son Rapport sur la robotique du 16 février 2017. Ce rapport conclut, entre autres, que la Directive sur les produits défectueux n’est pas suffisante pour permettre une indemnisation optimale des victimes de dommages liés aux robots, et à l’intelligence artificielle. En effet, il faudra faire face à la pluralité d’intervenants, et aux difficultés à établir un lien de causalité clair, à identifier le producteur, ou encore à définir « l’usage raisonnable » d’un robot par son utilisateur.

La députée est revenue sur l’une des propositions majeures du rapport, à savoir la création d’une personnalité juridique spécifique aux robots. Elle a souligné que contrairement à ce que certains avaient cru, il s’agissait seulement de rendre les robots responsables, et non de leur accorder une quelconque protection. S’agissant des sinistres pouvant résulter de l’utilisation de robots, Mady Delvaux a terminé son propos en insistant sur l’importance d’un régime d’assurance obligatoire et de fonds d’indemnisation spécifiques.

Alain Bensoussan (avocat fondateur du cabinet Lexing Alain Bensoussan Avocats) après avoir regretté que la France ait « loupé le virage » de la généralisation des drones civils professionnels (en raison, selon lui, de la réglementation aérienne trop complexe), est également intervenu pour défendre la création d’une personnalité juridique pour les robots. Selon lui, « tous les humains sont des personnes, mais toutes les personnes ne sont pas des humains ». Afin de le démontrer, il a notamment « discuté » avec une assistante virtuelle devant l’auditoire qui souriait largement à cette occasion !  Il a également évoqué les prouesses médicales réalisées par le programme d’intelligence artificielle Watson.

Selon l’avocat spécialisé en droit des nouvelles technologies, les robots sont une nouvelle espèce, que l’état du droit ne permet pas encore de prendre en compte. Par exemple, il a souligné que le droit d’auteur tel qu’il est actuellement conçu, ne protège pas les créations des robots. Pour lui, que l’on crée ou non une personnalité juridique propre aux robots, il est indispensable de remédier rapidement à cette situation.

Enfin, Laurent Gamet, associé au sein du cabinet Flichy Grangé Avocats, s’est intéressé aux conséquences de l’émergence des robots sur le droit du travail. Pour lui, appliquer le droit du travail aux robots, ou encore créer un « droit du robot travailleur », n’aurait pas de sens, et n’est pas nécessaire. En effet, le robot fonctionne sans contraintes horaires ni temps de pause, et n’a pas de besoins spécifiques en terme de santé et de sécurité.

Toutefois, il est nécessaire de penser dès maintenant à adapter le droit du travail afin de protéger les personnes physiques qui pourront être affectées par l’émergence des robots. En effet, cette évolution pourrait avoir des conséquences significatives sur l’emploi. Laurent Gamet a également souligné l’enjeu lié à la sécurité sociale. Il estime qu’il faudra à terme déconnecter la protection sociale du travail, et trouver de nouveaux modes de financement. Pour autant, il n’est pas favorable à l’établissement d’une « taxe-robot ».

Besoin d’information à 360 ? de la voiture autonome/sytèmes embarquant de l’I.A au droit des contrats en passant par le RGPD : lisez vite la Newsletter du mois de mai de SELENE Avocats !


Newsletter mai 2018_SELENE Avocats

Nouvel article publié par Selene Avocats au sujet de l’intelligence artificielle

Dans le prolongement de son article dans la Gazette du Palais, Selene Avocats publie un nouvel article au sujet de l’intelligence artificielle dans “L’Usine nouvelle”.

Le cabinet revient sur la réparation des dommages causés par l’IA, et sur la nécessité d’adapter notre système actuel de responsabilité civile.

L’article est disponible ici en intégralité.

La réparation des dommages causés par l’intelligence artificielle : le droit français doit évoluer

Nous sommes définitivement entrés dans l’ère de la multiplication des « systèmes embarqués », des drones, des objets connectés et des voitures autonomes qui intègrent de plus en plus d’intelligence artificielle.

Comme le souligne le Professeur Laurent Alexandre « quasiment aucune activité humaine ne résistera à l’intelligence artificielle », et de nombreuses start-up s’y intéressent. L’I.A. est perçue comme une « technologie disruptive », à l’origine de la création d’un marché.

Le droit français est appelé à évoluer, notamment pour permettre l’adoption de mécanismes de réparation plus adaptés face à la difficulté d’identifier le ou les responsables de dysfonctionnements éventuels de l’I.A, à l’intérieur de la chaîne des intervenants, parfois très nombreux (concepteur, fabricant, sous-traitant, co-traitant etc.).

Notre article, publié dans la Gazette du Palais du 6 mars 2018, propose quelques pistes de réflexion à ce sujet.

A lire en intégralité ici :