Les entreprises face au risque cyber : une construction assurantielle nécessaire mais incomplète

Depuis les années 90, un nouveau risque apparaît pour les entreprises : les cyberattaques. Ces dernières se sont faites de plus en plus fréquentes ces dernières années. Ainsi, selon une étude du Cesin (Club des experts de la sécurité de l’information et du numérique), une entreprise française subissait en moyenne 29 attaques par an en 2016. Aujourd’hui, le coût d’un incident cyber varie entre 200 000 et 1,3 million d’euros pour les PME dans le monde. Et pourtant, même face à ces chiffres, peu d’entreprises sont réellement assurées en France et dans le monde contre ce type de risques qui, selon le baromètre 2019 des risques émergents, établi par la Fédération Française de l’Assurance, sont considérés comme le risque majeur pour les sociétés d’assurance et de réassurance.

 

Jusqu’à présent, les entreprises se sont majoritairement assurées contre les risques cyber en se reposant sur les polices d’assurances traditionnelles. Dans ce cas, on parle alors de couverture silencieuse du risque cyber. Cela signifie que le risque cyber n’est pas expressément mentionné, mais qu’il est implicitement inclus.

Le principal problème face à cette « silent cover » est que les entreprises sont dès lors subordonnées à leurs assurances qui peuvent leur exposer des clauses d’exclusion à tout moment. C’est notamment ce qui est arrivé à l’entreprise de confiserie américaine Mondelēz. Cette dernière, suite à l’attaque de ses serveurs par le virus NotPetya, avait tenté de faire jouer son assurance. Néanmoins, après que le ministre des affaires étrangères britannique ait attribué l’attaque au Kremlin, la compagnie d’assurance de Mondelēz leur a finalement opposé une clause d’exclusion concernant les actes hostiles ou liés à des guerres.

Un second problème se matérialise à travers le fait que les polices d’assurance traditionnelles ne couvrent pas la totalité des coûts engendrés par les cyberattaques. A titre d’exemple, les assurances « dommages aux biens » protègeront les pertes matérielles mais pas les pertes de données ainsi que les conséquences de ces pertes sur l’exploitation.

Pour beaucoup, et notamment selon l’éminent professeur Michel Séjan et son article « Les cyberassurances, un contrat encore méconnu dans les entreprises », la souscription des entreprises à des cyberassurances apparaît alors comme la solution. Cependant, les cyberassurances sont encore largement méconnues que ce soit dans le milieu entrepreneurial ou dans le milieu assurantiel. Ces cyberassurances présentent plusieurs avantages. Elles seraient plus à même de protéger les fonds propres des entreprises ainsi que de leur fournir un accompagnement complet dans la gestion de ce nouveau risque que ce soit avant ou après sa concrétisation. La souscription à une cyberassurance permettrait donc de palier les défauts de la protection offerte par les polices d’assurances traditionnelles contre le risque cyber.

 

Toutefois, même si les cyberassurances se profilent comme la solution miracle pour les entreprises se trouvant confrontées au risque cyber, elles sont loin d’être suffisantes et abouties.

Tout d’abord, les cyberassurances ne sont que secondaires et la souscription à de telles assurances n’affranchit pas les entreprises de la mise en place ou de l’amélioration de leur système de protection face aux cyberattaques. Elles ne viennent qu’en plus de la protection et ne doivent pas s’y substituer.

Mais le problème majeur concernant les cyberassurances reste celui de la fluctuation importante des primes de ces assurances. Cette fluctuation s’explique par un manque de données historiques servant de base à l’établissement des prix ainsi que par la volonté des compagnies d’assurances de se protéger elles-mêmes face à l’occurrence de tels risques. En effet, la particularité du risque cyber est que lorsqu’il se concrétise, il peut toucher un nombre important d’entreprises ce qui contraindra les compagnies d’assurances à débloquer des sommes très importantes dans un temps très restreint.

De ce fait, de nombreuses entreprises remettent en cause l’intérêt économique à souscrire à de telles assurances.

 

Référence :

« Les cyberassurances, un contrat encore méconnu dans les entreprises », Michel Séjan (professeur agrégé en droit privé et science criminelle de l’Université de Bretagne Sud, Vannes), Gazette du Palais, 5 mai 2020, 140e année, n°17.

Lien vers la décision de justice américaine sur le cas Mondelēz :

https://www.databreachninja.com/wp-content/uploads/sites/63/2019/01/MONDELEZ-INTERNATIONAL-INC-Plaintiff-v-ZURICH-AMERICAN-INSURANCE-COMPANY-Defenda.pdf

Les perspectives qu’offre le rapport Villani

Le 28 mars 2018, le mathématicien et député Cédric Villani (LREM) a rendu public son rapport sur l’intelligence artificielle (IA). Objectif : valoriser cette nouvelle filière et appeler les acteurs publics et privés à prendre les mesures adéquates pour saisir les opportunités qu’offre l’IA afin d’en faire un outil au service de l’intérêt général.

Notre article, publié dans l’Argus de l’assurance du 29 juin 2018, propose quelques pistes de réflexion à ce sujet.

Retrouvez l’intégralité de l’article ici: Article Argus SELENE Avocats

De l’utilité des drones au service de la sécurisation des populations et des espaces: dans quel cadre juridique?

Les pouvoirs publics ont de plus en plus recours aux drones, tant en matière de sécurité publique que de sécurité privée.

Notre article, publié dans la Gazette du Palais du 19 juin 2018, propose quelques pistes de réflexion à ce sujet.

Retrouvez l’intégralité de l’article ici: https://www.gazette-du-palais.fr/article/GPL324b3/

 

Intelligence artificielle : progrès ou menace pour l’homme ? Retour sur le dîner annuel des Jeunes Mécènes des Bernardins du 28 mai 2018

Le 28 mai 2018, le cabinet SELENE Avocats a assisté au dîner annuel des Jeunes Mécènes des Bernardins et en profite pour remercier les organisateurs (en particulier F. Bardoux et I. de Chatellus) pour cette soirée passionnante qui a été l’occasion de discuter des enjeux éthiques liés à l’intelligence artificielle (IA) avec des intervenants aux parcours et aux spécialités variés.

Les prouesses de l’IA de plus en plus impressionnantes

Le spationaute Jean-François Clervoy a expliqué que l’IA pouvait intervenir à chaque étape de fonctionnement d’un engin spatial, que ce soit pour capter l’information, pour la traiter, ou pour prendre une décision. Plus encore, durant la première minute et demi (décollage), seule la machine est en mesure de piloter parfaitement, l’homme ne disposant pas de la réactivité nécessaire.

Jean-François Clervoy a aussi retracé l’évolution de notre utilisation de la machine, soulignant la différence entre les anciens cockpits, dotés de milliers d’interrupteurs, et les cockpits envisagés pour les capsules de SpaceX d’Elon Musk, où les commandes se limitent à quatre écrans tactiles, et une quinzaine d’interrupteurs. Dans le domaine de l’exploration, l’IA permet d’accéder à des lieux où l’homme ne peut pas aller physiquement. En 2015, l’IA a permis de déposer une sonde interplanétaire à 1,4 milliard de kilomètres de la Terre !

Par ailleurs, plusieurs intervenants ont mentionné la victoire d’AlphaGo sur l’homme au jeu de go. François Régis de Guényveau, auteur de l’ouvrage Un dissident, est notamment revenu sur un coup étonnant joué par l’IA, qui fera dire à son adversaire Lee Sedol : « Je croyais qu’AlphaGo était basé sur des calculs de probabilités. Que ce n’était qu’une machine. Mais quand j’ai vu ce coup, j’ai changé d’avis. C’était évident qu’AlphaGo était créatif ».

Comment articuler intelligence humaine et intelligence artificielle ?

L’IA ne peut pas et ne doit pas remplacer l’humain. Jean-François Clervoy estime qu’il est essentiel que l’humain demeure celui qui prend la décision de recourir ou non à l’IA, par exemple en appuyant ou non sur le bouton de pilotage automatique. Pour lui, la statistique selon laquelle 95% des accidents d’avion sont dus à des erreurs humaines est trompeuse, puisqu’elle ne rend pas compte des très nombreuses fois où la situation a été sauvée grâce à l’équipage (l’être humain conservant un esprit critique et une capacité d’adaptation très importante)

L’IA peut toutefois être un outil fantastique pour aider l’homme à devenir, non pas surhumain, mais « plus humain ». Pour Mathieu Rougé, docteur en théologie, il est important de ne pas adopter une posture de rejet face à l’idée de « développement de l’homme », au cœur de l’IA et du transhumanisme.

Frédéric Mazzela, fondateur et CEO de Blablacar, s’est interrogé sur les spécificités de l’intelligence humaine, et sur les limites des robots et de l’IA. Selon lui, la réponse réside dans l’acronyme « GLASS » : game, love, art, sport, science. De quoi envisager un avenir non pas obscur, mais au contraire assez réjouissant !

Jean-François Clervoy estime, quant à lui, que la qualité majeure de l’Homme est sa curiosité. L’IA ne saurait faire preuve de curiosité spontanée, mais elle aide l’être humain à assouvir sa curiosité, à acquérir toujours plus de connaissances.

Plusieurs participants ont également évoqué la frustration pour l’Homme de se voir concurrencer par l’IA, qui serait la « quatrième blessure narcissique de l’Homme ». En effet, après avoir appris avec Copernic qu’il n’était pas au centre de l’univers, avec Darwin qu’il n’était pas si éloigné  des animaux, et avec Freud qu’il ne maitrisait pas tout son inconscient, l’Homme se rendrait aujourd’hui compte qu’il n’est pas le plus intelligent dans tous les domaines. Pourtant, François Régis de Guényveau estime que toutes ces découvertes sont, bien au contraire, la preuve du génie humain.

La nécessité de s’engager pleinement dans la révolution que représente l’IA

Comme l’ensemble des intervenants, Laurent Alexandre, chirurgien-urologue, co-fondateur de Doctissimo, président de DNA Vision et auteur de La mort de la mort et La guerre des intelligences, estime qu’il est essentiel de maîtriser et d’accompagner le développement de l’IA. Selon lui, l’intelligence est synonyme d’une seule chose : la prise et l’exercice du pouvoir.

Comme Laurent Alexandre, François Régis de Guényveau considère que la technologie n’est pas neutre, en ce qu’elle est toujours en soi une volonté de maitriser le monde, d’avoir la main mise sur le réel.

Pourtant, pour le médecin, le constat est sans appel : l’Europe est passée à côté de la révolution technologique du début du 21ème siècle. Il a par exemple critiqué le Règlement général sur la protection des données (RGPD), qu’il trouve dangereux. Selon lui, dans un contexte de « guerre de la data », ce texte donne encore davantage le dessus aux entreprises étrangères, telles que les GAFA[1] et les BATX[2], qui n’ont pas les mêmes références éthiques et ne s’imposeront pas nécessairement les mêmes contraintes réglementaires.

Toutefois, Laurent Alexandre considère que l’Europe n’est pas condamnée au « déterminisme technologique », et qu’il est indispensable de s’engager pleinement dans le secteur de cette nouvelle intelligence, afin d’être en mesure de choisir la manière dont sera utilisée l’IA dans le monde de demain. LZ

[1] Google, Apple, Facebook et Amazon.

[2] Baidu, Alibaba, Tencent et Xiaomi.

VERS DE NOUVELLES PERSONNALITES JURIDIQUES AU 21ème SIECLE ?  (robots, animaux et espaces naturels)

Retour sur le colloque organisé par la Grande Bibliothèque du Droit

Le 16 mai dernier, le cabinet SELENE Avocats a été très heureux d’assister à la table ronde de grande qualité, organisée par la Grande Bibliothèque du Droit, au sujet des nouvelles personnalités juridiques du 21ème siècle.

Comme indiqué par Didier Guével, professeur de droit privé et sciences criminelles à l’Université Paris 13, ce colloque a été l’occasion de réfléchir à l’opportunité d’allonger la liste des sous-catégories bénéficiant de la « personnalité juridique », aujourd’hui composée des personnes physiques et des personnes morales.

La personnalité juridique est traditionnellement définie comme une fiction juridique conférant des droits subjectifs et imposant des devoirs à son titulaire. L’idée de « personne » a été conceptualisée pour l’humain et par l’humain, afin de régir les rapports humains.

Toutefois, à l’heure où l’Arabie Saoudite octroie au robot humanoïde Sophia la nationalité saoudienne, et où la Cour suprême de Colombie reconnait l’Amazonie comme sujet de droit, les classifications traditionnelles tendent à exploser.

Aujourd’hui déjà, la notion de « personnalité juridique » n’est pas monolithique. Ainsi, la personnalité juridique des « humains » est variable, allant d’abord crescendo (embryon, fœtus), puis decrescendo (respect dû au cadavre). De même, la personne morale est loin de constituer une entité totalement cohérente, et n’est assimilée que partiellement à la personne physique. Elle n’a pas de vie privée, et demeure « soumise à la peine de mort ».

Durant cette table ronde, trois séries de « candidats à la personnalité » ont été successivement étudiées : les animaux, les éléments de la nature et les robots.

« Etres vivants doués de sensibilité », code de l’animal… quel niveau de protection pour les animaux ? Vers un dépassement de la summa divisio personnes/choses

Gandhi disait « on reconnaît le degré de civilisation d’un peuple à la manière dont il traite ses animaux ». Il est certain que la perception de l’animal diffère d’un Etat à un autre, d’une personne à une autre.

Marie-Bénédicte Desvallon, avocate responsable du groupe de travail d’avocats dédié à l’élaboration d’un Code français autonome des droits de l’animal et d’un statut juridique, est favorable à la remise en question du monopole de l’homme « sujet de droits ». Pour autant, elle a souligné qu’il était dangereux de réfléchir à la protection des animaux en ayant pour référence unique les caractéristiques de la personnalité humaine, et qu’il était plus pertinent de s’intéresser aux caractéristiques propres aux besoins des animaux (qui passe notamment par une protection vis-à-vis de l’homme).

Thierry Revet, professeur de droit privé et sciences criminelles à l’Université Paris 1, partage son point de vue tout en s’interrogeant sur « l’intérêt de l’animal ». Selon lui, doter les animaux de la personnalité juridique serait un signe d’anthropocentrisme, puisque cela conduit à penser l’autre par rapport à nous-même. Il estime que la création d’obligations vis-à-vis des personnes physiques, accompagnées de sanctions en cas de non-respect, serait plus à même d’assurer une meilleure protection des animaux.

En vertu de l’article 515-14 du Code civil, les animaux sont désormais « des êtres vivants doués de sensibilité ». Pour les intervenants, la lettre de l’article nous invite à considérer que les animaux ne sont plus des biens, puisque ces derniers sont seulement « soumis au régime des biens ». La summa divisio classique entre les personnes et les choses ne serait donc plus d’actualité.

La personnalité juridique, mode de protection de l’environnement ?

Alexandre Moustardier, associé au sein du cabinet ATMOS Avocats, a d’abord rappelé que la « personnalité » avait déjà été accordée à plusieurs reprises à des espaces naturels. Il a évoqué par exemple une décision de justice ayant estimé que le fleuve du Gange en Inde devait être considéré comme une entité vivante, dotée d’une personnalité juridique. Toutefois, l’intervenant a insisté sur les difficultés liées à une application pratique d’une telle personnalité. Il s’interroge ironiquement : va-t-on tenir le Gange responsable de ses inondations ?

Selon lui, la création d’une personnalité juridique nouvelle conduirait à de nombreuses problématiques, sans pour autant avoir un réel intérêt d’un point de vue environnemental. Il estime que le système actuel est de plus en plus efficace pour indemniser le « préjudice écologique ». Ainsi, la Loi Biodiversité 2016 dispose clairement que « toute personne responsable d’un préjudice écologique est tenue de le réparer ».

« Révolution des robots », quel cadre juridique pour une intelligence artificielle éthique ?

Mady Delvaux, députée au Parlement européen, est revenue sur son Rapport sur la robotique du 16 février 2017. Ce rapport conclut, entre autres, que la Directive sur les produits défectueux n’est pas suffisante pour permettre une indemnisation optimale des victimes de dommages liés aux robots, et à l’intelligence artificielle. En effet, il faudra faire face à la pluralité d’intervenants, et aux difficultés à établir un lien de causalité clair, à identifier le producteur, ou encore à définir « l’usage raisonnable » d’un robot par son utilisateur.

La députée est revenue sur l’une des propositions majeures du rapport, à savoir la création d’une personnalité juridique spécifique aux robots. Elle a souligné que contrairement à ce que certains avaient cru, il s’agissait seulement de rendre les robots responsables, et non de leur accorder une quelconque protection. S’agissant des sinistres pouvant résulter de l’utilisation de robots, Mady Delvaux a terminé son propos en insistant sur l’importance d’un régime d’assurance obligatoire et de fonds d’indemnisation spécifiques.

Alain Bensoussan (avocat fondateur du cabinet Lexing Alain Bensoussan Avocats) après avoir regretté que la France ait « loupé le virage » de la généralisation des drones civils professionnels (en raison, selon lui, de la réglementation aérienne trop complexe), est également intervenu pour défendre la création d’une personnalité juridique pour les robots. Selon lui, « tous les humains sont des personnes, mais toutes les personnes ne sont pas des humains ». Afin de le démontrer, il a notamment « discuté » avec une assistante virtuelle devant l’auditoire qui souriait largement à cette occasion !  Il a également évoqué les prouesses médicales réalisées par le programme d’intelligence artificielle Watson.

Selon l’avocat spécialisé en droit des nouvelles technologies, les robots sont une nouvelle espèce, que l’état du droit ne permet pas encore de prendre en compte. Par exemple, il a souligné que le droit d’auteur tel qu’il est actuellement conçu, ne protège pas les créations des robots. Pour lui, que l’on crée ou non une personnalité juridique propre aux robots, il est indispensable de remédier rapidement à cette situation.

Enfin, Laurent Gamet, associé au sein du cabinet Flichy Grangé Avocats, s’est intéressé aux conséquences de l’émergence des robots sur le droit du travail. Pour lui, appliquer le droit du travail aux robots, ou encore créer un « droit du robot travailleur », n’aurait pas de sens, et n’est pas nécessaire. En effet, le robot fonctionne sans contraintes horaires ni temps de pause, et n’a pas de besoins spécifiques en terme de santé et de sécurité.

Toutefois, il est nécessaire de penser dès maintenant à adapter le droit du travail afin de protéger les personnes physiques qui pourront être affectées par l’émergence des robots. En effet, cette évolution pourrait avoir des conséquences significatives sur l’emploi. Laurent Gamet a également souligné l’enjeu lié à la sécurité sociale. Il estime qu’il faudra à terme déconnecter la protection sociale du travail, et trouver de nouveaux modes de financement. Pour autant, il n’est pas favorable à l’établissement d’une « taxe-robot ».

Besoin d’information à 360 ? de la voiture autonome/sytèmes embarquant de l’I.A au droit des contrats en passant par le RGPD : lisez vite la Newsletter du mois de mai de SELENE Avocats !

 

Newsletter mai 2018_SELENE Avocats

L’impression 3D/4D ou comment marier innovation, impératifs de sécurité industrielle et protection juridique ?

AIR COSMOS_impressions 3 4D_avril 2018_SELENE Avocats

Drone: ce que vous n’avez pas le droit de faire!

Conscient que la communication sur la réglementation des drones est fondamentale, SELENE Avocats (membre du Conseil pour les drones civils) est heureux de pouvoir vous faire profiter de quelques conseils à l’occasion d’un article paru dans Dossier Familial.

L’intelligence artificielle ne doit pas supplanter l’homme, elle doit le servir !

Chargée par la loi pour une République numérique de mener une réflexion sur les questions éthiques et de société posées par les nouvelles technologies, la CNIL s’est intéressée au thème des algorithmes à l’heure de l’intelligence artificielle. Dans un rapport publié en décembre 2018, elle dresse un état des lieux de l’ensemble des enjeux éthiques soulevés, en s’appuyant notamment sur les résultats d’un débat public qu’elle a animé de janvier à octobre 2017.

Les champs d’exploration des algorithmes ne cessent de croître (médias, vie publique et politique, éducation, santé, culture, justice etc.). Des tâches, de la plus simple à la plus critique, sont ainsi déléguées à des systèmes de plus en plus autonomes à mesure que les techniques d’apprentissage propres à l’intelligence artificielle se développent. Ces usages multiples et croissants, indissociables des masses de données à disposition dans tous les secteurs, soulèvent de nombreuses questions : quelles réponses éthiques au développement des algorithmes et de l’intelligence artificielle ?

  1. Les problématiques soulevées par les algorithmes et l’intelligence artificielle

Le débat public organisé par la CNIL a permis de faire remonter six problématiques essentielles, sur lesquelles s’est basé le rapport.

  • Le développement croissant des algorithmes et de l’intelligence artificielle n’ouvre-t-il pas la voie à une confiance excessive de l’homme dans la machine et, in fine, à une déresponsabilisation de ce dernier ?
  • Comment faire face à ces nouvelles formes de dilution de la responsabilité ?
  • Comment appréhender les problèmes de discrimination et d’exclusion que posent les algorithmes et l’intelligence artificielle ?
  • Dans quelle mesure la segmentation et le profilage, qui découlent de la fragmentation algorithmique, affectent-ils les logiques collectives essentielles à nos sociétés (pluralisme démocratique et culturel notamment) ?
  • Comment concilier la quantité de données nécessaires à l’apprentissage de l’intelligence artificielle avec l’impératif de protéger les libertés individuelles de chacun ? Il y a là un réel équilibre à réinventer selon la CNIL.
  • Comment parvenir à une « alimentation » raisonnée de l’intelligence artificielle, c’est-à-dire avec des données pertinentes et suffisantes au regard de l’objectif poursuivi, malgré la tendance à une confiance excessive dans la machine ?

 

  1. L’affirmation de deux principes fondateurs pour une IA au service de l’homme : loyauté et vigilance

Deux principes fondateurs ont été dégagés au cours des débats, pour répondre à l’objectif d’une intelligence artificielle au service de l’homme.

Le premier est le principe de loyauté, selon lequel l’intérêt des utilisateurs doit primer. En d’autres termes, tout algorithme, qu’il traite ou non des données personnelles, doit être loyal envers ses utilisateurs, non pas seulement en tant que consommateurs, mais également en tant que citoyens, voire envers de grands intérêts collectifs dont l’existence pourrait être directement affectée.

Le second, le principe de vigilance, conduit à organiser un questionnement régulier, méthodique et délibératif à l’égard de ces objets mouvants. Pour ce faire, l’ensemble des maillons de la chaine algorithmique (concepteurs, entreprises, citoyens) doivent être mobilisés et, des procédures concrètes mises en place (ex : comité d’éthique pour dialogue entre les différentes parties prenantes).

Selon la CNIL, « ces principes pourraient s’inscrire dans une nouvelle génération de garanties et de droits fondamentaux à l’ère numérique ».

 

  1. Les six recommandations opérationnelles

La CNIL décline ces principes de loyauté et de vigilance en six principes organisationnels ayant trait à l’intelligibilité, à la responsabilité et à la nature de l’intervention humaine dans les systèmes algorithmiques.

Elle insiste, entre autres, sur la nécessité de former à l’éthique tous les acteurs-maillons de la chaîne algorithmique. Chaque humain doit comprendre les ressorts de la machine. Par ailleurs, elle recommande de rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs. Elle encourage également un renforcement de la fonction éthique au sein des entreprises.

Ainsi, par ce rapport, la CNIL souhaite participer à l’élaboration d’un modèle français de gouvernance éthique de l’IA, qui garantisse que l’IA augmente l’homme, plutôt qu’elle ne le supplante.

Le philosophe Armen Khatchatourov souligne toutefois les limites que présente l’intégration de réflexions éthiques au sein des algorithmes. Il indique que ce processus mène nécessairement à des dilemmes, ce qui rend impossible l’identification de règles universelles.

Réflexions en marge du Colloque « L’héroïsme à l’ère de l’intelligence artificielle » organisé par l’armée de l’air à l’Ecole militaire le 18 décembre 2017.

« Si nous croyons que la machine abîme l’homme c’est que, peut-être, nous manquons un peu de recul pour juger les effets de transformations aussi rapides que celles que nous avons subies. » (Saint-Exupéry)

 

Les avancées technologiques depuis vingt ans ont été vertigineuses. Une machine peut à présent écrire ses propres algorithmes et modéliser ses comportements futurs. Dans le domaine aéronautique, cela se traduit, entres autres, par la possibilité de réaliser une maintenance prédictive : c’est-à-dire d’identifier, avant le posé de l’avion, les pièces à changer afin d’éviter une panne. Dans le domaine militaire, à travers l’automatisation des drones opérant en essaim.

 

Cette multiplication des applications usant de l’intelligence artificielle est source de multiples questions éthiques, démocratiques, philosophiques, voire sociologiques. En plein cœur de l’actualité, la voiture autonome : lorsque cette dernière ne pourra plus éviter une collision mortelle, elle devra décider de l’impact, et donc de la personne à sacrifier. On comprend donc que la programmation de cette décision sera basée sur des règles. Seront-elles imposées par le gouvernement aux concepteurs ? Ou, chaque concepteur aura un programme dont il fera la promotion auprès de sa clientèle ?  Les questions n’en finissent pas.

 

Cédric Villani, mathématicien de renom et Député de la cinquième circonscription de l’Essonne, intervenu lors du colloque organisé par l’armée de l’air intitulé « L’héroïsme à l’ère de l’intelligence artificielle », s’est interrogé sur trois points : comment peut-on analyser l’intelligence artificielle ? Quels sont les points clés pour avoir et maitriser cette intelligence artificielle ? Quels sont les axes clés pour l’aborder ?

 

Comment peut-on analyser l’intelligence artificielle ? Il n’existe, selon lui, aucune définition générale. Il s’agirait de « toute technologie donnant un résultat très perfectionné et dont on pourrait croire que cela relève de l’humain ». L’intelligence artificielle serait un amoncellement continu de techniques basées sur la compréhension, l’exemple de bons comportements etc. Ainsi de conclure qu’il n’existe aujourd’hui aucuns grands principes et, pourtant, une efficacité qui croit de jour en jour.

 

Quels sont les points clés pour avoir et maîtriser l’IA ? Aux dires de Cédric Villani, quatre composantes ont été identifiées :

  • D’une part, il faut de l’intelligence humaine. Le combat de la France est donc de réussir à retenir les meilleurs experts, étudiants.
  • D’autre part, il faut un stock de données classées. En effet, grâce à ces données, des statistiques peuvent être élaborées et des lignes des apprentissages programmées.
  • De plus, il faut des méthodes de calcul. Or, aujourd’hui Cédric Villani dresse le constat que l’Europe est en retard comparé aux USA ou à la Chine.
  • Enfin, il faut de l’argent pour financer tout cela.

 

Quels axes clés pour l’aborder ? Monsieur Cédric Villani a énuméré de nombreux axes qu’on se propose ici de relayer et, lorsque cela est nécessaire, commenter :

  • Stratégie et talent humain. En d’autres termes, il est nécessaire de disposer d’experts restant au contact de l’ensemble des idées soulevées dans le monde.
  • Une certaine souplesse dans la façon de travailler. En effet, c’est une matière qui évolue souvent et, rapidement.
  • Le besoin de règles sur les questions de droit et de responsabilité humaine. L’idée est de ne pas tout déléguer à la machine. La responsabilité humaine doit persister.
  • Travailler sur l’explicabilité. C’est-à-dire réussir à expliquer pourquoi et comment l’algorithme d’une machine est arrivé à certaines conclusions et pas à d’autres.
  • Penser l’homme avec la machine et la machine avec l’homme. Quelle est la place respective de chacun ? Cela suppose de s’interroger sur le protocole de communication qui sera mis en place entre l’homme et la machine. Car en effet, sans bon protocole, il n’y a pas de bons développements.

 

Tout ceci prouve que l’on réfléchit à la complémentarité entre l’homme et la machine. Pour autant, une crainte persiste : celle que l’homme puisse être à terme dépassé par la machine. Prenons l’exemple du drone militaire et de la distanciation au combat : une vidéo envoyée par le drone et jugée par un opérateur. Décision de la machine ? Décision humaine ? A ce stade, ce qu’il faut retenir, c’est que l’humain reste au centre du dispositif. L’homme ne disparaît pas, il se positionne différemment. Ainsi, ce qu’il faut penser aujourd’hui, c’est la place de l’homme dans ces nouvelles chaînes intégrant l’intelligence artificielle. L’intelligence artificielle n’est pas une fin en soi mais un moyen.

 

Amusante, une question a été soulevée lors de ce colloque : le héros de demain ne serait-il pas celui capable de déjouer les pronostics de la machine ? Qu’en pensez-vous ?

 

Bonnes fêtes de fin d’année à tous et bonnes réflexions ! JM