L’intelligence artificielle ne doit pas supplanter l’homme, elle doit le servir !

Chargée par la loi pour une République numérique de mener une réflexion sur les questions éthiques et de société posées par les nouvelles technologies, la CNIL s’est intéressée au thème des algorithmes à l’heure de l’intelligence artificielle. Dans un rapport publié en décembre 2018, elle dresse un état des lieux de l’ensemble des enjeux éthiques soulevés, en s’appuyant notamment sur les résultats d’un débat public qu’elle a animé de janvier à octobre 2017.

Les champs d’exploration des algorithmes ne cessent de croître (médias, vie publique et politique, éducation, santé, culture, justice etc.). Des tâches, de la plus simple à la plus critique, sont ainsi déléguées à des systèmes de plus en plus autonomes à mesure que les techniques d’apprentissage propres à l’intelligence artificielle se développent. Ces usages multiples et croissants, indissociables des masses de données à disposition dans tous les secteurs, soulèvent de nombreuses questions : quelles réponses éthiques au développement des algorithmes et de l’intelligence artificielle ?

  1. Les problématiques soulevées par les algorithmes et l’intelligence artificielle

Le débat public organisé par la CNIL a permis de faire remonter six problématiques essentielles, sur lesquelles s’est basé le rapport.

  • Le développement croissant des algorithmes et de l’intelligence artificielle n’ouvre-t-il pas la voie à une confiance excessive de l’homme dans la machine et, in fine, à une déresponsabilisation de ce dernier ?
  • Comment faire face à ces nouvelles formes de dilution de la responsabilité ?
  • Comment appréhender les problèmes de discrimination et d’exclusion que posent les algorithmes et l’intelligence artificielle ?
  • Dans quelle mesure la segmentation et le profilage, qui découlent de la fragmentation algorithmique, affectent-ils les logiques collectives essentielles à nos sociétés (pluralisme démocratique et culturel notamment) ?
  • Comment concilier la quantité de données nécessaires à l’apprentissage de l’intelligence artificielle avec l’impératif de protéger les libertés individuelles de chacun ? Il y a là un réel équilibre à réinventer selon la CNIL.
  • Comment parvenir à une « alimentation » raisonnée de l’intelligence artificielle, c’est-à-dire avec des données pertinentes et suffisantes au regard de l’objectif poursuivi, malgré la tendance à une confiance excessive dans la machine ?

 

  1. L’affirmation de deux principes fondateurs pour une IA au service de l’homme : loyauté et vigilance

Deux principes fondateurs ont été dégagés au cours des débats, pour répondre à l’objectif d’une intelligence artificielle au service de l’homme.

Le premier est le principe de loyauté, selon lequel l’intérêt des utilisateurs doit primer. En d’autres termes, tout algorithme, qu’il traite ou non des données personnelles, doit être loyal envers ses utilisateurs, non pas seulement en tant que consommateurs, mais également en tant que citoyens, voire envers de grands intérêts collectifs dont l’existence pourrait être directement affectée.

Le second, le principe de vigilance, conduit à organiser un questionnement régulier, méthodique et délibératif à l’égard de ces objets mouvants. Pour ce faire, l’ensemble des maillons de la chaine algorithmique (concepteurs, entreprises, citoyens) doivent être mobilisés et, des procédures concrètes mises en place (ex : comité d’éthique pour dialogue entre les différentes parties prenantes).

Selon la CNIL, « ces principes pourraient s’inscrire dans une nouvelle génération de garanties et de droits fondamentaux à l’ère numérique ».

 

  1. Les six recommandations opérationnelles

La CNIL décline ces principes de loyauté et de vigilance en six principes organisationnels ayant trait à l’intelligibilité, à la responsabilité et à la nature de l’intervention humaine dans les systèmes algorithmiques.

Elle insiste, entre autres, sur la nécessité de former à l’éthique tous les acteurs-maillons de la chaîne algorithmique. Chaque humain doit comprendre les ressorts de la machine. Par ailleurs, elle recommande de rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs. Elle encourage également un renforcement de la fonction éthique au sein des entreprises.

Ainsi, par ce rapport, la CNIL souhaite participer à l’élaboration d’un modèle français de gouvernance éthique de l’IA, qui garantisse que l’IA augmente l’homme, plutôt qu’elle ne le supplante.

Le philosophe Armen Khatchatourov souligne toutefois les limites que présente l’intégration de réflexions éthiques au sein des algorithmes. Il indique que ce processus mène nécessairement à des dilemmes, ce qui rend impossible l’identification de règles universelles.