• Envoyer
Publicité

Depuis quelques mois, il ne se passe pas une semaine sans que soit annoncée une nouvelle initiative visant à définir un référentiel éthique de l’intelligence artificielle. En France, il y a eu le rapport de la Cnil, celui du député Cédric Villani, ainsi que plusieurs rapports parlementaires, comme celui de la Commission des affaires européennes du Sénat. A l’échelle internationale, l’OCDE et l’Europe travaillent aussi sur le sujet. Les entreprises ne sont pas en reste : de grands noms du secteur, comme Google, Microsoft ou Thales, en France, ont tous récemment annoncé leur projet de charte.

push-article-salesforce.jpg

De l’éthique « amorale » à l’éthique « moralisante »

Il y a d’abord les déclarations éthiques qui énoncent des principes certes louables, mais qui semblent « oublier » les références à des systèmes de valeurs universels. Prenons, par exemple, l’approche « Smart Dubaï » (agence gouvernementale chargée de la transformation de Dubaï en « smart city »). Son premier principe est bien l’éthique : « Les systèmes d’intelligence artificielle devraient être justes, transparents, responsables et compréhensibles ». Pourtant, aucune référence n’est faite à aucune valeur universelle. Certes, l’émirat précise également que « l’IA devrait bénéficier aux êtres humains et être alignée avec les valeurs humaines » et même que « l’IA devrait bénéficier à toute la société, être gouvernée au niveau mondial et respecter la dignité et les droits des individus », mais sans préciser de quels « droits » ni de quelles « valeurs humaines » il s’agit. Bref, aucune référence n’est faite aux grands principes traditionnels que sont les droits de l’homme et autres traités internationaux structurants, auxquels adhère pourtant officiellement Dubaï. On peut alors parler d’éthique « amorale » (et non « immorale »), c’est-à-dire sans morale, sans référence à aucun système de valeur. Les concepts cités sont tellement larges qu’il est possible d’y faire entrer tout ce que l’on veut. Un référentiel générique et prêt à l’emploi, utilisable par n’importe quel pays, et ce quel que soit son régime politique.

Publicité
Publicité

Ensuite, il y a l’éthique « moralisante », celle qui veut aller encore plus loin que les grands textes universels, qui invoque des principes encore plus généreux, au risque d’être au mieux complètement creuse, au pire inapplicable. C’est le chemin qu’a emprunté le groupe d’experts mandaté par la Commission européenne dans son « projet de lignes directrices en matière d’éthique pour une IA digne de confiance », publié le 18 décembre 2018. Après avoir rappelé que l’IA se devait de respecter les droits fondamentaux, les auteurs recommandent que tout projet d’intelligence artificielle prenne en compte les cinq principes suivants : « la bienfaisance » (« faire le bien »), « la non-malfaisance » (« ne pas nuire »), « l’autonomie des êtres humains », « la justice » et « l’explicabilité ». A première vue, difficile de s’opposer à de tels principes. Mais sont-ils réellement raisonnables et pertinents ? Le groupe de travail a tout simplement repris les quatre grands principes de la bioéthique (bienfaisance, non-malfaisance, autonomie et justice) auxquels a été rajoutée « l’explicabilité ».

Publicité

Si les principes de bienfaisance et de non-malfaisance peuvent sembler relativement clair dans un contexte médical, ils apparaissent beaucoup plus flous en matière d’intelligence artificielle, dont on retrouve des applications dans une multitude de secteurs. Le groupe de travail précise ainsi que « les systèmes d’IA de doivent pas faire de mal aux êtres humains ». Cela semble déjà compliqué à appliquer ne serait-ce que dans le cadre des véhicules autonomes, alors que peut-il en être dans le secteur de la sécurité ou de la défense ? Et ce n’est pas tout : cette reprise inadaptée des principes de bioéthique passe inévitablement à côté de tous les potentiels impacts de l’IA en matière de manipulation de l’information, comme a pu l’illustrer le scandale de Cambridge Analytica.

De la vague éthique à l’éthique vague

Au-delà de ces grands projets de chartes, certains individus (parfois par des personnalités publiques de premier rang) énoncent de grands principes éthiques sans réellement comprendre ce qu’est véritablement l’IA, oubliant qu’il s’agit juste d’algorithmes qui manipulent des données, parfois bêtement, souvent laborieusement.

Publicité
Publicité

Par exemple, le fait que l’homme doit rester dans la boucle est l’une des idées les plus communément perçues comme « éthique ». Cette dernière dénote déjà un contresens, puisque l’intérêt de l’IA est bien sa capacité à être beaucoup plus performante que l’homme en matière d’analyse et de prise de décision dans des moments critiques. Lorsqu’un obstacle apparaît soudainement sur la route, une IA réagira toujours plus rapidement et probablement mieux qu’un conducteur humain – est-il besoin de rappeler que la grande majorité des crashs aériens sont dus à des erreurs humaines ? De même, avec les missiles hypervéloces ou furtifs, la détection de la menace est suivie d’une réaction dans les 5 secondes, un laps de temps bien trop rapide pour un être humain, même entraîné. En revanche, il est sans doute pertinent que l’homme garde le contrôle sur l’IA, c’est-à-dire qu’il possède, en permanence, la capacité de reprendre la main si besoin.

Un autre concept souvent évoqué est la discrimination. Pour qu’une IA soit « éthique », il faudrait qu’elle ne soit absolument pas discriminante. Le problème réside dans la définition de ce terme. Il est vrai que les constructeurs automobiles allemands recommandent effectivement toute absence de discrimination afin de résoudre au mieux le fameux dilemme du tramway (une expérience de pensée décrite pour la première fois en 1967, qui décrit une situation où une personne peut effectuer un geste qui bénéficiera à un groupe de personnes A, mais, ce faisant, nuira à une personne B, NDLR). Mais il y a de nombreuses situations où, au contraire, le rôle de l’IA est bien de choisir et donc de discriminer, qu’il s’agisse de répartir au mieux des clients dans un train ou de sélectionner quel est le meilleur candidat pour un poste. En réalité, ce qui importe est l’absence de biais inattendus dans les résultats fournis par l’IA, ou tout au moins d’identifier ces biais potentiels.

Publicité

Ainsi, les meilleures intentions du monde ne remplacent pas la connaissance « technique » d’une problématique, ni la réflexion à son sujet. Copier-coller des principes tirés d’un autre domaine scientifique sans lien avec l’IA n’aboutit qu’à une liste de principes « hors sol » et sans liens avec la réalité des applications existantes ou à venir. Il serait temps d’arrêter de chercher à énoncer les 10 commandements de l’IA, une démarche qui donne lieu à une surenchère de fausses bonnes idées. A la place, ne serait-il pas utile que chaque grand secteur d’activité s’engage à réfléchir à l’impact de l’IA sur ses propres principes éthiques ? Cette approche, certes moins grandiose, mais beaucoup plus exigeante, serait sans doute la meilleure garantie du développement d’une IA vraiment éthique.

LA RÉDACTION VOUS PROPOSE DE LIRE AUSSI :

L’intelligence artificielle dans le monde réel

L’intelligence artificielle n’est-elle qu’un mythe ?

Eduquer les intelligences artificielles

Partager
  • Envoyer