Qu’est-ce que l’éthique des algorithmes?

Martin Gibert
11 min readAug 4, 2020

--

La Quatrième Blessure: un blogue sur l’éthique de l’intelligence artificielle.

Une introduction à l’éthique des algorithmes : tel est le sous-titre de Faire la morale aux robots, un petit livre que je viens de publier chez Atelier 10. Ce n’est pas une expression très courante. Je voudrais toutefois défendre son usage en montrant sa cohérence conceptuelle et son utilité pour la réflexion.

Je dirais pour commencer que l’éthique des algorithmes désigne l’ensemble des questions morales qui se posent lors de la programmation d’un algorithme. Un exemple paradigmatique serait la programmation des voitures autonomes en cas d’accident inévitable. Comment devraient-elles réagir face à un dilemme de type triage (choisir de protéger x ou y)? Comment arbitrer les risques qu’elles font courir aux uns et aux autres? Mais les robots de transport sont ici l’arbre qui cache la forêt. La plupart des algorithmes sont susceptibles de réglages, de paramètres, d’options par défaut qui ont une importance morale.

Robot, machine, algorithme.

Les philosophes aiment beaucoup les catégories, les définitions; bref, les concepts. Un des chantiers en éthique appliquée consiste justement à produire des catégories utiles, pertinentes pour comprendre la réalité — et éventuellement la transformer. La notion d’éthique des algorithmes pourrait nous aider, même si elle doit certainement être encore rabotée, passée à la varlope de l’analyse conceptuelle. J’enfile mes habits de menuisier.

J’ai caractérisé l’éthique des algorithmes par son domaine d’application : c’est l’ensemble des questions morales qui se posent lors de la programmation. L’éthique des algorithmes, c’est l’éthique des programmeuses, si je puis dire. On peut situer ce domaine comme un sous-ensemble des questions en éthique de l’IA, à savoir la réflexion sur qui bon, juste ou vertueux avec un système d’IA. Quant à l’éthique de l’IA, elle est à son tour un sous-domaine de l’éthique de la technologieplus précisément des technologies de l’information.

Dans mon livre, l’éthique des algorithmes est très proche de ce qu’on appelle l’éthique des robots ou l’éthique des machines. On pourrait dire que les fameuses lois imaginées par Asimov en 1942 concernent l’éthique des robots : comment devraient-ils se comporter? L’éthique des machines, de son côté, correspondant aux préoccupations de Wallash et Allen dans Moral Machines. Dans ce livre paru en 2008, ils posent les jalons pour cette question inédite en philosophie : comment développer une moralité computationnelle?

L’éthique des algorithmes se distingue de celle des robots parce qu’elle est plus englobante : un algorithme n’a pas nécessairement besoin d’un corps robotique ou d’une incarnation concrète pour soulever des questions morales. Une application de recherche (Google), de recommandation (Spotify) ou de traduction (DeepL) peut tout à fait être évaluée moralement. Avec la cryptographie ou la recherche opérationnelle, il arrive même que l’algorithmique sorte des sentiers battus de l’informatique. Mais c’est toujours la même question qui prévaut : comment agir dans le programme, dans l’algorithme, pour se conformer à certains standards moraux?

Je dirais que l’éthique des algorithmes ne se distingue de l’éthique des machines qu’en termes de connotations. Elle rompt avec la connotation unificatrice qui vient avec l’image de la machine : les machines nous semblent spontanément une, comme un individu, un agent ou un patient moral. Or, il se pourrait bien qu’il soit ontologiquement plus approprié de parler au pluriel et de s’émanciper d’une conception unifiée, “personnalisante” ou individualisante des IA/machines. Peut-être faudrait-il voir les IA comme des essaims ou des entités tellement spécialisés qu’elles demeurent cognitivement radicalement opaques. Quoi qu’il en soit, parler d’une éthique des algorithmes permet cette interprétation pluraliste ou “deleuzienne” des IA.

Mais la raison principale de privilégier cet usage, c’est de mettre les doigts de l’esprit sur le cœur du problème : la programmation. Du point de vue de la philosophie morale, les robots ou les machines ne sont que des enveloppes pour des algorithmes. À cet égard, on pourrait dire que l’éthique des algorithmes force les philosophes à se plier aux exigences de transparence et de précision du « paramétrage éthique » (ou éthiquement pertinent) d’un système d’intelligence artificielle. Faire de l’éthique des algorithmes, c’est donc se concentrer sur un domaine particulier, mais c’est aussi faire de l’éthique à une échelle très spéciale, inhabituelle. C’est faire de l’éthique à l’échelle algorithmique.

Coder la morale

Comment se manifeste ce changement d’échelle? Qu’est-ce qui distingue l’éthique des algorithmes de l’éthique de l’IA qui l’englobe? Commençons par quelques exemples.

· Faut-il déployer des voitures autonomes? Éthique de l’IA.

· Comment programmer une voiture autonome en cas d’accident inévitable? Éthique des algorithmes.

· Faut-il bannir les robots sexuels? Éthique de l’IA.

· Ces robots devraient-ils offrir l’option de simuler une résistance? Éthique des algorithmes.

· À quelles conditions un robot devrait-il avoir des droits? Éthique de l’IA.

· Une application de rencontres devrait-elle automatiser ou réduire certaines discriminations? Éthique des algorithmes.

On le voit, l’éthique des algorithmes suppose davantage de granularité. Si l’éthique de l’IA soutient que les systèmes d’IA ne devraient pas engendrer de discriminations injustes, l’éthique des algorithmes s’interroge sur la traduction de ces principes généraux en code informatique. Car il s’agit effectivement de coder la morale. Or, à l’échelle des algorithmes, certains problèmes moraux apparaissent sous un nouveau jour. Ce domaine spécifique exerce une contrainte forte sur la réflexion éthique à son endroit: les algorithmes exigent qu’on prenne des décisions terriblement précises et impitoyablement claires.

Par exemple, si une programmeuse doit minimiser les impacts négatifs d’un algorithme de prédiction ou de triage, elle peut chercher à réduire les faux positifs, les faux négatifs ou un savant équilibre entre les deux. Que faire? De même, elle devra peut-être choisir : minimiser les inégalités entre les individus ou celles entre les groupes. Dans cette seconde hypothèse, quels groupes sont moralement pertinents? Et parmi tous les modèles de justice disponibles, lequel appliquer ? La Technology Review a publié une belle illustration du problème à partir du cas COMPAS, ce système de prédiction de la criminalité critiqué pour traiter injustement les noirs. C’est clair, net, précis et passablement compliqué.

Bien sûr, l’éthique des algorithmes n’est pas le domaine réservé des programmeuses. Ce sont simplement elles qui sont actuellement au front. Un jour, peut-être, l’arbitrage entre faux positifs et faux négatifs pour une application de triage fera l’objet de débats publics passionnés. Il n’en demeure pas moins que l’éthique des algorithmes développe une perspective descendante ou « micro », là où l’éthique de l’IA favorise une perspective ascendante, plus « macro », qui tire du côté de l’éthique de la technique.

Il ne serait d’ailleurs pas surprenant que les philosophes analytiques aient des affinités avec les exigences de transparence et de précision de l’éthique des algorithmes, quand les philosophes continentaux se sentiront plus à l’aise avec les grands récits de l’éthique de l’IA. Espérons qu’ils se rendent parfois visite, car les deux approches semblent nécessaires. Quand l’éthique des algorithmes plonge dans les rouages des machines pour trouver le meilleur paramétrage, l’éthique de l’IA s’intéresse plus généralement à l’humain, à son histoire, à son environnement, à ses relations — et à ce que l’IA change à tout ça (je renvoie à mon entrée d’encyclopédie).

La voix des robots

On devine que la frontière n’est pas étanche entre ces deux domaines. S’il est impossible d’avoir une programmation « morale » satisfaisante pour un robot (en éthique des algorithmes) c’est une bonne raison de ne pas le fabriquer (en éthique de l’IA). Inversement, une application qui semblerait absolument nécessaire pourrait contraindre fortement les prises de décisions en éthique des algorithmes — en donnant à une app anti-pandémie, par exemple, la priorité à l’efficacité sur le respect de la vie privée.

La frontière n’est pas très nette non plus. En fait, l’éthique de l’IA et celle des algorithmes forment moins deux territoires séparés que deux pôles, reliés par un continuum, avec son lot de cas paradigmatiques et de cas atypiques. Prenons l’exemple de la voix des assistants personnels. Faut-il qu’elle soit par défaut masculine, féminine ou neutre? Doit-elle paraître jeune, mûre ou à l’âge indiscernable? Doit-elle imiter une voix humaine ou posséder un accent métallique — “robotique” — facile à distinguer?

Toutes ces questions concernent le design de l’assistant personnel, la façon dont il va interagir avec des interlocuteurs humains. Elles sont relativement précises — quel timbre de voix choisir? Mais elles dépendent dans une large mesure de considérations très générales, à savoir : avec quel type de robots voulons-nous vivre? Autrement dit, une décision qui pourrait sembler circonscrite au design vocal d’un robot conversationnel suppose une réflexion globale, à l’échelle de l’éthique de l’IA.

Ce n’est pas parce que ce sont les programmeuses qui connaissent le mieux les algorithmes que l’éthique des algorithmes est leur domaine réservé. Au contraire, elles pourraient bien souvent être tentées de refiler le fardeau du choix aux utilisateurs. Ne s’agit-il d’assistant personnel? Le problème sortirait alors de l’éthique des algorithmes pour rejoindre quelque chose comme l’éthique des utilisateurs ou des consommateurs.

Mais les programmeuses ne peuvent pas s’en sortir à si bon compte. Elles doivent généralement déterminer une option par défaut. Or, il est bien connu qu’une grande partie des utilisateurs ne changent pas les paramétrages initiaux. Il convient alors de se demander si les voix féminines de Siri ou de Google Home ne viennent pas renforcer le stéréotype service = féminin. De même, qu’est-ce que cela va produire dans le cerveau des gens d’associer une entité non biologique à un genre/sexe? Ce n’est pas forcément une bonne idée d’en rajouter et de reconduire la dichotomie masculin/féminin sur des artefacts inanimés.

Faut-il automatiser certaines normes?

Les assistants personnels, les IA et autres robots ne débarquent pas dans un monde moralement vierge et pur. Il est saturé d’enjeux éthiques, tout comme il est criblé d’injustices. Diverses hiérarchies sociales, divers stéréotypes, divers biais implicites sont déjà là. Une partie importante du travail en éthique des algorithmes, c’est de les identifier et de se demander s’il est légitime de les automatiser.

Il semble difficile pour les programmeuses de se soustraire à cette responsabilité. D’ailleurs, tout comme l’option par défaut, le choix du « menu » constitue un arbitrage moralement chargé. En France, les assistants vocaux ont l’accent français et au Québec, l’accent québécois (les premiers disent « un gang et une vidéo » tandis que les seconds préfèrent « une gang et un vidéo»). Mais qu’est-ce que cet accent français? Ce n’est pas celui de Toulouse, de Marseille ou de Saint-Étienne. C’est celui de la capitale par opposition à la province. Ce n’est pas non plus un accent populaire : c’est celui de la télé.

Mais qui nous dit que ce ne serait pas une bonne chose qu’en France, Alexa vous réponde avec l’accent québécois ou qu’au Québec, Siri ait l’accent haïtien? Qui sait si cela ne faciliterait pas la vie des immigrés québécois en France et haïtiens au Québec? Même un tout petit peu. On pourrait au moins donner le choix aux utilisateurs; on pourrait aussi tirer au sort parmi des dizaines d’options d’accents. Voilà ce que j’appelle un enjeu de menu. Il faut faire des choix dans la programmation et il ne va pas de soi que les systèmes d’IA devraient reconduire les normes et les catégories en place.

Éducation morale artificielle

Outre son domaine spécifique et sa dimension très explicite et précise, l’éthique des algorithmes se caractérise par son rapport à l’autonomie. Car dans bien des cas, il ne s’agit pas de programmer une simple réaction à un signal — comme la fumée déclenche le système d’alarme. Il s’agit de doter le système d’une capacité de décision en intégrant diverses informations : l’IA de jeu de go s’adapte à son adversaire, elle peut réagir à des coups « surprenants ». Comment faire pour des comportements plus complexes et moralement pertinents? Comment programmer une entité (en partie) autonome?

En gros, cela implique qu’on ne peut pas simplement implémenter une règle de conduite. Il faut aussi des métarègles pour l’encadrer. Encore une fois, les voitures autonomes illustrent bien la chose. Elles doivent évidemment être programmées pour s’arrêter aux feux rouges. Mais le système peut être plus « intelligent » que ça, ou du moins plus sécuritaire et plus rassurant pour les usagers : il serait bon que la voiture grille un feu si cela permet d’éviter un accident. C’est là que la notion d’autonomie surgit, car programmer moralement la voiture autonome, c’est lui donner la capacité de décider par elle-même. Dans une certaine mesure, c’est lui déléguer la prise de décision.

Cela peut évidemment soulever des questions : si un robot est programmé, en quoi est-il autonome? (Et cela vaut peut-être aussi pour des entités biologiques comme les humains.) Mais un robot de transport n’a pas besoin d’être libre au sens philosophique du terme pour « juger » s’il doit respecter ou pas un feu de circulation. Il a besoin de métarègles et d’une capacité à prédire ce qui va arriver (le camion ne va pas s’arrêter!). Il a besoin d’une intelligence artificielle.

Je voudrais suggérer pour finir que programmer une entité autonome revient plus ou moins à l’éduquer. On apprend ainsi aux voitures à bien se comporter, qu’il s’agisse de prendre les virages en douceur sur un sol gelé ou d’éviter de tuer un animal qui traverse la route. L’étape suivante serait de lui apprendre à résoudre des dilemmes tragiques (sauver l’enfant ou le vieillard). En fait, l’éthique des algorithmes constitue souvent une sorte d’éducation morale artificielle.

Éduquer une voiture autonome ou un enfant, ce n’est évidemment pas pareil. Mais lorsqu’on considère la chose à un certain niveau d’abstraction, ce n’est pas si différent non plus. Il s’agit de préparer la voiture et l’enfant à se débrouiller tout seul, sur la route et dans la vie. Or, la grande route de la vie est semée d’embûches et d’événements inattendus. Si bien, comme disait Montaigne, qu’il vaut mieux une tête bien faite qu’une tête bien pleine.

Cela vaut aussi pour le domaine moral. On ne peut pas préparer un enfant à toutes les situations justes et injustes qu’il va rencontrer. Il n’y a pas une liste d’interdits et de réquisits moraux à apprendre par cœur. Mais on peut proposer à l’enfant des principes généraux (top-down) et des exemples à généraliser (bottom-up). On peut aussi l’aider à développer des dispositions comme la pensée critique ou le sens de la justice. De même, c’est vraisemblablement ce qu’il faut viser pour certains robots. Il se pourrait d’ailleurs que plus un robot sera autonome, plus le programmer moralement s’apparentera à faire l’éducation morale d’un enfant.

Le parallèle a bien sûr ses limites. L’enfant est sujet à la faiblesse de la volonté (acrasie), pas le robot. On peut downloader une nouvelle programmation morale en quelques secondes dans un système d’IA, quand l’éducation morale d’un enfant prend des années (ne s’arrête-t-elle jamais?). Surtout, on contrôle parfaitement les algorithmes puisqu’ils ne font que ce qu’on leur dit de faire. Ce n’est pas le cas des enfants.

Il est difficile de ne pas faire le rapprochement avec la notion d’apprentissage automatique (machine learning). C’est la technique d’IA qui permet d’accomplir une tâche, non pas en suivant des règles préétablies (systèmes experts), mais en induisant des règles — souvent incompréhensibles pour nous — à partir d’exemples (apprentissage supervisé) ou d’essais-erreurs (apprentissage par renforcement). Dans le livre, je suggère quelques pistes pour mettre l’apprentissage automatique au service de l’éthique des algorithmes. Je montre aussi les liens avec les enjeux soulevés par Nick Bostrom à propos des superintelligences. Le « problème du contrôle » (d’une superintelligence), n’est pas sans rappeler celui d’une enfant surdouée qui va s’émanciper de ses parents. Comment l’éduquer? Comment l’orienter vers le bien plutôt que vers le mal?

Voilà, en définitive, tout un chantier pour l’éthique des algorithmes : à quoi pourrait ressembler l’apprentissage automatique de la morale?

Martin Gibert est chercheur en éthique de l’IA à l’Université de Montréal (rattaché à l’IVADO et au CRÉ). Page web personnelle.

--

--

Martin Gibert

Chercheur en éthique de l’intelligence artificielle (Université de Montréal)