Enseigner l’éthique de l’IA

Retour sur un MOOC

La Quatrième Blessure: un blogue sur l’éthique de l’intelligence artificielle.

Il y a quelques mois, l’Université de Montréal m’a demandé de monter un cours en ligne sur l’éthique de l’IA. Il s’agissait de faire un MOOC, c’est-à-dire un cours qui serait disponible gratuitement sur une plateforme dédiée — en l’occurrence EDUlib. Concrètement, cela signifiait des vidéos à écrire et réaliser, des lectures à choisir et des exercices à imaginer. Surtout, il me fallait répondre à cette question préalable: de quoi parler dans une introduction à l’éthique de l’IA?

Première difficulté: pas possible de s’appuyer sur une tradition. Moi-même, je n’avais encore jamais offert un tel cours, et les ressources, en particulier en français, étaient rares (ce référentiel de compétence pour former à l’éthique de l’IA n’était pas encore disponible). Mais cela avait aussi son avantage: j’allais pouvoir procéder très librement et m’arranger pour recycler du matériel pédagogique. Ainsi, pour les premières séances, je ne me suis pas privé de piocher dans mes vieux cours. Sachant que je m’adressais à un large public, je devais de toute façon présenter quelques éléments de base en éthique appliquée, en éthique normative et en métaéthique.

Pourquoi parler de métaéthique? J’ai souvent noté une tendance chez les ingénieur.es (qui sont peut-être en cela juste représentatif des non-philosophes…): tout se passe comme s’ils se considéraient comme des relativistes moraux sans trop voir ce que cela implique. Il me semble donc pertinent d’expliquer rapidement le clivage relativisme/réalisme moral et d’admettre minimalement que certains arguments moraux sont meilleurs que d’autres. Sinon, à quoi bon examiner les raisons morales de déployer ou de programmer des systèmes d’IA?

Je me suis aussi demandé de quoi un.e étudiant.e devrait entendre parler pour comprendre l’éthique de l’IA. En un sens, c’est une question abyssale. Quelle est l’information pertinente à transmettre? Qu’est-ce que je devrais prioriser dans la vingtaine d’heures de cours (incluant les lectures et les exercices) qui m’étaient imparties? Moi qui m’intéresse aux algorithmes de recommandations ces jours-ci, je me retrouvais en position de décider ce sur quoi les étudiant.es allaient focaliser leur attention. J’avais un accès direct à leur temps de cerveau disponible.

La question du plan.

L’éthique de l’IA est loin d’être un champ majeur et unifié et il y aurait sans doute mille manières d’appréhender cette nouvelle discipline. Le truc le plus significatif qui m’est apparu, ce sont des différences d’échelles entre les diverses questions morales que posent les systèmes d’IA. (À un moment donné, j’avais aussi envisagé: 1. IA comme patient moral, 2. IA comme agent moral, 3. l’impact de l’IA, mais cela sonnait un peu trop philo, et j’avais beaucoup plus de choses à dire sur 3. que sur 1. et 2.).

J’ai opté pour une métaphore vaguement spatiale et décidé de présenter les choses “du plus grand au plus petit”, bref de commencer par situer l’éthique de l’IA comme un sous-ensemble de l’éthique de la technique (dans la partie introductive qui comporte aussi des séances sur l’éthique au sens large). Dans une seconde partie (“Éthique de l’IA”), j’aborde différents enjeux assez généraux: les systèmes d’IA et la santé, le remplacement, l’environnement, la surveillance, la manipulation, la démocratie, la discrimination et le droit des robots.

Dans la troisième et dernière partie du cours (“Éthique des algorithmes”), je passe à une échelle plus micro pour présenter des exemples spécifiques de systèmes d’IA en considérant les questions éthiques qui se posent au niveau de la programmation. J’évoque ainsi la question des superintelligences, mais surtout les IA “étroites” des voitures autonomes, des agents conversationnels (incluant les deadbots), les systèmes de recommandations de YouTube, de Grindr ou de OKCupid. La dernière séance — qui est sans doute ma préférée — explore le fameux cas COMPAS, du nom de cet algorithme de police prédictive accusé d’être biaisé contre les noirs (spoiler: c’est plus compliqué que ça).

J’ai choisi de faire des capsules vidéos d’une vingtaine de minutes, divisées en sections plus ou moins autonomes. Par exemple, dans la capsule (disponible sur YouTube) intitulée IA et environnement, je présente les crises environnementales en général, puis l’impact de l’IA et du numérique sur l’environnement avant de demander si l’IA peut faire quelque chose pour l’environnement. Ce n’est pas woah, mais ça permet un début de classification des enjeux.

Le contenu des séances

Lorsqu’on monte un cours, la question théorique “qu’est-il pertinent d’enseigner?” est heureusement tempérée par des contraintes pratiques: que suis-je capable d’expliquer correctement? Et avec quel niveau d’expertise? Certes, je pouvais toujours me former sur certains thèmes avant d’en proposer des synthèses aux étudiant.es. C’est même une de mes principales motivations: apprendre des choses pour les enseigner. Mais puisque pour moi aussi, le temps de cerveau disponible est limité, j’ai rapidement accepté d’enfiler ma tenue de “satisficer” plutôt que de “maximizer” pour reprendre un concept d’Herbert Simon. Je n’allais pas chercher à faire un cours exceptionnel, mais plutôt 19 séances satisfaisantes et intellectuellement honnêtes.

On le sait, le monde de l’IA se perd facilement dans les modes passagères (voir mon premier billet sur ce blog). Il vit au rythme de l’innovation toujours plus innovante qui chasse la précédente. Dans ces conditions, comment choisir quels systèmes aborder? Qu’est-ce qui sera encore pertinent dans trois ou quatre ans? Contrairement à un cours de bioéthique, d’éthique des affaires ou d’éthique animale, où l’on peut présumer que “les bons vieux exemples” continuent d’être pédagogiquement pertinents, enseigner l’éthique de l’IA, c’est courir le risque d’être rapidement caduque. Autrement dit, même si certains en prennent le chemin (comme les lois de la robotique d’Asimov, l’usine à trombones de Bostrom, le cas COMPAS ou l’affaire Cambridge Analytica…), il n’y a pas vraiment de “bons vieux exemples” en éthique de l’IA.

Dans le même ordre d’idée, la question se posait des textes à faire lire, sachant que, là encore, il n’y a pas vraiment de classiques. Qui plus est, les textes et vidéos “recommandées” devaient être disponibles en français. Au final, j’ai mis dans les lectures “recommandées” des textes de Ellul, McLuhan, Kaczynski (pour lui, j’ai un peu hésité), Turing, Harari, Crawford, Zuboff, Bostrom, Mitchell, O’Neil ainsi que des articles écrits par moi seul ou avec des collègues. J’ai aussi inclus deux déclarations de principes (Asilomar et Montréal) et un extrait d’un rapport du comité d’éthique sur les chatbots. Du côté des vidéos “recommandées” on retrouvera Peter Singer, Cédric Villani, Kriti Sharma, Yoshua Bengio et de courts reportages de Radio Canada. Dans mon enthousiasme didactique, je me suis aussi imaginé des étudiant.e.s insatiables, si bien qu’en plus des références, iels ont accès à plusieurs liens choisis précautionneusement — bref, à une mini-médiathèque que je peux compléter à l’occasion.

Il y a quelque chose d’ironique ou, du moins, un drôle d’effet miroir à parler d’automatisation dans un cours qui est lui-même en partie “automatisé” — c’est ainsi que j’aurai pu introduire la séance sur le remplacement. En effet, une fois lancée, cette Introduction à l’éthique de l’IA fonctionne quasiment toute seule ; du coup, comme disent les français, je peux consacrer mon temps à autre chose — comme faire de la recherche. Mais cette automatisation impose des contraintes: pour les évaluations formatives et sommatives, le plus réaliste était de passer par des quizz. Un étudiant embauché sur le projet a réalisé des questionnaires qui sont intercalés sur la plateforme du cours entre les 19 capsules vidéos. Ils portent sur le contenu des capsules et les textes et vidéos “recommandées”.

Des casquettes pour se faire une tête

Une fois ces étapes bouclées, le cours a été testé avec quelques volontaires avant d’être mis en ligne sans tambours ni trompettes sur Edulib. Il est encore trop tôt pour en tirer des leçons, mais aux dernières nouvelles, il y avait un peu plus de 500 inscrit.es, venant en particulier du Canada (33%), de France (19%), d’Haïti (7%) et d’Afrique francophone (23%). Comme avec n’importe quel MOOC, le taux d’inscrit.es qui terminent le cours est faible. Il faut dire qu’il est difficile de se motiver lorsqu’on travaille seul — et c’est une des raisons qui font que les cours classiques, en présentiel, demeurent précieux. C’est pourquoi j’ai fait mon possible pour donner un peu d’incarnation au cours: avec quelques blagues (seront-elles toujours comprises?) et surtout une innovation pédagogique majeure: des casquettes colorées.

Porter un accessoire était non seulement plaisant, mais cela avait surtout pour avantage de rythmer les séances en distinguant des séquences. À vrai dire, même si j’ai peut-être l’air un peu ridicule, je crois que ça rajoute une couche de sens. Ou plutôt cinq couches, pour cinq casquettes: expérience de pensée, bibliographie, métaéthique, sans raison et contenu canadien. Ma préférée est de couleur rose.

Martin Gibert est chercheur en éthique de l’IA à l’Université de Montréal (rattaché à l’IVADO et au CRÉ). Page web personnelle.

--

--

Chercheur en éthique de l’intelligence artificielle (Université de Montréal)

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store
Martin Gibert

Chercheur en éthique de l’intelligence artificielle (Université de Montréal)