Faut-il avoir peur de la peur de l’IA?

Martin Gibert
12 min readJan 11, 2019

--

La Quatrième Blessure: un blogue sur l’éthique de l’intelligence artificielle.

Par Martin Gibert (Université de Montréal, IVADO, CRÉ)

Et si on commençait avec un peu de méthode. Réfléchir aux questions éthiques que soulèvent les récents bouleversements en intelligence artificielle (IA), c’est aussi se demander de quels outils nous disposons pour y penser. Est-on bien sûr d’aborder les problèmes de la bonne façon?

Depuis que je m’intéresse à l’éthique de l’IA, il ne fait guère de doute que la question que j’ai le plus souvent lue ou entendue est celle-ci : faut-il avoir peur de l’IA? Elle a l’avantage d’être très ouverte, de laisser le champ libre à l’interlocuteur ou à l’interlocutrice pour développer un discours, souvent prospectif, et en appeler à un jugement global. De ce point de vue, c’est une bonne question.

Elle permet aussi de mettre l’imagination sur on. Car c’est en imaginant une situation donnée que l’on peut identifier si cela déclenche, oui ou non, une émotion comme la peur. Mais au-delà, c’est également se demander à quoi pourraient ressembler nos vies dans un environnement infusé d’IA. Est-ce un avenir désirable? En un sens, il ne s’agit de rien de plus que de poser l’éternelle question morale : que devrions-nous faire?

“Now, you will have more time to binge things”

Je suis depuis longtemps fasciné par le rôle de l’imagination dans la délibération morale (c’était mon sujet de thèse doctorale à l’Université de Montréal). Aussi étrange que cela puisse paraitre, l’imagination peut être un outil de connaissance. Nous l’utilisons très souvent pour prendre des décisions — elle possède donc ce qu’on appelle une fonction épistémique. En effet, si nous pouvons collecter des données sur le passé et le présent, nous ne pouvons, en revanche, pas percevoir le futur. Mais nous pouvons l’imaginer. C’est même là un atout non négligeable de la cognition humaine (et d’autres animaux) car, comme le disait le philosophe Karl Popper, la pensée a ceci de supérieur à la sélection naturelle qu’elle permet d’envoyer ses hypothèses mourir à sa place.

Se demander s’il faut avoir peur de l’IA, c’est imaginer les conséquences de telle ou telle technologie, c’est anticiper le futur pour prendre de meilleures décisions au présent. Et dans ce processus où l’imagination pré-factuelle compare des possibilités, il ne fait guère de doute qu’une émotion comme la peur a un rôle à jouer. Ce rôle est toutefois ambigu. Si bien qu’un peu de réflexivité ne sera pas de trop : faut-il avoir peur de la peur de l’IA?

Les règles de l’imagination, le probable et le saillant

L’imagination humaine n’est pas débridée. Elle suit des règles. Comme le montre bien la psychologue Ruth Byrne dans son livre The Rational Imagination (2005), nous n’imaginons pas n’importe quoi, ni n’importe comment. L’imagination est plus sensible à certaines représentations mentales. Elle s’engouffre plus facilement dans certains scénarios, non parce qu’ils sont plus probables, mais parce qu’ils sont plus saillants, bref, parce qu’ils correspondent mieux aux règles de l’imagination.

Ainsi, lorsqu’on demande aux gens d’imaginer une fin alternative à une petite histoire — ce que les psychologues nomment une vignette: par exemple, un accident de moto –, ils vont modifier en priorité les actions (conduire la moto) plutôt que les inactions (ne pas prendre le vélo). De même, les actions qui sont sous le contrôle d’une personne susciteront davantage d’alternatives que celles qui lui échappent. Comment cet accident de moto aurait-il pu ne pas avoir lieu? On imaginera plus facilement la motocycliste roulant moins vite (contrôlable) qu’une chaussée moins glissante (incontrôlable). Et on pensera rarement au fait que prendre le bus aurait tout aussi bien pu permettre d’éviter l’accident.

Bien entendu, cela vaut aussi pour la peur de l’IA. L’accident de voiture autonome suscite l’effroi et déclenchera promptement la pensée « ah, si seulement, le passager n’était pas monté dans la voiture… », ou encore « ah, si seulement on n’avait pas développé l’IA…. ». En revanche, on pensera difficilement à tous les accidents évités (des « non-accidents ») suite au déploiement de voitures autonomes globalement plus sécuritaires que les voitures conduites par des humains.

En fait, l’imagination est plutôt paresseuse. Elle aime pouvoir identifier clairement la source d’un espoir ou d’une crainte. À cet égard, il est assez symptomatique qu’on parle de l’IA comme si c’était une entité unique, certes insaisissable, mais qui n’en possèderait pas moins une sorte d’essence. Pourtant, en réalité, l’IA n’existe pas — et la « peur de l’IA » est une crainte sans objet. Ce qui existe, ce sont divers systèmes reposant sur des algorithmes, parfois isolés, parfois intégrés.

Voilà pourquoi, l’un des premiers réflexes méthodologiques en éthique de l’IA devrait être de ne pas céder à la tentation de substantialiser l’IA. Les problèmes soulevés par les systèmes d’IA sont multiples et les solutions qu’ils réclament le seront tout autant. Et s’il est vrai que, d’un point de vue narratif, il est toujours satisfaisant d’avoir un ou une méchante bien identifiable — ce dont la science-fiction ne se prive pas — il est aussi vrai qu’on a beaucoup à perdre à réduire la réalité morale à des représentations simplificatrices.

Certes, imaginer qu’une IA échappe au contrôle humain et se rebelle telle une esclave contre son maitre est un motif narratif excitant — et épeurant — pour notre imagination. Mais comme le remarque Yuval Noah Harari dans ses 21 leçons pour le 21e siècle (Albin Michel 2018), « Le vrai problème des robots est exactement le contraire. Si nous devons avoir peur d’eux, c’est probablement parce qu’ils obéiront toujours à leurs maitres et ne se rebelleront jamais. » (p.80). Pour Harari, s’il faut avoir peur de quelque chose, c’est plutôt des usages malveillants de l’IA. Autrement dit : il faudrait avoir peur des humains.

Panique morale, pente glissante et ordre des choses

Il faut aussi voir que la peur de l’IA peut dégénérer en panique morale. De quoi s’agit-il? D’une crainte irrationnelle qui, en tant que telle, ne peut constituer un bon guide pour la décision. Pour le regretté philosophe français Ruwen Ogien, qui ne s’intéressait pas à l’IA mais à des sujets comme le clonage, la gestation pour autrui ou la pornographie, la panique morale se définissait comme la « crainte d’une sorte d’effondrement interne des règles les plus élémentaires de la vie en commun, des éléments fondamentaux de notre identité, des institutions dites de ‘base’ de nos sociétés. » En France, les manifestations contre le mariage pour tous ont offert un bon exemple d’une telle atmosphère de panique morale.

Or, il est assez clair que l’IA suscite parfois des réactions analogues. Ruwen Ogien identifiait en particulier deux types d’arguments dont se nourrit la panique morale : la pente glissante et l’ordre des choses. La pente glissante consiste à s’opposer à quelque chose qui est jugé comme relativement bénin (par exemple la légalisation de la marijuana ou du clonage de cellules) au motif que cela risque insidieusement d’entrainer la violation de normes plus sérieuses (légalisation de l’héroïne ou du clonage humain reproductif). Les arguments de pente glissante condamnent donc le bénin parce qu’il conduirait au malin.

Dans le domaine de l’IA, je soupçonne que l’autonomie des robots/chatbots est un bon terreau pour ce type d’arguments : on commence par autoriser une IA à répondre à notre place à nos courriels, on finira par lui laisser prendre des décisions de vie ou de mort. Mais les arguments de pente glissante sont souvent faibles. Ils oublient en effet qu’il n’y a rien de fatal dans le passage du bénin au malin. On peut poser des interdits, dresser des barrières à ne pas franchir. On peut légiférer : OK pour la marijuana, mais pas pour l’héroïne, le clonage humain reproductif ou des IA qui condamneraient des gens à mort.

L’argument de l’ordre des choses est différent. Cette fois-ci, il s’agit de s’opposer à un changement en invoquant un risque d’effondrement, de catastrophe anthropologique si on s’éloigne trop de la manière dont la famille, la société ou les êtres vivants fonctionnent. Les psychanalystes français développent parfois leur propre version de l’argument lorsqu’ils en appellent à un « ordre symbolique ». Là encore, on voit bien comment l’ordre des choses peut être invoqué contre le mariage pour tous ou la gestation pour autrui (GPA). On voit aussi que les craintes d’effondrement de la société française à la suite du mariage pour tous n’étaient pas fondées : Ogien avait certainement raison de parler d’une réaction de panique morale. (Ce qui ne signifie pas qu’il n’existe pas, par ailleurs, de bons arguments contre le mariage pour tous ou la GPA).

Sur le fond, l’argument de l’ordre des choses est essentiellement conservateur : on ne doit pas changer parce qu’on risquerait de détruire ce qui fonctionne. Nul doute que l’IA — parfois présentée comme une 4e révolution industrielle et surtout comme la première fois, dans l’histoire du vivant, qu’émerge une intelligence non biologique — a de quoi bouleverser l’ordre des choses et soulever les craintes conservatrices. J’aurais certainement l’occasion de revenir sur l’enjeu de fond.

“Someday, son, this will all be yours — and underwater.”

Mais d’un point de vue méthodologique, c’est le lien avec l’imagination qui m’intéresse. Or, bien souvent, l’argument de l’ordre des choses s’appuie sur un cadrage (framing) qui nous présente la réalité d’une certaine manière. Dans leur livre Les métaphores dans la vie quotidienne (Minuit, 1986), Mark Johnson et George Lakoff montraient bien comment nos concepts et notre lecture de la réalité sont tissés de métaphores. Quel rapport avec l’argument de l’ordre des choses ? C’est qu’il arrive que l’ordre en question soit « cadré » ou vu à travers la métaphore d’une totalité organique. Or, un organisme vivant risque effectivement de périr si on modifie sa structure interne : un animal ne survivrait pas au remplacement de son estomac par des poumons. Mais un enfant peut certainement être élevé par deux parents du même sexe. Autrement dit, si l’argument de l’ordre des choses est parfois douteux, c’est que la famille ou la société ne sont pas réellement des totalités organiques. Elles ne le sont que métaphoriquement.

Il s’ensuit que, quand bien même le développement de l’IA modifierait « l’ordre des choses », rien ne prouve que ce serait délétère pour l’organisation sociale. On peut même espérer un progrès.

Le biais de l’optimisme et l’attrait de la hype.

Si la question de la peur de l’IA revient si souvent dans les médias, c’est peut-être parce qu’elle cristallise un clivage facile à identifier, celui qui oppose le techno-optimisme et le techno-pessimisme. Certes, il n’est pas évident que ce partage soit le plus intéressant pour structurer la réflexion : ne devrait-on pas simplement viser le techno-réalisme ou un « optimisme conditionnel » comme le suggère Miles Brundage? Il paraît toutefois difficile d’ignorer cette opposition. Les techno-pessimistes auraient tendance à surtout percevoir dans le développement de l’IA des motifs de défiances, quitte à s’appuyer sur des arguments faibles de type pente glissante ou ordre-des-choses. De leur côté, les techno-optimistes leur répondraient, un peu crânement : même pas peur.

Qui a raison? Je ne vais pas trancher aujourd’hui. Toujours est-il qu’après avoir considéré comment la peur s’alimente souvent à la cantine de la panique morale, il convient d’examiner dans quelle mesure les techno-optimistes ne prennent pas tout simplement leurs désirs pour notre réalité. Il est en effet très improbable que les systèmes d’IA résolvent tous les problèmes de l’humanité et il est très probable qu’ils en créeront de nouveaux. L’avenir ne se conjuguera ni en rose ni en noir; il sera quelque part dans la palette des gris.

Puisqu’on est dans la méthode, il est temps d’évoquer le biais de l’optimisme. Plusieurs études en psychologie suggèrent que l’être humain s’attend habituellement à des évènements positifs plutôt que négatifs. Nous sous-évaluons les risques, en particulier ceux qui nous concernent directement. Ainsi, les gens surestiment leur espérance de vie ou leur chance sur le marché de l’emploi, mais sous-estiment leur chance de divorcer ou d’être contaminé par le VIH. Plusieurs hypothèses ont été soulevées pour expliquer cette tendance : d’un point de vue évolutionniste, l’optimisme pourrait être une adaptation profitable (pour la réplication de nos gènes) dans la mesure où cela réduit le stress, permet de se présenter sous son meilleur jour et stimule les comportements exploratoires.

Les techno-optimistes sont-ils sous l’emprise du biais de l’optimisme? Ce n’est pas évident. En effet, ce biais est surtout prévalent dans les situations où l’on se compare aux autres : chacun s’attend (de façon irrationnelle) à vivre plus longtemps ou à ce que son union soit plus solide, par rapport aux autres. Or, il me semble que, de façon générale, les évaluations optimistes quant au futur de l’IA ne relèvent pas de la comparaison sociale et ne concernent pas personnellement les techno-optimistes (à moins qu’ils n’aient des choses à vendre… mais dans cas, l’apparence de conflit d’intérêts fait de toute façon perdre beaucoup de crédibilité à leur discours). S’il est raisonnable de penser que les dispositions d’un individu à l’optimisme détermineront en partie son attitude à l’égard du futur de l’IA, la piste du biais cognitif n’apparait pas être la meilleure explication d’une confiance excessive.

C’est ici que la notion de hype, thématisée par Paula Boddington, pourrait être utile. Dans son livre Toward a code of Ethics for Articial Intelligence (OUP 2017), la philosophe associée au département d’informatique de l’Université d’Oxford montre que le battage médiatique ou la « mode » entourant l’IA pourrait bien distordre notre jugement, tant « il est facile d’être ébloui par la myriade d’affirmations sur l’IA et le parfum d’hyperbole qui, bien souvent, l’entoure » (p.31). Derrière la confiance en l’IA pourrait aussi se glisser un « effet de nouveauté » où l’enthousiasme est stimulé simplement parce qu’une chose est inédite, et donc prometteuse et intéressante.

La hype peut même contaminer la réflexion éthique. Ce serait notamment le cas lorsqu’on privilégie les solutions techniques aux problèmes éthiques (c’est une notion proche du solutionnisme technologique dénoncé par Evgeny Morosov). Boddington nous met donc en garde contre l’approche « l’IA comme solution de l’IA ». Ceci étant dit, la hype peut tout aussi bien encourager la peur de l’IA : « le battage médiatique autour d’une possible super-intelligence malveillante en cours de développement pourrait détourner l’attention de la nécessité de réfléchir à la manière dont l’IA affecte déjà notre vie quotidienne. » (p.32).

Le hareng fumé et la crise climatique

De ce point de vue, s’il faut se défier de la peur de l’IA, c’est parce qu’elle jouerait le rôle d’un red herring : c’est-à-dire un détournement indu de l’attention que Normand Baillargeon, dans son Petit cours d’autodéfense intellectuelle, traduit par sophisme du hareng fumé (qu’auraient utilisé des fugitifs pour détourner des chiens pisteurs). Mais de quoi nous détournerait la peur de l’IA? Je n’ai pas de réponses solides à cette question, mais je ne peux m’empêcher de penser aux changements climatiques qui, j’en ai peur, ne nous font pas assez peur.

Si la comparaison IA/changement climatique est intéressante, c’est parce que l’imagination, dans le ce second cas, semble prise en défaut. Comme le montre le psychologue environnemental Robert Gifford, notre « inertie climatique » s’explique notamment par des facteurs psychologiques. Nous aurions certainement peur qu’un astéroïde s’écrase sur la Terre (et ça ferait un bon film catastrophe). Pourquoi? Parce que notre cerveau est pré-câblé par l’évolution pour réagir promptement à des dangers immédiats. Mais la nature diffuse, indirecte et graduelle des changements climatiques ne déclenche pas de peur viscérale.[1] Pour passer à l’action, nous devons donc nous laisser convaincre par des arguments plutôt que par des émotions — ce qui n’est pas une chose facile pour les homo sapiens que nous sommes. (Ceci dit, un roman d’anticipation comme La route de Cormac McCarthy peut sans doute donner un coup de main).

Est-il raisonnable de penser que la peur de l’IA détourne notre attention de la catastrophe climatique? Je ne m’avancerai pas trop sur ce terrain. En particulier, ce serait assumer la prémisse assez douteuse que notre capacité d’avoir peur serait une ressource limitée. On peut certainement avoir peur de l’IA et des changements climatiques (et de l’immigration, et des OGM, et du mariage pour tous, etc.). Mais il n’en demeure pas moins vrai que la peur de l’IA, si elle n’est pas étayée par des arguments bien pesés, ne sera jamais un guide fiable pour la prise de décision.

Bref, on n’y coupera pas : on a besoin de développer des arguments, de les discuter, de les évaluer. On a besoin d’affuter notre perception morale. On doit faire de l’éthique appliquée à l’IA. Vous me direz que ça tombe bien : c’est justement l’objectif de ce blogue.

Martin Gibert est chercheur en éthique de l’IA à l’Université de Montréal (rattaché à l’IVADO et au CRÉ).

Janvier 2019

Post scriptum: Le lendemain de cette publication, mon collègue de l’Université Saint-Paul, Jonathan Durand Folco, me faisait l’honneur d’une réponse nuancée, critique et constructive à ce premier billet. Il estime notamment que je qualifie un peu vite la peur de l’IA de panique morale, ce qui tend à balayer “des craintes qui pourraient s’avérer justifiées”. Il prône plutôt une “méfiance méthodologique” qui, dans le sillage de Marx, “soit attentive aux forces qui développent actuellement ce secteur clé du capitalisme numérique”. Autrement dit, Jonathan Durand Folco apporte à la question de la peur de l’IA un éclairage socio-économico-politique qui remet en perspective mon approche plus centrée sur la psychologie morale et donc les individus. Ça ne peut pas faire de mal. Ses arguments sont bien ficelés et on peut les lire ici: Pourquoi il faudrait s’inquiéter (un peu plus) de l’IA.

Page web personnelle de Martin Gibert.

[1] Je présente plus en détail les questions de psychologie environnementale dans le 2e chapitre de mon livre Voir son steak comme un animal mort (Lux, 2015).

--

--

Martin Gibert

Chercheur en éthique de l’intelligence artificielle (Université de Montréal)