L’apprentissage automatique de la morale

Définitions et effets secondaires

De quoi ça parle? Les auteurs définissent l’intelligence comme la « capacité à atteindre des objectifs » tandis qu’une IA désigne « un outil de traitement de l’information, généralement doté d’un objectif » (p.16–17). Ces définitions très ouvertes ont l’avantage de n’exclure aucune piste de l’investigation. Cela n’empêche toutefois pas Hoang et El Mhamdi de découdre certaines idées reçues, comme celle qui consiste à voir les machines comme nécessairement prévisibles.

El Mahdi El Mhamdi et Lê Nguyên Hoang

Apprentissage par renforcement ou supervisé ?

Derrière ses trois thèses générales modestes et rassembleuses, le livre fourmille d’idées beaucoup plus aventureuses — et donc intéressantes. Cette introduction est extrêmement riche et pose plusieurs questions fascinantes. Je voudrais maintenant me concentrer sur l’une d’elles, à savoir quelle technique d’IA devrait-on utiliser pour concevoir des agents moraux artificiels ou, comme le disent les auteurs, pour rendre la morale calculable.

--

--

Chercheur en éthique de l’intelligence artificielle (Université de Montréal)

Love podcasts or audiobooks? Learn on the go with our new app.

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store
Martin Gibert

Martin Gibert

77 Followers

Chercheur en éthique de l’intelligence artificielle (Université de Montréal)