RSE Magazine
 
RSE Magazine
Accueil
Envoyer à un ami
Version imprimable
Partager

Martin Gibert : « Faire la morale aux robots »

Interview Bertrand Coty
02/09/2021



Martin Gibert est philosophe, spécialisé en psychologie morale et chercheur en éthique de l'intelligence artificielle à l’Université de Montréal.



Martin Gibert
Martin Gibert
Martin Gibert, vous écrivez « Faire la morale aux robots » aux éditions Climats. Quelles questions morales pose l’élaboration actuelle des algorithmes ?

C’est un fait nouveau dans notre histoire de l’humanité : des machines peuvent désormais prendre des décisions qui ont des conséquences sur nos vies. Ainsi, l’algorithme de Youtube peut vous recommander une vidéo complotiste ou une analyse du même sujet basée sur la science et l’esprit critique. Il s’ensuit que celles et ceux qui programment cet algorithme ont une responsabilité morale - on pourrait ainsi les critiquer si le seul objectif qu’ils assignent à leur IA est de maximiser le watchtime des utilisateurs.

Peut-on imaginer une éthique des algorithmes et comment s’y prendre ?

Dans le livre, je présente le cas de la programmation d’une voiture autonome - un robot de transport - face à un dilemme tragique : écraser un enfant ou un vieillard. Comment la programmer ? En fait, tout dépend de la théorie morale sur laquelle on s’appuie. Pour le dire vite, l’utilitarisme tend à sauver l’enfant pour maximiser le nombre d’années à vivre, tandis que le déontologisme préferera que l’IA tire au sort pour éviter toute discrimination. On peut aussi s’inspirer de l’éthique de la vertu.

Qui ou quelle organisation pourrait légitimement prétendre à définir cette norme morale ?

C’est une question difficile. Si l’on pense que la moralité est relative aux valeurs d’un individu ou d’une société, alors on aura du mal à justifier que telle programmation est meilleure que telle autre. En revanche, si on admet qu’il existe des raisons morales plus convaincantes que d’autres, on peut chercher un certain consensus rationnel. Pour ma part, je défends l’idée que les robots devraient apprendre - grâce à l’apprentissage automatique - à partir de bons modèles, à savoir les personnes que nous jugeons vertueuses.

A quelles conditions pourraient s'exercer cette morale ?

Dans le cas de Youtube, on peut imaginer un algorithme de recommandation qui intégrerait des normes comme “ne pas tromper les utilisateurs” ou “encourager les comportements bons pour l’environnement”. Ce serait assurément un meilleur algorithme du point de vue moral (ou éthique : je ne fais pas de distinction). Quoi qu’il en soit, il faut bien être conscient que l’éthique ne ruissellera pas magiquement des algorithmes : c’est à nous, humains, d’en définir les paramètres - et c’est loin d'être une tâche aisée.