Aller au contenu

Éthique émotionnelle

Par Louis-Olivier Brassard

Comment faire la morale aux robots?

C’est ce que se demande le philosophe montréalais Martin Gibert dans son livre intitulé Faire la morale aux robots (2020).

L’un des grands défis face à ces «agents moraux artificiels» (AMA) est celui de la perception morale: comment percevoir ce qui est bien et ce qui est mal?

De nombreux philosophes se méfient des émotions, leur préférant une pensée froidement rationnelle. Réveillé de son sommeil dogmatique1, le professeur souligne plutôt la pertinence du «tournant émotionnel» en philosophie:

Pourtant, lorsqu’on examine la psychologie humaine, de nombreuses émotions comme l’admiration, la honte, la pitié, la culpabilité, la colère ou le dégout ont indéniablement une dimension morale. Ressentir du mépris envers quelqu’un, c’est condamner ce qu’elle est ou ce qu’elle fait. De même, l’empathie est un mode émotionnel qui nous permet de percevoir ce que ressent autrui, une information précieuse dans toute prise de décision morale.

Christine Tappolet, citée par Gibert comme «éminente représentante» de la discipline, parle d’ailleurs des émotions comme «perceptions de valeur».

La clé de voûte de l’agir moral en intelligence artificielle réside-t-elle dans l’empathie, apanage émotionnel de l’humain seulement – pour l’instant?

Martin Gibert, <em>Faire la morale aux robots</em>, Éditions Atelier 10, 2020.

Martin Gibert, Faire la morale aux robots, Éditions Atelier 10, 2020.

Illustration. <em>Faire la morale aux robots</em>, Atelier 10, 2020.

Illustration. Faire la morale aux robots, Atelier 10, 2020.


  1. Clin d’œil à Kant qui, dans sa Critique de la raison pure, remercie Hume de l’avoir réveillé de son «sommeil dogmatique». ↩︎