Une machine morale vous permet de décider qui sera tué par une voiture autonome défectueuse
Avec l'arrivée des véhicules à conduite autonome, une préoccupation majeure a été soulevée : comment ces véhicules réagiraient-ils à l'arrivée de l'armée ? problèmes de chariots. Il s'agit essentiellement de questions morales, comme lorsqu'une voiture autonome remplie de personnes âgées doit décider si elle doit s'écraser pour éviter des chiots qui traversent la rue ou s'il est acceptable d'écraser deux criminels pour sauver un médecin. Quelles vies valent le plus, celles des personnes âgées ou celles des enfants de sept ans ? Des chercheurs du MIT ont mis au point un jeu baptisé le Machine morale qui permet aux joueurs de prendre des décisions similaires en matière d'éthique. L'objectif principal de ce jeu est d'aider à dresser un tableau de l'opinion humaine sur la façon dont les machines devraient prendre des décisions lorsqu'elles sont confrontées à des dilemmes moraux.
Les participants à ce jeu doivent répondre à 13 questions, toutes assorties de deux options seulement. Dans tous les scénarios, une voiture autonome dont les freins ont lâché inopinément doit prendre une décision : continuer à avancer et percuter ce qui se trouve devant elle ou faire une embardée et écraser tout ce qu'elle trouve sur son chemin.
Moral Machine présente tous les types de personnes dans différents scénarios : enfants, personnes âgées, hommes, femmes et adultes. Il y a des cadres, des criminels, des sans-abri ou des personnes non identifiées. Dans l'une des questions, les participants doivent choisir entre sauver une femme enceinte dans une voiture ou un garçon, une femme médecin, une femme cadre, deux femmes athlètes et une femme médecin. Le scénario soulève des questions plus nuancées : le passager qui ne s'est jamais plaint de l'excès de vitesse doit-il être sauvé ? Ou devrions-nous nous fier aux airbags et autres dispositifs de sécurité en cas d'accident au lieu de faire une embardée sur des civils non protégés ?
Le jeu pose également des questions fondamentales, comme celle de savoir si l'IA doit être impliquée si elle peut sauver plus de vies ou si elle doit rester passive au lieu de modifier activement les événements de manière à ce qu'elle soit responsable de la mort de quelqu'un. La plupart des joueurs pensent que les décisions sont difficiles à prendre dans des situations bien définies, mais imaginez la difficulté pour les voitures autonomes dans des conditions routières chaotiques.
Le problème du chariot a été formulé pour la première fois à la fin des années 1960. La question est de savoir s'il est plus juste de tirer un levier, qui envoie un chariot sur une voie différente pour tuer une personne, ou de laisser le chariot sur sa trajectoire, où il en tuera cinq. Il s'agit d'un problème moral inhérent, et de légères variations peuvent changer de manière significative la façon dont les gens choisissent de répondre.
À la fin de la machine morale, le testeur est informé que ses réponses font partie d'un effort de collecte de données par des scientifiques du MIT dans le cadre de recherches sur l'éthique et la société des machines autonomes. Il est toutefois possible de refuser de transmettre ses données.
Image principale Crédit : techcrunch