Parmi les obstacles à franchir pour les voitures autonomes, certains sont moins techniques qu’éthiques, estime Guillaume Von Der Weid, professeur de philosophie à Sciences-Po. En cas d’accident inévitable, devront-elles être programmées pour sauver leurs passagers ou les passants ?
« La technologie, en atteignant le seuil de l’indépendance vis-à-vis de l’intelligence humaine, nous contraint à inscrire en elle les principes moraux dont jusque-là nous ne recueillions le témoignage qu’à travers leur application au cas par cas, une fois passé le filtre de la délibération. Le problème, c’est que si les sondages entrepris par les constructeurs automobiles montrent que les gens sont à peu près tous d’accord sur la validité de la morale utilitaire qui enjoint, entre deux maux, de choisir le moindre (tuer une personne plutôt que cinq), personne n’achèterait une voiture qui, dans certains cas, suiciderait son passager, même pour le plus grand bien de tous. » Guillaume Von Der Weid
Inscrivez-vous pour poursuivre votre lecture !
Essayez gratuitement Brief.me pendant 30 jours.
Sans engagement ni carte bancaire.
Trier par :