Intéressant

Programmons-nous des voitures tueuses? L'éthique des véhicules autonomes

Programmons-nous des voitures tueuses? L'éthique des véhicules autonomes

Au cours des dernières années, de plus en plus de fonctionnalités autonomes ont été intégrées aux voitures. Et il y a quelques mois à peine, Tesla a publié la vidéo suivante dans laquelle il se vantait d'avoir atteint le «Full Self-Driving».

Un article de Techopedia a rapporté que même les voitures Tesla antérieures contenaient «le matériel nécessaire à la conduite autonome», bien que l'activation de la capacité dépendait d'une mise à jour logicielle. L'article envisageait également la différence entre la façon dont les voitures autonomes construites aujourd'hui différeront de celles du futur.

Actuellement, les voitures Tesla sont équipées du matériel nécessaire pour la conduite autonome, mais des mises à jour logicielles sont nécessaires pour activer pleinement la fonctionnalité. S'il permettra une conduite entièrement autonome, il permettra également au conducteur humain de prendre le contrôle lorsque la situation appelle une intervention.

Cependant, la prochaine génération de véhicules autonomes n'aurait pas besoin de volants, de pédales ou de transmissions. L'avantage de ces voitures est la possibilité de réduire les accidents et de fournir les moyens de transport nécessaires aux personnes incapables de conduire comme les personnes âgées ou les personnes ayant un handicap visuel ou physique.

Mais il y a aussi un inconvénient potentiel: la nécessité pour l'agence humaine qui met en place la programmation de la voiture de prévoir tous les scénarios possibles et de diriger la voiture pour qu'elle émette le genre de jugements que les gens doivent porter lorsque le scénario appelle à une action qui en provoquera inévitablement certains. forme de préjudice.

Bien que Tesla soit peut-être le nom le plus célèbre sur le front de l'IA pour les véhicules, ce n'est certainement pas le seul acteur sur ce marché en croissance. Certains noms bien plus vénérables de l'industrie sont également entrés dans la loi.

CONNEXES: L'HISTOIRE INTÉRESSANTE DES VOITURES ÉLECTRIQUES

Bernard Marr a récemment écrit sur l’investissement d’un milliard de dollars de Toyota dans les voitures autonomes et l’IA. L'entreprise s'est fixé des objectifs qu'elle souhaite atteindre d'ici 2020:

«Grâce aux investissements de Toyota dans des start-ups technologiques telles que Perceptive Automata, il espère créer la technologie permettant aux véhicules autonomes d'avoir une intuition plus humaine lorsqu'ils sont sur la route, plus similaire à la façon dont les conducteurs humains interagissent avec les piétons.»

Antécédents de sécurité de conduite autonome

Bien sûr, nous n'en sommes pas encore là. Mais la question est de savoir si tel est le but final et si c'est quelque chose que nous devrions poursuivre sans prendre pleinement en compte les ramifications d'une voiture entièrement indépendante.

Chaque accident et décès de voiture autonome répertorie neuf accidents impliquant des véhicules autonomes, dont seulement quatre ont causé des décès. Malgré les affirmations du titre, cependant, la liste est incomplète, car il y a eu des morts dans de tels accidents après la publication de l'article.

Le dernier décès signalé était celui d'une Tesla Model X le 23 mars 2018. Le conducteur de la voiture est décédé lorsqu'elle a heurté une barrière d'autoroute. Tesla l'a blâmé sur l'interférence de la barrière avec le système de conduite autonome du véhicule:

"La raison pour laquelle cet accident a été si grave est que l'atténuateur de collision, une barrière de sécurité routière conçue pour réduire l'impact sur un diviseur de voie en béton, avait été écrasé lors d'un accident antérieur sans avoir été remplacé", a déclaré Tesla dans son communiqué.

La société a ajouté: "Nous n'avons jamais vu ce niveau de dommages sur un Model X dans aucun autre crash."

Malheureusement, ce n’était pas la fin des accidents mortels des voitures autonomes de Tesla. Un certain nombre d'entre eux se sont produits cette année.

Parmi les incidents, il y en avait un le 1er mars 2019. Il a été confirmé par le National Transportation Safety Board (NTSB) des États-Unis que le logiciel semi-autonome Autopilot était engagé sur une Tesla Model 3 quand il a été enfoncé dans un camion-remorque tentant de traverser une Floride. autoroute et le conducteur de la voiture a été tué.

Bien qu'ils soient encore relativement rares, comparés aux accidents de voiture causés par des conducteurs humains, le fait qu'il y ait des accidents et des décès causés par des voitures autonomes a rendu les gens préoccupés par leur sécurité et leur programmation. En fait, cette année, Quartz a jeté un doute sur les allégations de sécurité de Tesla.

Comme cet accident de Tesla, la plupart des accidents de voiture autonomes entraînent la mort de la personne assise dans le siège du conducteur. Cependant, il y a eu des cas de personnes à l'extérieur de la voiture heurtées et tuées par des voitures autonomes.

L'incident le plus tristement célèbre de ce genre est peut-être celui impliquant Uber dans la mort d'Elaine Herzberg en mars 2018. La femme de 49 ans marchait et poussait son vélo sur l'avenue Mille à Tempe, en Arizona, lorsque la voiture Uber l'a heurtée.

Vous pouvez voir la vidéo de l'incident publiée par la police ici:

En conséquence, Uber a adopté une politique visant à s'assurer d'inclure des conducteurs humains dans ses voitures. L'histoire a été rapportée ici: Uber remet les voitures autonomes au travail mais avec des conducteurs humains.

C'est un moyen pour Uber de contourner le problème auquel nous devrons faire face, si et quand les voitures entièrement autonomes deviennent la norme: comment les programmer pour intégrer l'instinct de préserver la vie humaine.

Programmer l'IA avec un souci d'éthique

Comme nous l'avons vu dans un autre article, Our Brave New World: Pourquoi les progrès de l'IA soulèvent des préoccupations éthiques, avec la grande puissance de l'IA s'accompagne d'une grande responsabilité, pour s'assurer que la technologie ne finit pas par aggraver les situations au nom du progrès. L'étude de l'éthique de l'IA a attiré l'attention des personnes qui réfléchissent à ce qui doit être fait avant la mise en œuvre de solutions automatisées.

L'une de ces personnes est Paul Thagard, Ph.D., philosophe canadien et chercheur en sciences cognitives, a soulevé certaines des questions auxquelles nous devons maintenant faire face en ce qui concerne la programmation de l'éthique dans l'IA dans How to Build Ethical Artificial Intelligence.

Il soulève les 3 obstacles suivants:

  1. Les théories éthiques sont très controversées. Certaines personnes préfèrent les principes éthiques établis par des textes religieux tels que la Bible ou le Coran. Les philosophes se demandent si l'éthique doit être fondée sur des droits et des devoirs, sur le plus grand bien pour le plus grand nombre de personnes ou sur une action vertueuse.
  2. Agir de manière éthique nécessite de satisfaire des valeurs morales, mais il n'y a pas d'accord sur les valeurs appropriées ou même sur les valeurs. Sans un compte rendu des valeurs appropriées que les gens utilisent lorsqu'ils agissent de manière éthique, il est impossible d'aligner les valeurs des systèmes d'IA avec celles des humains.
  3. Pour construire un système d'IA qui se comporte de manière éthique, les idées sur les valeurs et le bien et le mal doivent être suffisamment précises pour pouvoir être implémentées dans des algorithmes, mais la précision et les algorithmes font cruellement défaut dans les délibérations éthiques actuelles.

Thagard propose une approche pour surmonter ces défis, dit-il, et fait référence à son livre, Philosophie naturelle: des cerveaux sociaux à la connaissance, à la réalité, à la moralité et à la beauté. Cependant, au cours de l'article, il ne propose pas de solution qui aborde spécifiquement la programmation de voitures autonomes.

Les voitures autonomes et le problème du chariot

Idéalement, les conducteurs évitent de frapper quoi que ce soit ou qui que ce soit. Mais il est possible de se retrouver dans une situation dans laquelle il est impossible d'éviter une collision, et le seul choix est la ou les personnes à frapper.

Ce dilemme éthique est ce qu'on appelle le problème du chariot, qui, comme le chariot lui-même, remonte à plus d'un siècle. Il est généralement présenté comme suit:

Vous voyez un chariot en fuite se diriger vers cinq personnes immobilisées (ou autrement incapables) allongées sur les rails. Vous vous tenez à côté d'un levier qui contrôle un interrupteur. Si vous tirez le levier, le chariot sera redirigé sur une voie latérale et les cinq personnes sur la voie principale seront sauvées. Cependant, il y a une seule personne allongée sur la voie latérale.

Vous avez deux options:

  1. Ne rien faire et laisser le chariot tuer les cinq personnes sur la voie principale;
  2. Tirez le levier, détournant le chariot sur le rail latéral où il tuera une personne.

Bien sûr, il n'y a pas vraiment de bon choix ici. La question est de savoir laquelle est la moindre des deux mauvaises options. C'est justement ce genre de dilemme que le gobelin vert a présenté à Spiderman dans le film de 2002, tentant de le forcer à choisir entre sauver un téléphérique rempli d'enfants ou la femme qu'il aime:

En tant que super-héros, Spiderman a pu utiliser ses capacités et sa force de filature Web pour sauver les deux. Mais parfois même les super-héros doivent faire un choix tragique, comme ce fut le cas dans le film de 2008Le Chevalier Noir dans lequel le choix de Batman était de laisser la femme qu'il aimait dans le bâtiment qui a explosé.

Ainsi, même ceux qui ont des capacités supérieures ne peuvent pas toujours sauver tout le monde, et la même situation peut s'appliquer aux voitures compatibles avec l'IA.

La question est alors: quel code d'éthique appliquons-nous pour les programmer pour faire de tels choix?

Que doit faire la voiture autonome?

Le MIT Technology Review a attiré l'attention sur certains chercheurs travaillant à la formulation des réponses il y a quelques années dans Comment aider les voitures autonomes à prendre des décisions éthiques. Parmi les chercheurs dans le domaine se trouve Chris Gerdes, professeur à l'Université de Stanford qui s'est penché sur «les dilemmes éthiques qui peuvent survenir lorsque la conduite autonome de véhicules est déployée dans le monde réel».

Il a proposé un choix plus simple: celui d'avoir affaire à un enfant courant dans la rue, ce qui oblige la voiture à heurter quelque chose mais lui permet de choisir entre l'enfant et une camionnette sur la route. Pour un humain, il va sans dire que la protection de l'enfant est plus importante que la protection de la camionnette ou de la voiture autonome elle-même.

Mais que penserait l'IA? Et qu'en est-il des passagers du véhicule qui pourraient finir par subir des blessures à la suite d'une telle collision?

Gerdes a observé: "Ce sont des décisions très difficiles auxquelles sont confrontés quotidiennement ceux qui conçoivent des algorithmes de contrôle pour les véhicules automatisés."

L'article cite également Adriano Alessandrini, un chercheur travaillant sur les véhicules automatisés à l'Université de Roma La Sapienza, en Italie, qui a dirigé la partie italienne du projet européen CityMobil2 pour tester le véhicule de transport automatisé. Voir la vidéo à ce sujet ci-dessous:

Elle a résumé le problème du chariot pour les conducteurs et les voitures autonomes dans ce résumé:

«Vous pourriez voir quelque chose sur votre chemin, et vous décidez de changer de voie, et comme vous le faites, il y a autre chose dans cette voie. C'est donc un dilemme éthique. »

Patrick Lin, professeur de philosophie à Cal Poly, avec qui Geerdes a travaillé, est un autre expert de premier plan dans le domaine. Le TED-Ed de Lin aborde les problèmes éthiques de la programmation de voitures autonomes pour prendre des décisions de vie ou de mort, est présenté comme une expérience de pensée dans cette vidéo:

Si nous conduisions cette boîte en voiture en mode manuel, quelle que soit la manière dont nous réagirions, cela serait compris comme une réaction et non comme une décision délibérée ", explique Lin dans la vidéo. En conséquence, cela serait compris comme" un mouvement instinctif de panique sans prévoyance ni méchanceté. "

La possibilité très réelle de décès résultant non pas d'un dysfonctionnement mais du fait que les voitures suivent leur programmation est ce qui rend si important de réfléchir à la manière de gérer ce que Lin décrit comme «une sorte d'algorithme de ciblage».

Il explique que de tels programmes "favoriseraient ou discrimineraient systématiquement un certain type d'objet sur lequel s'écraser".

En conséquence, ceux qui se trouvent dans "les véhicules cibles subiront les conséquences négatives de cet algorithme sans aucune faute de leur part".

Il n'offre pas de solution à ce problème mais c'est un avertissement que nous devons réfléchir à la façon dont nous allons le gérer:

"Repérer ces virages en épingle à cheveux moraux maintenant nous aidera à manœuvrer la route inconnue de l'éthique technologique et nous permettra de naviguer avec confiance et consciencieusement dans notre nouvel avenir courageux."

Cela s'avérera probablement un défi encore plus grand à naviguer que les routes sur lesquelles les véhicules autonomes doivent rouler.


Voir la vidéo: Éthique des voitures autonomes (Novembre 2021).