Divers

Roboéthique: l'éthique humaine appliquée aux robots

Roboéthique: l'éthique humaine appliquée aux robots

dans le Années 1940, L'écrivain américain Isaac Asimov a développé les Trois lois de la robotique en faisant valoir que les robots intelligents doivent être programmés de manière à ce que lorsqu'ils sont confrontés à un conflit, ils doivent remettre et obéir aux trois lois suivantes:

  • Un robot ne peut pas blesser un être humain ou, par inaction, permettre à un être humain de nuire

  • Un robot doit obéir aux ordres qui lui sont donnés par les êtres humains, sauf lorsque de tels ordres entreraient en conflit avec la première loi

  • Un robot doit protéger sa propre existence tant qu'une telle protection n'est pas en conflit avec la première ou la deuxième loi

Les lois de la robotique d'Isaac Asimov ont été introduites pour la première fois dans la courte histoire de science-fiction Courir autour, (PDF) publié dans le numéro de mars 1942 de Astounding Science Fiction.

Aujourd'hui, les trois lois de la robotique d'Asimov représentent plus de problèmes et de conflits pour les roboticiens qu'ils n'en résolvent.

Les roboticiens, les philosophes et les ingénieurs assistent à un débat en cours sur l'éthique des machines. L'éthique des machines, ou roboéthique, est une proposition pratique sur la manière de concevoir et de prévoir simultanément des sanctions éthiques pour les robots.

Qui ou quoi va être tenu responsable quand ou si un système autonome fonctionne mal ou nuit aux humains?

Actuellement, les chercheurs suivent une tendance qui vise à promouvoir la conception et la mise en œuvre de systèmes artificiels avec un comportement moralement acceptable.

Sur l'éthique et la roboéthique

L'éthique est la branche de la philosophie qui étudie la conduite humaine, les évaluations morales, les concepts de bien et de mal, de bien et de mal, de justice et d'injustice. Le concept de la roboéthique soulève une réflexion éthique fondamentale liée à des problématiques particulières et des dilemmes moraux générés par le développement d'applications robotiques.

La Roboéthique - également appelée éthique des machines - traite du code de conduite que les ingénieurs concepteurs robotiques doivent mettre en œuvre dans l'intelligence artificielle d'un robot. Grâce à ce type d'éthique artificielle, les roboticiens doivent garantir que les systèmes autonomes pourront présenter un comportement éthiquement acceptable dans des situations où des robots ou tout autre système autonome tel que les véhicules autonomes interagissent avec les humains.

Les problèmes éthiques continueront à augmenter tant que la robotique plus avancée entrera en scène. Dans Le paysage éthique de la robotique (PDF) par Pawel Lichocki et al., Publié par IEEE Robotics and Automation Magazine, les chercheurs énumèrent divers problèmes éthiques émergeant dans deux ensembles d'applications robotiques: les robots de service et les robots létaux.

Les robots de service sont créés pour vivre et interagir paisiblement avec les humains, tandis que les robots mortels sont créés pour être envoyés combattre sur le champ de bataille en tant que robots militaires.

Selon Le paysage éthique de la robotique, Noel Shanky soutient que "les capacités cognitives des robots ne correspondent pas à celles des humains, et par conséquent, les robots mortels sont contraires à l'éthique car ils peuvent faire des erreurs plus facilement que les humains." Et Ronald Arkin estime que "bien qu'un système sans pilote ne puisse pas se comporter parfaitement sur un champ de bataille, il peut fonctionner de manière plus éthique que les êtres humains".

En partie, la question de la moralité de l'utilisation de robots sur le champ de bataille implique des engagements sur la capacité et type d'intelligence artificielle Dans la question.

Robots dans l'armée: conçus pour tuer et responsabilité morale

Les robots militaires ne font certainement pas partie du présent. Ils remontent à la Seconde Guerre mondiale et à la guerre froide. Le Goliath allemand a suivi les mines et les télétanks soviétiques. Les robots militaires peuvent être utilisés pour tirer une arme à feu, désarmer des bombes, transporter des soldats blessés, détecter des mines, tirer des missiles, voler, etc.

Aujourd'hui, de nombreuses autres utilisations des robots militaires sont développées en appliquant d'autres technologies à la robotique. L'armée américaine va compter avec un cinquième de ses unités de combat entièrement automatiséd'ici 2020.

Quel genre d'éthique robotique va être intégré aux robots militaires et qui va en décider? Les lois d'Asimov ne peuvent pas être appliquées aux robots conçus pour tuer des humains.

Également en 2020, l'armée américaine va vivre le test véhicules robotisés blindés. Une manifestation a eu lieu en mai au Texas.

Les robots deviendront-ils des agents moraux à l'avenir?

La Roboéthique deviendra de plus en plus importante alors que nous entrons dans une ère où des robots plus avancés et sophistiqués ainsi que l'Intelligence Générale Artificielle (AGI) vont faire partie intégrante de notre vie quotidienne.

Par conséquent, le débat sur les questions éthiques et sociales de la robotique avancée doit devenir de plus en plus important. La croissance actuelle de la robotique et les développements rapides de l'intelligence artificielle exigent que les roboticiens et les humains en général soient préparés le plus tôt possible.

Au fur et à mesure que la discussion en roboéthique progresse, certains affirment que les robots contribueront à construire un monde meilleur. D'autres soutiennent que les robots sont incapables d'être des agents moraux et ne devraient pas être conçus avec des capacités de prise de décision morale intégrées.

Enfin, peut-être pas encore, mais à l'avenir, les robots pourraient devenir des agents moraux avec une responsabilité morale attribuée. D'ici là, les ingénieurs et concepteurs de robots doivent assumer la responsabilité des conséquences éthiques de leurs créations.

En d'autres termes, les ingénieurs et concepteurs de robots doivent être moralement responsables de ce qu'ils conçoivent et mettent au monde.


Voir la vidéo: Clément Viktorovitch: Lintelligence artificielle, comment ça marche? - Viens Voir les Docteurs (Novembre 2021).