Les collections

Le Japon appelle à un contrôle plus strict des robots tueurs IA

Le Japon appelle à un contrôle plus strict des robots tueurs IA

Le Japon demandera des réglementations plus strictes sur les «robots tueurs» lors d’une convention des Nations Unies cette semaine. Tokyo a annoncé son intention de soulever la question des règles internationales sur les armes létales équipées d'intelligence artificielle (IA) au début du mois.

VOIR AUSSI: AIS CONTINUER À AGIR DE FAÇON IMPRÉVISIBLE, DEVRAIT-ON PANIQUER?

La nation insulaire est préoccupée par la possibilité que des machines autonomes puissent déclencher des guerres, provoquer des accidents mortels et avoir la décision finale sur qui vivra ou mourra, ont déclaré des sources. La Convention des Nations Unies sur certaines armes classiques (CCAC) est prévue du 25 au 29 mars à Genève.

Le Japon mènera une discussion sur les robots tueurs

Le Japon veut prendre une position de leader sur la discussion autour de l'introduction de lois internationales. Les armes avec IA intégrée ont le potentiel de nuire ou de cibler de manière autonome sans contrôle humain. Certaines armes IA ont la capacité de décider de tuer en fonction de leur programmation.

«Tout comme la poudre à canon et les armes nucléaires ont changé la façon dont les guerres étaient menées dans le passé, l'intelligence artificielle pourrait fondamentalement modifier le cours des guerres futures», a déclaré le ministre des Affaires étrangères Taro Kono lors d'une séance à la Diète le 28 janvier.

Plusieurs pays, dont la Russie, la Chine et l'Amérique, seraient actuellement en train de développer des «systèmes d'armes létales autonomes» (LAWS). De nombreux groupes internationaux ont appelé à l'interdiction complète de ces armes. Les opposants à LAWS disent que la décision de mettre fin à une vie humaine ne devrait pas être mise entre les mains de l'IA.

Un combat injuste se profile

L'utilisation des LOIS donnerait aux nations un avantage au combat car elles pourraient être déployées sans aucun risque pour les troupes humaines. Beaucoup craignent que des programmes biaisés conduisent à des décès accidentels.

Le Japon a indiqué qu'il souhaitait que les participants à la convention discutent de la manière dont les humains peuvent garder le contrôle sur l'utilisation des LOIS et des pratiques qui peuvent être mises en place pour limiter entièrement le potentiel de conflit armé.

Une coalition de pays d'Amérique latine a cherché à interdire les LOIS, mais des pays plus grands comme les États-Unis et la Russie affirment qu'une telle interdiction est trop précoce dans le cycle de vie de la technologie. Le Japon lui-même n'a pas l'intention de produire des LOIS.

«Nous n'avons pas l'intention de développer une arme mortelle qui soit complètement autonome et fonctionne sans contrôle humain», a déclaré le Premier ministre Shinzo Abe.

Les leaders technologiques privés inquiets

Le gouvernement japonais a confirmé qu'il prévoyait de rechercher et de développer des IA ou des équipements sans pilote pour assurer la sécurité et réduire le fardeau des forces d'autodéfense. Ce ne sont pas seulement les États-nations qui sont préoccupés par le développement des armes à IA.

Le PDG de SpaceX, Elon Musk, a précédemment exprimé son inquiétude pour la technologie en développement rapide. Musk faisait partie du groupe qui a envoyé une lettre ouverte à l'ONU l'année dernière pour leur demander d'agir maintenant sur la réglementation de l'IA avant qu'il ne soit trop tard.

La lettre ouverte qui a été signée par d'autres grandes figures de la technologie et de la science telles que Stephen Hawking. Le groupe écrit: «Une fois développées, les armes autonomes mortelles permettront de mener un conflit armé à une échelle plus grande que jamais, et à des échelles de temps plus rapides que les humains ne peuvent le comprendre. Celles-ci peuvent être des armes de terreur, des armes que des despotes et des terroristes utilisent contre des populations innocentes, et des armes piratées pour se comporter de manière indésirable. Nous n'avons pas longtemps pour agir. Une fois la boîte de Pandore ouverte, il sera difficile de la fermer. »


Voir la vidéo: paris machine learning 5 Season 5 (Décembre 2021).