Divers

Our Brave New World: Pourquoi les progrès de l'IA soulèvent des préoccupations éthiques

Our Brave New World: Pourquoi les progrès de l'IA soulèvent des préoccupations éthiques


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Presque tous les jours, nous entendons parler de nouvelles avancées de l'IA qui permettent de nouvelles façons de surveiller les activités et les personnes, transformant de nombreux processus dans notre vie quotidienne.

CONNEXES: BENTHAM, HOBBES ET L'ÉTHIQUE DE L'INTELLIGENCE ARTIFICIELLE

Ce que nous pouvons entendre tous les deux jours, c'est comment l'IA peut exacerber les préjugés raciaux et sexistes et constituer une menace pour la vie privée, la sécurité de l'emploi et le bien-être économique. Cela pourrait même déclencher une guerre aux yeux d'Elon Musk.

La reconnaissance faciale alimentée par l'IA soulève des préoccupations concernant la confidentialité et les préjugés

Comme expliqué dans Facial Recognition Concerns: Microsoft's Six Principles Ethical Principles, «L'utilisation généralisée de la technologie de reconnaissance faciale basée sur l'intelligence artificielle peut conduire à de nouvelles intrusions dans la vie privée des personnes.

Étant donné la capacité de capturer l’image des gens et de les identifier dans les rues publiques au nom de la sécurité, les gens craignent à juste titre qu’ils perdent leur capacité à préserver leur vie privée. Cela s'étend aux environnements à l'école et au travail, comme détaillé dans l'article.

Un 2018 New York Times L'article a soulevé une autre préoccupation avec le titre, "La reconnaissance faciale est exacte, si vous êtes un homme blanc." Le problème est le suivant:

«Plus la peau est foncée, plus les erreurs surviennent - jusqu'à près de 35% pour les images de femmes à la peau plus foncée, selon une nouvelle étude qui innove en mesurant le fonctionnement de la technologie sur des personnes de races et de sexes différents.»

La source de ces chiffres est Joy Buolamwini, chercheuse au MIT Media Lab et fondatrice de l'Algorithmic Justice League (AJL). Elle s'est consacrée à découvrir comment les biais s'infiltrent dans l'IA et faussent ainsi les résultats pour la reconnaissance faciale.

Découvrez sa conférence TED dans cette vidéo:

Cette année, Buolamnwini a publié les résultats de sa recherche avec Inioluwa Deborah Raji de l'Université de Toronto, dans Actionable Auditing: Investigating the Impact of Publicly Naming Basses Performance Results of Commercial AI Products.

Selon cette étude, le logiciel Rekognition d'Amazon a également gâché ceux qui n'appartiennent pas à la catégorie des hommes blancs. Selon l'étude, il identifiait à tort les femmes comme des hommes presque une fois sur cinq. En outre, il a identifié à tort les femmes à la peau plus foncée comme des hommes 31% du temps, dit-il.

Buolamnwini a écrit un article sur Medium dans lequel elle a fait référence à ses recherches et que 26 chercheurs demandent à Amazon d'arrêter de vendre Rekognition. L'ACLU a également intensifié la pression, exhortant les actionnaires d'Amazon à exiger l'élimination de la technologie de reconnaissance faciale.

La pression a eu des résultats mesurables. San Francisco a récemment voté pour l'interdire de l'arsenal des outils technologiques utilisés par les forces de l'ordre.

Préoccupation concernant le problème de biais de l'IA

D'autres ont également souligné le potentiel de préjugé racial renforcé par l'intelligence artificielle, notamment Cathy O'Neil dans Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. qui renforcent les barrières, maintenant des populations démographiques particulières désavantagées en les identifiant comme moins dignes de crédit, d'éducation, d'opportunités d'emploi, de libération conditionnelle, etc. »

Consultez sa conférence TED ici:

Que le problème provienne de failles dans les données collectées ou dans les algorithmes mis en place pour analyser les données, les gens ne se contentent plus de faire confiance à l'IA comme objective et omnisciente. Ils exigent désormais une IA explicable qui introduit la transparence dans le processus et permet de mettre en lumière et de résoudre les biais et autres défauts.

«Ce qui est essentiel, c'est de rendre tout ce qui concerne l'IA explicable, équitable, sécurisé et avec une lignée, ce qui signifie que tout le monde peut voir très simplement comment une application d'IA s'est développée et pourquoi, a déclaré Ginni Rometty, PDG d'IBM, lors de son discours d'ouverture au CES le 9 janvier 2019. IBM propose désormais des consultations sur la réduction des biais pour ceux qui construisent des systèmes d'apprentissage automatique.

Vous pouvez voir l'adresse complète ici:

Préoccupations éthiques concernant l'IA en tant que menace existentielle

«L'IA est un risque fondamental pour l'existence de la civilisation humaine», a affirmé Elon Musk en 2017 lors d'une interview devant un public lors de la réunion d'été de la National Governors Association. Vous pouvez le voir en entier dans cette vidéo:

Si vous préférez une prise beaucoup plus courte, vous pouvez voir cette vidéo:

Pas étranger à la technologie de pointe, Musk argumentait à partir de la position de quelqu'un qui comprend à la fois les capacités et les conséquences de l'IA. C’est pourquoi il soutient que des réglementations doivent être mises en place dès maintenant, et non après que la technologie a progressé et qu’elle présente déjà un danger.

Contrairement aux résultats négatifs qui auraient pu résulter d'autres technologies dans le passé, qui, selon lui, étaient limités «aux individus» et n'affectaient pas «la société dans son ensemble», a déclaré Musk. Cependant, l'IA pose un «risque existentiel fondamental».

Pour Musk, ce risque comprend le déclenchement d'une guerre. Il a proposé un exemple «purement hypothétique» selon lequel il est possible que l'IA soit définie avec «un objectif de maximiser la valeur d'un portefeuille d'actions» qui est «long sur la défense» et qu'elle ferait tout ce qui est nécessaire pour atteindre son objectif, y compris mettre la chose en mouvement pour déclencher une guerre.

Sur une note moins catastrophique, Musk a également reconnu que l'IA menaçait les emplois. Mais pour certains, c'est la véritable catastrophe dont il faut se préoccuper.

Préoccupations éthiques concernant l'IA et les emplois

En juillet 2017, le Journal du Wall Street pa publié l'article, Les robots remplacent les travailleurs là où vous magasinez. Il décrit certaines des technologies qui remplacent déjà les employés humains dans les magasins Walmart.

le Journal L'article présentait également un tableau de Citi Research sur la menace pour les emplois de l'automatisation d'ici 2030. Les industries qui devraient subir le moins de dommages comprennent l'assurance et la finance, avec un taux de risque élevé de 54%.

Les services d'hébergement et de restauration ne sont pas aussi loin, avec un taux de risque élevé de 86%. Cela représenterait un nombre énorme de personnes expulsées de leur emploi, ce qui ne serait pas dommageable uniquement pour les personnes qui perdent le leur, mais pour l'ensemble de l'économie.

Dans une interview accordée à VIAnews, Anthony Zador, président des neurosciences et professeur de biologie au Cold Spring Harbor Laboratory, a averti que certaines des «conséquences pour la société vont être, à bien des égards, dévastatrices».

Cela est principalement dû au fait que nous verrons «des dizaines de millions d’emplois» disparaître sans aucune garantie de «par quoi ils seront remplacés, s’ils vont être remplacés par quoi que ce soit».

Il s'est empressé d'ajouter qu'il met ici le blâme sur «la société; ce n’est pas la faute de la technologie. » Peu importe qui est à blâmer, les dommages semblent inévitables.


Voir la vidéo: New findings have physicists questioning reality (Juillet 2022).


Commentaires:

  1. Gardakus

    Je partage complètement votre opinion. Cela me semble être une excellente idée. Complètement avec vous, je serai d'accord.

  2. Arnon

    Soit dit en passant, cette pensée brillante ne fait que tomber

  3. Janene

    ça finalement ?

  4. Romeo

    Désolé, mais je pense que c'est évident.

  5. Anastagio

    Je vous conseille de visiter un site sur lequel il existe de nombreux articles sur un thème intéressant.

  6. Teryl

    C'était et avec moi. Nous pouvons communiquer sur ce sujet.



Écrire un message