Information

Devrions-nous craindre la superintelligence artificielle?

Devrions-nous craindre la superintelligence artificielle?

S'exprimant lors d'une conférence à Lisbonne, au Portugal, peu de temps avant sa mort, Stephen Hawking a déclaré aux participants que le développement de l'intelligence artificielle pourrait devenir le «pire événement de l'histoire de notre civilisation», et il avait toutes les raisons de s'inquiéter. Connu sous le nom de superintelligence artificielle (ASI) par les chercheurs en IA, les éthiciens et autres, il a le potentiel de devenir plus puissant que tout ce que cette planète n'a jamais vu et il pose ce qui sera probablement le dernier défi existentiel auquel l'humanité sera jamais confrontée en tant qu'espèce. .

Pourquoi les gens ont-ils peur de l'intelligence artificielle?

Pour mieux comprendre ce qui concernait Stephen Hawking, Elon Musk et bien d'autres, nous devons déconstruire de nombreuses représentations de la culture populaire de l'IA.

La réalité est que l'intelligence artificielle est avec nous depuis un certain temps maintenant, depuis que les ordinateurs ont pu prendre des décisions en fonction des intrants et des conditions. Quand nous voyons un système d'IA menaçant dans les films, c'est la malveillance du système, associée à la puissance d'un ordinateur, qui nous fait peur.

Cependant, il se comporte toujours de manière fondamentalement humaine.

VOIR AUSSI: 10 TED TALKS ESSENTIELS SUR L'INTELLIGENCE ARTIFICIELLE

Le type d'IA que nous avons aujourd'hui peut être décrit comme une intelligence fonctionnelle artificielle (AFI). Ces systèmes sont programmés pour remplir un rôle spécifique et le faire aussi bien ou mieux qu'un humain. Ils sont également devenus plus performants dans ce domaine en un laps de temps plus court que ce que presque tout le monde avait prédit, battant des adversaires humains dans des jeux complexes comme Go et Starcraft II qui, selon les gens bien informés, ne se produiraient pas avant des années, voire des décennies.

Bien que nous puissions nous engager dans l'humour de potence sur notre besoin d'accueillir nos seigneurs robots, il n'y a aucun risque réel que ces systèmes eux-mêmes posent le genre de risque dont Hawking parlait. AlphaGo pourrait battre tous les joueurs humains de Go à partir de maintenant jusqu'à la mort par la chaleur de l'Univers, mais demandez-lui les conditions météorologiques actuelles et il manque l'intelligence d'organismes même unicellulaires qui réagissent aux changements de température.

Ce à quoi nous pensons lorsque nous parlons d'une IA dangereuse, c'est ce que les informaticiens appellent une Intelligence Générale Artificielle (AGI), un système artificiel qui émule complètement l'esprit humain et est aussi intelligent qu'un être humain dans n'importe quel domaine de la connaissance, sauf qu'il peut penser des milliards de fois plus vite que nous le pouvons. C'est ce que les films ont tendance à décrire comme des Skynets incroyablement dangereux déterminés à anéantir l'humanité, mais aussi terrifiant que cela puisse paraître, ce n'est pas la vraie préoccupation.

Aussi menaçant que ce système puisse paraître, nous ne verrons probablement jamais une AGI voir le jour. La vraie préoccupation est de savoir ce qui se trouve au-delà de l'AGI.

Construire au-delà de l'intelligence au niveau humain

Le problème avec le développement de l'AGI au sens traditionnel est qu'il est impossible de programmer un arbre de décision pour chaque question qu'une AGI devrait résoudre. Il y aura toujours quelque chose pour lequel il est appelé à faire et pour lequel il n'est tout simplement pas programmé, comme demander à AlphaGo la météo.

Les humains sont constamment confrontés à ce défi et c'est notre capacité à apprendre et à former de nouvelles connexions dans notre cerveau qui nous rend capables d'intelligence sophistiquée et de résolution de problèmes. Si nous ne savons pas comment résoudre un problème, nous pouvons l’analyser et trouver une réponse. C'est cette capacité que nous commençons tout juste à développer pour devenir les systèmes d'IA les plus avancés que nous ayons et c'est vraiment un truc de l'âge de pierre dans le grand schéma des choses.

Pour vraiment atteindre l'AGI, un système a besoin d'un outil clé que les humains tiennent pour acquis, en grande partie parce qu'il est automatique. Il doit être capable de réécrire sa programmation pour se rendre plus intelligent, comme la biologie humaine recâblera automatiquement le cerveau pour apprendre de nouvelles choses. C'est là que les implications et les préoccupations concernant l'intelligence artificielle, les véritables préoccupations scientifiques plutôt que la version hollywoodienne, commencent à prendre forme.

Supposons que nous programmions un système qui pourrait réécrire sa propre programmation pour devenir plus intelligent dans n'importe quel sujet, compétence ou capacité dont les humains sont capables. Au début, ce ne serait pas du tout très intelligent, mais chaque raffinement successif améliorerait à son tour sa capacité à s’améliorer. Chaque étape minuscule et incrémentielle s'appuiera sur la dernière et augmentera de façon exponentielle.

Il viendra un moment dans ce processus où le système cessera d'être une AFI. Comme un solide se sublimant dans son état gazeux, cet AFI semblerait passer entièrement AGI alors que sa croissance en intelligence devient explosive, un moment que l'autorité renommée de l'IA Nick Bostrom appelle l'ASI Lift-off. Il est littéralement au-delà de notre capacité d'imaginer à quoi ressemble vraiment ce type d'intelligence.

Ne pouvons-nous pas simplement débrancher une superintelligence artificielle?

C'est généralement la réponse la plus courante du public lorsqu'il pense à une IA fugitive de style Skynet. Débranchez-le simplement ou quelque chose d'aussi banal que si une superintelligence artificielle était un modem qui devait être réinitialisé. Nous savons déjà que cela ne fonctionnera pas, de la même manière que vous ne pouvez pas supprimer un virus informatique ou arrêter sa propagation en arrêtant un ordinateur infecté. Une fois que l'infection est là, il est trop tard.

Si un virus peut s'incorporer dans un système pour résister à la suppression ou se copier et infecter d'autres systèmes avant même que nous sachions ce qui se passe, une super-intelligence artificielle serait infiniment plus difficile à supprimer. Pire, avec quelque chose d'aussi intelligent, il pourrait découvrir des moyens de se préserver que l'on penserait complètement impossibles car nous manquons d'intelligence pour savoir comment l'accomplir, comme essayer de concevoir la physique d'un avion tout en ayant la capacité cérébrale d'un babouin .

Nous pourrions avoir l'air de fermer une superintelligence artificielle uniquement pour la voir réapparaître à l'autre bout du monde comme par magie et nous ne saurions jamais comment elle a pu y arriver.

Alors pourquoi le faire du tout?

C'est la question que nous nous posons naturellement, mais le problème est qu'il n'y a pas de moyen réel de développer un système qui représente même un pourcentage significatif de l'AGI qui ne nécessite pas de donner le contrôle de la croissance et du développement du système à l'IA elle-même, le développement de notre propre intelligence est une fonction automatique de la formation par notre cerveau de nouvelles connexions neuronales.

Si nous voulons aller au-delà des AFI rudimentaires que nous avons actuellement, nous devons supposer qu'une superintelligence artificielle est aussi inévitable que les armes nucléaires étaient inévitables après la division de l'atome pour utiliser la fission nucléaire comme source d'énergie. En fin de compte, le seul moyen d'empêcher l'émergence d'une superintelligence artificielle est d'arrêter tout développement ultérieur de l'intelligence artificielle, ce qui ne semble pas probable ni même possible à ce stade.

Tout comme une superintelligence artificielle a un potentiel infini de dommages, elle peut tout aussi facilement être bénéfique, du moins pour ses créateurs. Si vous avez deux nations adverses, comment une nation pourrait-elle confier à l'autre un système aussi puissant? Tout comme le lancement de Spoutnik par l'URSS a fait basculer le programme spatial américain naissant, le développement de l'IA est déjà suffisamment avancé pour que personne ne veuille prendre la deuxième place dans la course à l'IA. L'inconvénient de prendre du retard est tout simplement trop important.

Si les incitations sont plus importantes du côté du développement d'IA plus sophistiquées que le prochain, alors une course aux armements de l'IA est inévitable, et comme nous l'avons déjà vu, il n'y a pas de route vers l'AGI qui ne produise pas d'ASI presque immédiatement après. Donc, si son émergence est presque garantie, plus nous recherchons et développons l'intelligence artificielle, alors vous êtes encore plus incité à être celui qui la développe en premier. De cette façon, vous avez les meilleures chances que la superintelligence soit bienveillante envers vous, ou du moins pas hostile.

Bienvenue dans le dilemme du prisonnier de l'intelligence artificielle.

Devrions-nous craindre la superintelligence artificielle?

Bien sûr.

Comme pour tout développement technologique, il y a toujours des conséquences inattendues, et une fois que nous avons une superintelligence artificielle, il n'y a pas de retour en arrière.

Mais nous devons nous rappeler qu’il est dans notre nature de voir la menace qu’un tel système représente parce que nous sommes déterminés par l’évolution à détecter le danger et à l’éviter. Quelque chose d'aussi puissant pourrait en effet décider, et aurait probablement le pouvoir, d'exterminer toute vie humaine si son objectif était de préserver la vie globale de la planète. La plus grande menace pour la vie sur Terre est la civilisation humaine, après tout.

Mais, s'il avait un tel pouvoir, il aurait tout autant de pouvoir pour prévenir ou même inverser le changement climatique, et c'est là que réside le choix que l'humanité doit faire.

Tout comme les inconvénients potentiels d'un ASI sont infinis, il est tout aussi impossible de limiter le bien que quelque chose comme cela peut accomplir. Quoi que nous pensons, un ASI a le potentiel d'en faire plus. Le changement climatique, l'éradication de la maladie, la fin du besoin et de la famine, la fin de la mort elle-même et même plus rapide que le voyage de la lumière vers des galaxies lointaines sont tout aussi concevables - et peut-être même plus probables - le résultat d'un ASI que l'immortel , monstre dictatorial malveillant contre lequel Elon Musk met en garde.

Nous avons toutes les raisons de croire qu'en fin de compte, un ASI fonctionnera à notre avantage. Chaque avancée technologique a un coût, mais la civilisation humaine a progressé grâce à elle. En fin de compte, les êtres humains ont de solides antécédents en matière de technologie. Oui, nous pouvons produire des armes d'une incroyable destructivité, mais nous pouvons également éradiquer la variole et la polio. Nous avons largement vaincu la famine telle qu'elle est et même les guerres sont en déclin constant.

Si notre avenir ressemble à notre passé, nous pouvons être optimistes à juste titre quant à l'avenir de l'intelligence artificielle. Une superintelligence artificielle sera alors ce que nous en ferons, tout comme les enfants sont plus que le simple produit biologique de leurs parents, il est donc essentiel que nous décidions en tant que civilisation quelle sorte de superintelligence artificielle nous souhaitons créer.


Voir la vidéo: Pour Ridley Scott, si une intelligence artificielle découvre les émotions, on est foutus (Novembre 2021).