Divers

Un nouveau modèle d'entraînement aide les voitures autonomes à voir les angles morts de l'IA

Un nouveau modèle d'entraînement aide les voitures autonomes à voir les angles morts de l'IA

Depuis leur introduction il y a plusieurs années, les véhicules autonomes font lentement leur chemin sur la route, mais le public reste méfiant à leur égard malgré les avantages de sécurité indéniables qu'ils offrent au public.

Les constructeurs automobiles autonomes sont pleinement conscients du scepticisme du public. Chaque accident rend plus difficile la confiance du public et la crainte est que si les entreprises ne gèrent pas correctement le déploiement du véhicule autonome, le contrecoup pourrait fermer la porte à la technologie des voitures autonomes comme l'accident de Three Mile Island a arrêté le croissance des centrales nucléaires aux États-Unis dans les années 1970.

Rendre les véhicules autonomes plus sûrs qu'ils ne le sont déjà signifie identifier les cas auxquels les programmeurs n'auraient peut-être jamais pensé et auxquels l'IA ne répondra pas de manière appropriée, mais qu'un conducteur humain comprendra intuitivement comme une situation potentiellement dangereuse. Une nouvelle recherche issue d'un effort conjoint du MIT et de Microsoft pourrait aider à combler ce fossé entre l'apprentissage automatique et l'intuition humaine pour produire les véhicules autonomes les plus sûrs à ce jour.

Rassurer un public méfiant

Si l'hésitation du public n'était pas un facteur, chaque voiture sur la route serait remplacée par un véhicule autonome dans quelques années. Chaque camion serait désormais entièrement autonome et il n'y aurait plus de chauffeurs Uber ou Lyft, seulement des cabines de navette que vous commanderiez par téléphone et il se garerait en douceur sur le trottoir en quelques minutes sans chauffeur en vue.

Des accidents se produiraient et des gens en mourraient encore, mais selon certaines estimations, 90% des décès sur la route dans le monde pourraient être évités avec des véhicules autonomes. Les voitures autonomes peuvent avoir besoin de se recharger, mais elles n’ont pas besoin de dormir, de faire des pauses et elles sont résolument préoccupées par l’exécution des instructions de leur programmation.

Pour les entreprises qui dépendent du transport pour transporter des marchandises et des personnes d'un point A à un point B, le remplacement des chauffeurs par des voitures autonomes permet d'économiser sur la main-d'œuvre, les assurances et autres coûts accessoires liés à une main-d'œuvre humaine importante.

Les économies de coûts et les gains de sécurité sont tout simplement trop importants pour garder les humains sur la route et au volant.

Nous nous endormons, nous conduisons en état d'ébriété, nous sommes distraits ou nous sommes simplement mauvais au volant, et les conséquences sont à la fois coûteuses et mortelles. Un peu plus d'un million de personnes meurent chaque année sur les routes du monde entier et le passage au camionnage commercial autonome pourrait à lui seul réduire de moitié les coûts de transport pour certaines entreprises.

Pourtant, le public n'est pas convaincu et il devient plus sceptique à chaque rapport d'accident impliquant une voiture autonome.

Cas de bord: le talon d'Achille des voitures autonomes?

Que ce soit juste ou non, le fardeau de démontrer la sécurité des véhicules autonomes incombe à ceux qui préconisent la technologie des véhicules autonomes. Pour ce faire, les entreprises doivent s'efforcer d'identifier et de traiter les cas extrêmes qui peuvent causer des accidents très médiatisés qui réduisent la confiance du public dans une technologie par ailleurs sûre.

Que se passe-t-il lorsqu'un véhicule roule sur la route et qu'il repère un panneau d'arrêt endommagé par les intempéries, plié, déformé et fané? Bien qu'il s'agisse d'une situation manifestement rare - les services de transport auraient probablement retiré un tel panneau bien avant qu'il n'atteigne cet état horrible - les cas extrêmes sont exactement ce genre de situation.

Un cas de pointe est un événement à faible probabilité qui ne devrait pas se produire mais qui se produit dans le monde réel, exactement les types de cas que les programmeurs et les processus d'apprentissage automatique pourraient ne pas prendre en compte.

Dans un scénario réel, le véhicule autonome peut détecter le panneau et ne pas savoir qu’il s’agit d’un panneau d’arrêt. Il ne le traite pas comme tel et pourrait décider de franchir l'intersection à grande vitesse et de provoquer un accident.

Un conducteur humain peut également avoir du mal à identifier le panneau d'arrêt, mais c'est beaucoup moins probable pour les conducteurs expérimentés. Nous savons ce qu’est un panneau d’arrêt et s’il n’est pas complètement en ruine, nous saurons qu’il faut s’arrêter à l’intersection plutôt que de la traverser.

Ce type de situation est exactement ce que les chercheurs du MIT et de Microsoft se sont réunis pour identifier et résoudre, ce qui pourrait améliorer la sécurité des véhicules autonomes et, espérons-le, réduire les types d'accidents qui pourraient ralentir ou empêcher l'adoption de véhicules autonomes sur nos routes.

Modélisation à la périphérie

Dans deux articles présentés à la conférence sur les agents autonomes et les systèmes multi-agents de l'année dernière et à la prochaine conférence de l'Association for the Advancement of Artificial Intelligence, les chercheurs expliquent un nouveau modèle pour la formation de systèmes autonomes comme les voitures autonomes qui utilisent l'apport humain pour les identifier et les corriger. angles morts »dans les systèmes d'IA.

Les chercheurs exécutent l'IA à travers des exercices d'entraînement simulés comme les systèmes traditionnels, mais dans ce cas, un humain observe les actions de la machine et identifie le moment où la machine est sur le point de faire ou a fait une erreur.

Les chercheurs prennent ensuite les données d'entraînement de la machine et les synthétisent avec les commentaires de l'observateur humain et les placent dans un système d'apprentissage automatique. Ce système créera ensuite un modèle que les chercheurs pourront utiliser pour identifier les situations dans lesquelles l'IA manque d'informations critiques sur la façon dont elle devrait se comporter, en particulier dans les cas extrêmes.

«Le modèle aide les systèmes autonomes à mieux savoir ce qu’ils ne savent pas», selon Ramya Ramakrishnan, étudiante diplômée du laboratoire d’informatique et d’intelligence artificielle du MIT et auteur principal de l’étude.

«Souvent, lorsque ces systèmes sont déployés, leurs simulations entraînées ne correspondent pas au contexte réel [et] ils pourraient commettre des erreurs, telles que des accidents. L'idée est d'utiliser les humains pour combler ce fossé entre la simulation et le monde réel, de manière sûre, afin que nous puissions réduire certaines de ces erreurs.

Le problème survient lorsqu'une situation se produit, telle que le panneau d'arrêt déformé, dans lequel la majorité des cas sur lesquels l'IA a été formée ne reflète pas la condition du monde réel qu'elle aurait dû être formée à reconnaître. Dans ce cas, il a été formé à ce que les panneaux d'arrêt aient une certaine forme, couleur, etc. Il aurait même pu créer une liste de formes qui pourraient être des panneaux d'arrêt et sauraient s'arrêter pour ceux-ci, mais s'il ne peut pas identifier un panneau d'arrêt correctement, la situation pourrait se terminer en catastrophe.

«[B] e parce que les actions inacceptables sont beaucoup plus rares que les actions acceptables, le système finira par apprendre à prédire toutes les situations comme sûres, ce qui peut être extrêmement dangereux», déclare Ramakrishnan.

Répondre aux normes de sécurité les plus élevées

En montrant aux chercheurs où l'IA a des données incomplètes, les systèmes autonomes peuvent être rendus plus sûrs à la périphérie où des accidents de haut niveau peuvent se produire. S'ils peuvent le faire, nous pourrions arriver au point où la confiance du public dans les systèmes autonomes peut commencer à croître et le déploiement de véhicules autonomes peut véritablement commencer, ce qui nous rend tous plus sûrs.


Voir la vidéo: Faut-il prendre loption conduite autonome avec la Model 3? (Octobre 2021).