Vidéo : les scientifiques du MIT rendent le pilote automatique plus humain

Créer des voitures autonomes capables de prendre des décisions semblables à celles des humains est un objectif de longue date d'entreprises comme Waymo, GM Cruise, Uber et d'autres. Intel Mobileye propose un modèle mathématique Responsibility-Sensitive Safety (RSS), que la société décrit comme une approche de « bon sens » caractérisée par la programmation du pilote automatique pour qu'il se comporte d'une « bonne » manière, par exemple en donnant la priorité aux autres voitures. . D'autre part, NVIDIA développe activement Safety Force Field, une technologie de prise de décision basée sur un système qui surveille les actions dangereuses des usagers de la route environnants en analysant les données des capteurs du véhicule en temps réel. Aujourd'hui, un groupe de scientifiques du Massachusetts Institute of Technology (MIT) s'est joint à cette recherche et a proposé une nouvelle approche basée sur l'utilisation de cartes de type GPS et de données visuelles obtenues à partir de caméras installées sur la voiture afin que le pilote automatique puisse naviguer sur des terrains inconnus. des routes semblables à une personne.

Vidéo : les scientifiques du MIT rendent le pilote automatique plus humain

Les gens sont exceptionnellement doués pour conduire des voitures sur des routes qu’ils n’ont jamais empruntées auparavant. Nous comparons simplement ce que nous voyons autour de nous avec ce que nous voyons sur nos appareils GPS pour déterminer où nous sommes et où nous devons aller. En revanche, les voitures autonomes ont beaucoup de mal à parcourir des tronçons inconnus de la route. Pour chaque nouvel emplacement, le pilote automatique doit analyser soigneusement le nouvel itinéraire, et souvent les systèmes de contrôle automatique s'appuient sur des cartes 3D complexes que les fournisseurs préparent à l'avance.

Dans un article présenté cette semaine à la Conférence internationale sur la robotique et l'automatisation, des chercheurs du MIT décrivent un système de conduite autonome qui « apprend » et se souvient des schémas décisionnels d'un conducteur humain lorsqu'il navigue sur les routes d'une petite zone urbaine en utilisant uniquement des données vidéo. des caméras et une simple carte de type GPS. Le pilote automatique formé peut alors conduire la voiture sans conducteur dans un tout nouvel endroit, simulant la conduite humaine.

Tout comme un humain, le pilote automatique détecte également toute divergence entre sa carte et les caractéristiques de la route. Cela aide le système à déterminer si sa position sur la route, ses capteurs ou sa carte sont incorrects afin de pouvoir corriger la trajectoire du véhicule.

Pour entraîner initialement le système, un opérateur humain a conduit une Toyota Prius automatisée équipée de plusieurs caméras et d'un système de navigation GPS de base pour collecter des données sur les rues de banlieue locales, y compris diverses structures routières et obstacles. Le système a ensuite conduit avec succès la voiture le long d’un itinéraire pré-planifié dans une autre zone boisée destinée à tester des véhicules autonomes.

"Grâce à notre système, vous n'avez pas besoin de vous entraîner à l'avance sur chaque route", explique l'auteur de l'étude Alexander Amini, étudiant diplômé du MIT. "Vous pouvez télécharger une nouvelle carte pour votre voiture afin de parcourir des routes jamais vues auparavant."

"Notre objectif est de créer une navigation autonome résiliente à la conduite dans de nouveaux environnements", ajoute la co-auteure Daniela Rus, directrice du Laboratoire d'informatique et d'intelligence artificielle (CSAIL). "Par exemple, si nous entraînons un véhicule autonome à rouler dans un environnement urbain comme les rues de Cambridge, le système doit également être capable de rouler en douceur dans une forêt, même s'il n'a jamais vu un tel environnement auparavant."

Les systèmes de navigation traditionnels traitent les données des capteurs via plusieurs modules configurés pour des tâches telles que la localisation, la cartographie, la détection d'objets, la planification de mouvements et la direction. Depuis des années, le groupe de Daniela développe des systèmes de navigation de bout en bout qui traitent les données des capteurs et contrôlent la voiture sans avoir besoin de modules spécialisés. Mais jusqu’à présent, ces modèles étaient utilisés uniquement pour voyager en toute sécurité sur la route, sans véritable objectif. Dans ce nouveau travail, les chercheurs ont affiné leur système de bout en bout pour le déplacement d'un objectif à une destination dans un environnement jusqu'alors inconnu. Pour ce faire, les scientifiques ont entraîné leur pilote automatique à prédire la distribution de probabilité complète de toutes les commandes de contrôle possibles à tout moment pendant la conduite.

Le système utilise un modèle d'apprentissage automatique appelé réseau neuronal convolutif (CNN), couramment utilisé pour la reconnaissance d'images. Pendant la formation, le système observe le comportement de conduite d'un conducteur humain. CNN établit une corrélation entre les virages du volant et la courbure de la route, qu'elle observe à travers des caméras et sur sa petite carte. En conséquence, le système apprend les commandes de direction les plus probables pour diverses situations de conduite, telles que les routes droites, les intersections à quatre voies ou les carrefours en T, les fourches et les virages.

"Au départ, à une intersection en T, une voiture peut tourner dans de nombreuses directions différentes", explique Rus. "Le modèle commence par réfléchir à toutes ces directions, et à mesure que CNN obtient de plus en plus de données sur ce que font les gens dans certaines situations sur la route, il verra que certains conducteurs tournent à gauche et d'autres à droite, mais personne ne va directement." . Tout droit est exclu comme direction possible, et le modèle conclut qu’aux carrefours en T, il ne peut se déplacer que vers la gauche ou la droite.

Pendant la conduite, CNN extrait également les caractéristiques visuelles de la route à partir des caméras, ce qui lui permet de prédire d'éventuels changements d'itinéraire. Par exemple, il identifie un panneau d'arrêt rouge ou une ligne brisée sur le bord de la route comme signe d'une intersection à venir. À chaque instant, il utilise la distribution de probabilité prédite des commandes de contrôle pour sélectionner la commande la plus correcte.

Il est important de noter que, selon les chercheurs, leur pilote automatique utilise des cartes extrêmement faciles à stocker et à traiter. Les systèmes de contrôle autonomes utilisent généralement des cartes lidar, qui occupent environ 4000 40 Go de données pour stocker uniquement la ville de San Francisco. Pour chaque nouvelle destination, la voiture doit utiliser et créer de nouvelles cartes, ce qui nécessite une énorme quantité de mémoire. En revanche, la carte utilisée par le nouvel Autopilot couvre le monde entier tout en n'occupant que XNUMX gigaoctets de données.

Pendant la conduite autonome, le système compare également en permanence ses données visuelles avec les données cartographiques et signale toute divergence. Cela aide le véhicule autonome à mieux déterminer sa position sur la route. Et cela garantit que la voiture reste sur le chemin le plus sûr, même si elle reçoit des informations d'entrée contradictoires : si, par exemple, la voiture roule sur une route droite sans virages et que le GPS indique qu'elle doit tourner à droite, la voiture savoir aller tout droit ou s'arrêter.

« Dans le monde réel, les capteurs échouent », explique Amini. "Nous voulons nous assurer que notre pilote automatique résiste aux diverses pannes de capteurs en créant un système capable de recevoir tous les signaux sonores tout en continuant à naviguer correctement sur la route."



Source: 3dnews.ru

Ajouter un commentaire