Download Free Localisation Temps Reel Dun Robot Par Vision Monoculaire Et Fusion Multicapteurs Book in PDF and EPUB Free Download. You can read online Localisation Temps Reel Dun Robot Par Vision Monoculaire Et Fusion Multicapteurs and write the review.

Ce mémoire présente un système de localisation par vision pour un robot mobile circulant dans un milieu urbain. Pour cela, une première phase d'apprentissage où le robot est conduit manuellement est réalisée pour enregistrer une séquence vidéo. Les images ainsi acquises sont ensuite utilisées dans une phase hors ligne pour construire une carte 3D de l'environnement. Par la suite, le véhicule peut se déplacer dans la zone, de manière autonome ou non, et l'image reçue par la caméra permet de le positionner dans la carte. Contrairement aux travaux précédents, la trajectoire suivie peut être différente de la trajectoire d'apprentissage. L'algorithme développé permet en effet de conserver la localisation malgré des changements de point de vue importants par rapport aux images acquises initialement. Le principe consiste à modéliser les points de repère sous forme de facettes localement planes, surnommées patchs plan, dont l'orientation est connue. Lorsque le véhicule se déplace, une prédiction de la position courante est réalisée et la déformation des facettes induite par le changement de point de vue est reproduite. De cette façon la recherche des amers revient à comparer des images pratiquement identiques, facilitant ainsi leur appariement. Lorsque les positions sur l'image de plusieurs amers sont connues, la connaissance de leur position 3D permet de déduire la position du robot. La transformation de ces patchs plan est complexe et demande un temps de calcul important, incompatible avec une utilisation temps-réel. Pour améliorer les performances de l'algorithme, la localisation a été implémentée sur une architecture GPU offrant de nombreux outils permettant d'utiliser cet algorithme avec des performances utilisables en temps-réel. Afin de prédire la position du robot de manière aussi précise que possible, un modèle de mouvement du robot a été mis en place. Il utilise, en plus de la caméra, les informations provenant des capteurs odométriques. Cela permet d'améliorer la prédiction et les expérimentations montrent que cela fournit une plus grande robustesse en cas de pertes d'images lors du traitement. Pour finir ce mémoire détaille les différentes performances de ce système à travers plusieurs expérimentations en conditions réelles. La précision de la position a été mesurée en comparant la localisation avec une référence enregistrée par un GPS différentiel.
LES TRAVAUX PRESENTES DANS CE MEMOIRE TRAITE DE LA LOCALISATION D'UN ROBOT MOBILE DANS UN ENVIRONNEMENT INTERIEUR NON BALISE. TROIS TYPES DE CAPTEURS SONT UTILISES POUR DETERMINER LA POSITION DU ROBOT : UN ODOMETRE, UN SYSTEME DE VISION OMNIDIRECTIONNELLE ET UN SYSTEME TELEMETRIQUE ROTATIF. L'OBJECTIF DE CETTE ETUDE EST DE PERMETTRE A UN ROBOT DE SE DEPLACER EN TOUTE SECURITE D'UNE CONFIGURATION INITIALE A UNE CONFIGURATION FINALE DANS UN ENVIRONNEMENT PARTIELLEMENT CONNU. POUR CELA DEUX APPROCHES ONT ETE UTILISEES : LA FUSION DES DONNEES PROPRIOCEPTIVES ET EXTEROCEPTIVES ET LA COOPERATION ENTRE LES CAPTEURS EXTEROCEPTIFS. DANS UN PREMIER TEMPS UNE METHODE DE LOCALISATION BASEE SUR LA FUSION DES DONNEES ODOMETRIQUES ET DES DONNEES TELEMETRIQUES A ETE DEVELOPPEE ET TESTEE. L'ESTIMATION DE LA POSITION ET DE SON INCERTITUDE ASSOCIEE EST OBTENUE PAR FILTRAGE DE KALMAN. LES AMERS UTILISES POUR CETTE APPROCHE SONT LES PAROIS DU MILIEU D'EVOLUTION. DANS UN DEUXIEME TEMPS UNE METHODE DE LOCALISATION UTILISANT LA VISION OMNIDIRECTIONNELLE ET L'ODOMETRIE A ETE ELABOREE. LES ANGLES D'AZIMUT DES DIFFERENTS AMERS VERTICAUX DE L'ENVIRONNEMENT SONT EXTRAITS DU MODELE SENSORIEL POUR CALCULER LA CONFIGURATION DU ROBOT. CONTRAIREMENT A L'APPROCHE ADOPTEE PRECEDEMMENT POUR LA FUSION DES DONNEES, LE FILTRAGE DE KALMAN ETENDU EST DANS CE CAS EMPLOYE, A CAUSE DE LA NON LINEARITE DES EQUATIONS D'OBSERVATION. FINALEMENT, DANS UN TROISIEME TEMPS, UNE STRATEGIE VISANT A FAIRE COOPERER DEUX CAPTEURS EXTEROCEPTIFS, UN TELEMETRE LASER ROTATIF ET LE SYSTEME DE VISION OMNIDIRECTIONNELLE, A ETE MISE EN OEUVRE. CETTE METHODE PERMET D'OBTENIR UNE ESTIMATION ABSOLUE DE LA CONFIGURATION DU ROBOT QUI EST D'UNE PART PRECISE ET D'AUTRE PART ROBUSTE. EN OUTRE, UN ALGORITHME PERMETTANT DE METTRE A JOUR LA CARTE DE L'ENVIRONNEMENT DU ROBOT AU COURS DE SON DEPLACEMENT A ETE ELABOREE ET TESTE. CE MODULE D'INSERTION DE BALISES NATURELLES NON REPERTORIEES, PERMET AINSI AU ROBOT DE SE LOCALISER DANS DES ZONES DE L'ENVIRONNEMENT QUI NE SONT QUE PARTIELLEMENT CONNUES. CE SYSTEME DE LOCALISATION, BASE SUR UNE APPROCHE COOPERATIVE, PERMET A UN ROBOT DE MENER A BIEN DES MISSIONS DANS UN ENVIRONNEMENT INTERIEUR NON BALISE QUI N'EST QUE PARTIELLEMENT CONNU.
Les travaux présentés dans ce mémoire portent sur l'étude et la mise au point d'une méthode de localisation absolue pour robot mobile autonome évoluant dans un environnement de type intérieur dynamique. Cette méthode est basée sur l'exploitation de la complémentarité des informations délivrées par un système de perception mixte formé d'un télémètre laser 2D et d'un capteur de vision monoculaire. Notre contribution se situe essentiellement sur le plan méthodologique avec notamment : la mise au point d'une stratégie de perception active, la préposition d'une technique robuste de segmentation, la recherche de techniques décisionnelles utilisant une approche de type fusion de primitives, l'étude d'une technique d'identification d'amers environnementaux (de type arête verticale) et enfin la mise au point d'une procédure de localisation. La phase d'identification des amers, nécessaire à la localisation du robot, nécessite le recours à une procédure d'appariements entre arêtes segmentées et amers de référence. Une transformation invariante en translation et en rotation, appliquée sur l'ensemble des primitives, conduit à une simplification notable de cette procédure. L'identification consiste alors à réaliser une mise en correspondance entre triplets d'amers et triplets d'arêtes sur la base de 12 descripteurs invariants, puis entre amers et arêtes observées à partir des hypothèses formées. La localisation absolue du mobile est obtenue en définissant l'ensemble des positions compatibles avec les amers observés et délimitée par un polygone d'incertitude.
NOUS CONSIDERONS DANS CETTE THESE LE PROBLEME DE LA LOCALISATION D'UN ROBOT SE DEPLACANT DANS UN ENVIRONNEMENT DE CARACTERISTIQUES CONNUES. LA MESURE DES DEPLACEMENTS DU VEHICULE DONNE UNE ESTIMATION PRECISE A COURT TERME DE SA POSITION. CELLE-CI DERIVE CEPENDANT AU COURS DU TEMPS; NOUS AVONS ETUDIE LES CAUSES DE CE PHENOMENE ET EN AVONS DEDUIT UN MODELE QUI LE DECRIT. L'ESTIMATION DE POSITION EST CORRIGEE LORSQUE L'INCERTITUDE QUI LUI EST LIEE DEVIENT TROP IMPORTANTE. DANS CE BUT, DES OBJETS DE L'ENVIRONNEMENT, NON SPECIFIQUEMENT PLACES POUR LOCALISER UN ROBOT, SONT REPERES A L'AIDE D'UNE CAMERA ORIENTABLE; LEUR POSITION ET CARACTERISTIQUES ONT ETE PREALABLEMENT REPERTORIEES DANS UNE BASE DE DONNEES. LA METHODE PROPOSEE POUR IDENTIFIER UNE TAILLE BALISE CONSISTE A S'APPUYER AU MIEUX SUR LES CONNAISSANCES DISPONIBLES POUR PREVOIR LES IMAGES QU'IL EST POSSIBLE D'OBTENIR, ET PAR SUITE LEUR TRANSFORMEE DE HOUGH; LA MISE EN CORRESPONDANCE AVEC CELLE REELLEMENT OBTENUE EST AINSI FACILITEE. L'IDENTIFICATION D'UNE BALISE PRODUIT UNE MESURE D'AZIMUT. LES DONNEES ISSUES DE D'ODOMETRIE SONT COMBINEES AVEC CELLES TIREES DE LA VISION PAR LE BIAIS D'UN FILTRE DE KALMAN ETENDU. NOUS AVONS ETUDIE LE COMPORTEMENT THEORIQUE DU FILTRAGE ET MENE DES EXPERIMENTATIONS QUI NOUS PERMETTENT DE CONCLURE A LA VALIDITE DE L'APPROCHE RETENUE
Cette thèse concerne principalement l'intégration des fonctionnalités d'un système de vision avec celles d'un système robotique. Cette intégration apporte beaucoup d'avantages pour l'interaction d'un robot avec son environnement. Dans un premier temps, nous nous intéressons aux aspects de modélisation. Deux sujets liés à cette modélisation ont été traités : i) le calibrage caméra/pince et ii) la localisation caméra/objet. Pour le premier, nous proposons une méthode de calibrage non linéaire qui s'avère robuste en présence des erreurs de mesure ; pour le second, nous proposons une méthode linéaire très rapide et bien adaptée aux applications temps-réel puisqu'elle est basée sur des approximations successives par une projection para-perspective. Dans un deuxième temps, nous nous intéressons au contrôle visuel de robots. Nous adaptons la méthode "commande référencée capteur" à une caméra indépendante du robot asservi. De plus, dans le cas d'un positionnement relatif, nous montrons que le calcul de la position de référence ne dépend pas de l'estimation explicite des paramètres intrinsèques et extrinsèques de la caméra. Pour une tâche donnée, le problème de la commande peut alors se traduire sous la forme d'une régulation d'une erreur dans l'image. Nous montrons que la localisation temps-réel caméra/robot améliore le comportement dynamique de l'asservissement. Cette méthode de contrôle a été expérimentée dans la réalisation de tâches de saisie avec un robot manipulateur à six degrés de liberté. Toutes les méthodes proposées sont validées avec des mesures réelles et simulées.
L'objectif de cette thèse est de concevoir un système de perception stéréoscopique embarqué, permettant une navigation robotique autonome en environnement dynamique (i.e. comportant des objets mobiles). Pour cela, nous nous sommes imposé plusieurs contraintes : 1) Puisque l'on souhaite pouvoir naviguer en terrain inconnu et en présence de tout type d'objets mobiles, nous avons adopté une approche purement géométrique. 2) Pour assurer une couverture maximale du champ visuel nous avons choisi d'employer des méthodes d'estimation denses qui traitent chaque pixel de l'image. 3) Puisque les algorithmes utilisés doivent pouvoir s'exécuter en embarqué sur un robot, nous avons attaché le plus grand soin à sélectionner ou concevoir des algorithmes particulièrement rapides, pour nuire au minimum à la réactivité du système. La démarche présentée dans ce manuscrit et les contributions qui sont faites sont les suivantes. Dans un premier temps, nous étudions plusieurs algorithmes d'appariement stéréo qui permettent d'estimer une carte de disparité dont on peut déduire, par triangulation, une carte de profondeur. Grâce à cette évaluation nous mettons en évidence un algorithme qui ne figure pas sur les benchmarks KITTI, mais qui offre un excellent compromis précision/temps de calcul. Nous proposons également une méthode pour filtrer les cartes de disparité. En codant ces algorithmes en CUDA pour profiter de l'accélération des calculs sur cartes graphiques (GPU), nous montrons qu'ils s'exécutent très rapidement (19ms sur les images KITTI, sur GPU GeForce GTX Titan).Dans un deuxième temps, nous souhaitons percevoir les objets mobiles et estimer leur mouvement. Pour cela nous calculons le déplacement du banc stéréo par odométrie visuelle pour pouvoir isoler dans le mouvement apparent 2D ou 3D (estimé par des algorithmes de flot optique ou de flot de scène) la part induite par le mouvement propre à chaque objet. Partant du constat que seul l'algorithme d'estimation du flot optique FOLKI permet un calcul en temps-réel, nous proposons plusieurs modifications de celui-ci qui améliorent légèrement ses performances au prix d'une augmentation de son temps de calcul. Concernant le flot de scène, aucun algorithme existant ne permet d'atteindre la vitesse d'exécution souhaitée, nous proposons donc une nouvelle approche découplant structure et mouvement pour estimer rapidement le flot de scène. Trois algorithmes sont proposés pour exploiter cette décomposition structure-mouvement et l'un d'eux, particulièrement efficace, permet d'estimer très rapidement le flot de scène avec une précision relativement bonne. A notre connaissance, il s'agit du seul algorithme publié de calcul du flot de scène capable de s'exécuter à cadence vidéo sur les données KITTI (10Hz).Dans un troisième temps, pour détecter les objets en mouvement et les segmenter dans l'image, nous présentons différents modèles statistiques et différents résidus sur lesquels fonder une détection par seuillage d'un critère chi2. Nous proposons une modélisation statistique rigoureuse qui tient compte de toutes les incertitudes d'estimation, notamment celles de l'odométrie visuelle, ce qui n'avait pas été fait à notre connaissance dans le contexte de la détection d'objets mobiles. Nous proposons aussi un nouveau résidu pour la détection, en utilisant la méthode par prédiction d'image qui permet de faciliter la propagation des incertitudes et l'obtention du critère chi2. Le gain apporté par le résidu et le modèle d'erreur proposés est démontré par une évaluation des algorithmes de détection sur des exemples tirés de la base KITTI. Enfin, pour valider expérimentalement notre système de perception en embarqué sur une plateforme robotique, nous implémentons nos codes sous ROS et certains codes en CUDA pour une accélération sur GPU. Nous décrivons le système de perception et de navigation utilisé pour la preuve de concept qui montre que notre système de perception, convient à une application embarquée.