Download Free Conception Realisation Et Evaluation Dune Commande Robotique Interactive Et Dun Guide Haptique Interface Par La Technologie Realite Augmentee Dedies A Linteraction Physique Humain Robot Book in PDF and EPUB Free Download. You can read online Conception Realisation Et Evaluation Dune Commande Robotique Interactive Et Dun Guide Haptique Interface Par La Technologie Realite Augmentee Dedies A Linteraction Physique Humain Robot and write the review.

Depuis quelques décennies, nous témoignons une progression significative des systèmes interactifs tels que les robots agissant en coopération avec l'humain. Ces derniers ont fait leurs preuves dans l'amélioration de la compétitivité des industries. Ceci est rendu possible grâce à leur potentiel à augmenter les performances humaines et à favoriser une plus grande flexibilité tout en laissant le processus décisionnel à l'opérateur. Une telle amélioration est obtenue grâce à une synergie efficace entre l'intelligence des humains, leurs connaissances, leurs dextérités et la force des robots industriels, leurs endurances et leurs précisions. En outre, l'interactivité robotique permet d'assister les humains dans des tâches dangereuses et difficiles. De plus, elle permet d'améliorer et d'éviter les postures inadéquates, pouvant provoquer des douleurs musculo-squelettiques, grâce à un ordonnancement optimal des activités de production et de fabrication. Ainsi, ces deux avantages pourraient réduire le développement des troubles musculo-squelettiques (TMS). D'ailleurs, l'utilisation d'un robot dans une cellule de travail hybride, dans le but de remplacer une tâche répétitive caractérisée par une posture contraignante, pourrait avoir l'avantage de réduire le développement des TMS grâce à un partage adapté des activités de production. Par conséquent, les travaux de ce projet de recherche sont encadrés par une grande problématique qui est la réduction des TMS, dus à des postures contraignantes, grâce à un robot interactif. En effet, les symptômes dus aux TMS constituent, aujourd'hui, l'une des questions les plus préoccupantes en santé et en sécurité au travail du fait de leur forte prévalence et de leurs conséquences tant sur la santé des individus que sur le fonctionnement des entreprises. D'ailleurs, d'après les statistiques, près de 15 % de l'ensemble des travailleurs actifs, au Québec, ont un TMS de longue durée. Toutefois, l'ajout d'un robot possède ses défis : une mauvaise Interaction physique Humain-Robot (IpHR), via un contact direct entre le robot et l'humain à travers un système de captation (par exemple une poignée instrumentée d'un capteur d'efforts à six degrés de liberté), peut générer des vibrations qui demeurent une source d'inconfort pour les opérateurs. En effet, une augmentation de la rigidité structurelle du bras humain peut occasionner un mouvement vibratoire du robot expliqué par le déplacement des pôles (c.-àd. de la dynamique dominante) près de l'axe imaginaire. Ce projet de recherche comporte deux parties. La première traite de deux approches visant à satisfaire une interaction humain-robot plus intuitive et plus sécuritaire tout en détectant et en minimisant les vibrations mécaniques qui pourraient être générées lors d'une telle interaction. La première approche consiste à détecter et à minimiser les vibrations par un observateur de vibrations de type analyse statistique. Cette dernière a été réalisée avec un signal électrique prélevé par le biais de deux capteurs de force et de vitesse qui sont localisés sur un mécanisme robotique à un degré de liberté lors d'une IpHR dans un contexte réel. La deuxième approche, quant à elle, consiste à concevoir et à développer un second observateur de vibrations actif de type réseau de neurones artificiels dans le but de détecter et de minimiser, en temps réel, les vibrations lors d'une IpHR. Ces algorithmes seront optimisés et comparés pour des fins de mise en oeuvre pratique. La deuxième partie de ce projet de recherche traite d'une mise en oeuvre d'une commande d'un mécanisme robotique à quatre degrés de liberté avec un système haptique virtuel, composé de deux objets virtuels interfacés par la réalité augmentée (RA) grâce aux lunettes Epson Moverio BT-200. Ce système vise à assister et à faciliter les tâches d'assemblages en industrie, surtout dans le cas de la présence d'un obstacle situé dans le champ visuel entre l'opérateur et les pièces à assembler. L'interaction avec ce système virtuel a été introduite, dans un premier temps, par le biais d'un dispositif haptique (le PHANToM Omni) dans le but de tester la plateforme d'assemblage en réalité augmentée. Dans les travaux futurs, le PHANToM Omni sera remplacé par un mécanisme parallèle entraîné par des câbles afin de simuler différents types de robot industriel. Dans cette recherche, le PHANToM permettra de télé-opérer l'effecteur d'un robot industriel simulé dans Robotic Operating System (ROS).
Cette thèse présente la conception d'une interface haptique capable de rendre l'interaction physique humain-robot naturelle et intuitive. Il s'agit là d'un sujet d'étude très important avec l'avènement de la robotique collaborative et la présence toujours accrue des robots dans la vie de tous les jours. Les travaux présentés se concentrent sur l'approche macro-mini à titre d'interface haptique, plus particulièrement trois aspects importants lors de la conception d'un système macro-mini. Le premier chapitre permet d'apprendre à parler physiquement au robot (lui faire comprendre les intentions de l'humain) dans un contexte de déplacement collaboratif. Plus particulièrement, il consiste à comparer différentes méthodes pour traduire les déplacements (ou les intentions) de l'humain à un robot. Dans ce cas, des coquilles à faible impédance sont attachées sur les membrures d'un manipulateur sériel. L'humain interagit avec le robot en déplaçant ces coquilles. La réponse du robot est alors de se déplacer de façon à ce que ses membrures suivent les déplacements de la coquille qui leur est associée pour ainsi les conserver dans leur configuration neutre. Le déplacement d'une coquille par rapport à sa membrure est considéré comme une vitesse désirée de ladite membrure. Il s'agit donc de résoudre le problème cinématique inverse pour traduire le déplacement de la coquille en déplacement articulaire. Cependant, différentes stratégies peuvent être employées pour résoudre ce problème. Ce projet vise donc à comparer l'efficacité de ces méthodes. Pour y parvenir, une étude générale de ces méthodes est réalisée. Puis, un formalisme mathématique est décrit pour adapter ces méthodes à l'application présente. En effet, en fonction du type de coquille et de la membrure, tous les degrés de liberté ne sont pas nécessairement possibles. Ce formalisme mathématique permet de tenir compte de ces contraintes. Ensuite, des simulations sont réalisées pour observer le comportement des méthodes étudiées et un indice de performance est choisi pour les comparer. Ensuite, une fois que le robot est en mesure de comprendre efficacement les intentions humaines, le problème de conception consiste à déterminer comment détecter ses intentions à l'aide d'une interface et surtout, la taille que cette interface doit prendre pour bien parler. En d'autres mots, le second chapitre présente une analyse de l'impact du débattement d'un mécanisme mini actif sur la bande passante mécanique de mouvements possibles lors de la manipulation de charges lourdes. En effet, l'approche macro-mini utilise généralement un robot mini passif, ce qui fait que l'utilisateur ressent toute l'inertie de la charge. Lorsque la charge devient suffisamment lourde, il est nécessaire pour le mini d'appuyer l'utilisateur en fournissant une force pour conserver l'interaction naturelle. Ceci signifie que le mini doit être actionné, i.e., actif. Il est cependant important que le mini reste rétrocommandable pour le bon fonctionnement de l'approche macro-mini. Des modèles mathématiques du système sont donc présentés. Les contraintes relatives à l'application sont décrites ainsi que leur impact sur la bande passante. À l'aide d'un contrôleur simple, des simulations sont réalisées à l'aide des outils développés pour déterminer le débattement nécessaire du mini actif qui permet la bande passante désirée. Enfin, une interface haptique capable de reproduire une poignée de main naturelle et intuitive avec un robot est présentée. Ce chapitre peut être divisé en deux aspects, i.e., la main et le bras. Ici, la main est le robot mini et le bras, le robot macro. D'abord, un prototype de main robotique est conçu et fabriqué. Inspirée de l'anatomie humaine, cette main robotique possède une paume comprimable capable d'émuler celle de l'humain ainsi que trois doigts sous-actionnés. Un pouce passif, relié au niveau de compression de la paume, complète le tout. Le contrôle de la main se fait via une position avec rétroaction, et ce, pour chacun des deux actionneurs (un pour la paume, l'autre pour les trois doigts). Ensuite, la main robotique est montée sur un manipulateur sériel collaboratif (le Kuka LWR), le bras. Ce dernier est contrôlé en impédance autour d'une trajectoire harmonique dans un plan vertical. En fonction des paramètres de la trajectoire (amplitude, fréquence, coefficients d'amortissement et de raideur), ce prototype permet de conférer une personnalité active au robot. L'expérimentation faite auprès de sujets humains permet de déterminer les valeurs considérées plus naturelles pour les différents paramètres de la trajectoire ainsi que diverses pistes à explorer pour des travaux futurs.
La réalité augmentée (RA) est un paradigme informatique non conventionnel dans lequel l'utilisateur interagit naturellement avec des ordinateurs en visualisant des informations en 3D et en interagissant physiquement avec du contenu virtuel. L'insertion de contenu 3D dans l'environnement nécessite que l'appareil informatique mesure le monde qui nous entoure. Les capteurs sont cependant physiquement limités et renvoient des informations brutes incomplètes ou complexes. Distiller ces données en concepts plus abstraits est donc nécessaire pour permettre de raisonner sur des concepts tels que la géométrie ou l'interaction de la lumière avec la scène. Dans cette thèse, nous explorons une question critique dans le contexte de la RA : comment les caméras de qualité grand public et les approches basées sur les données peuvent-elles être combinées pour parvenir à un raisonnement 3D du monde pour les problèmes fondamentaux de la RA ? Nous répondons à cette affirmation en nous concentrant sur trois objectifs importants couramment rencontrés dans la plupart des applications de réalité augmentée. Tout d'abord, nous estimons une pose 3D robuste de diverses instances d'objets dans des séquences temporelles à l'aide d'une seule caméra RGB-D. Notre nouvelle méthode d'apprentissage par réseaux profond permet une estimation robuste et précise de la pose malgré la présence d'occlusion. De plus, nous améliorons la stratégie d'évaluation de suiveurs d'objets en six degrées de libertés avec une méthodologie méticuleuse et un nouvel ensemble de données. Nous démontrons que l'utilisation du système de coordonnées de l'objet estimé nous permet d'éffectuer le rendu de contenu virtuel sur des objets inanimés. Deuxièmement, nous détectons les articulations du haut du corps en 3D à l'aide d'un casque de réalité virtuelle muni de plusieurs caméras pour améliorer les interactions entre le contenu humain et virtuel. Notre méthode tire partie des multiples caméras à large champ de vision sur l'appareil pour estimer une position 3D précise des articulations du corps de l'utilisateur. L'architecture du réseau neuronal utilise explicitement la géométrie projective de chaque caméra pour estimer les caractéristiques 3D pouvant être utilisées lors de la régression des positions des différentes articulations ainsi que d'autres tâches telles que la segmentation du corps. Nos expériences démontrent que l'utilisation de sources de supervision faibles améliore la précision du suiveur tout en permettant de collecter des données qui ne contiennent pas de position d'articulation 3D en vérité terrain. Enfin, nous proposons une méthode pour raisonner sur des conditions de lumière variant dans l'espace à partir d'une seule image couleur. Estimer uniquement l'éclairage global n'est pas précis lorsque les sources lumineuses sont proches du sujet et lorsque les objets de la scène occultent les sources lumineuses, un scénario courant dans les scènes d'intérieur. Notre méthode prend une image couleur et une coordonnée d'image 2D comme entrée pour estimer une représentation harmonique sphérique de la lumière à ce point de la scène. Nous montrons que les prédictions sont cohérentes avec les sources de lumière 3D et l'occlusion. La méthode est également une solution en temps réel en utilisant une architecture légère et des harmoniques sphériques pour effectuer des rendus rapidement. Chacun de ces objectifs est soutenu par des expériences approfondies et des analyses de résultats et, espérons-le, aide à combler le fossé vers de meilleures expériences utilisateur en RA.
Cette thèse propose une méthode de suivi 3D temps réel, à partir d'un système de vision monoculaire et d'un modèle CAO de l'environnement. Elle permet d'estimer la pose entre la caméra et son environnement, grâce à une relation non linéaire entre des primitives visuelles extraites de l'image, et la projection de l'objet 3D sur l'image. Les primitives locales sont suivies par la méthode des Éléments de Contour en Mouvement. Ces primitives, combinées au modèle 3D, sont ensuite reliées à la pose par des matrices d'interaction de type point-à-courbe. Afin de prendre en compte des données erronées, une loi de commande statistiquement robuste, basée sur la M-estimation, est de plus proposée. La méthode de suivi est appliquée à la réalité augmentée et à l'asservissement visuel. Enfin, l'approche est étendue au cas des objets 3D non-rigides, dont les liaisons mécaniques (prismatique, rotoïde, hélicoïdale, ...) sont décrites dans le modèle CAO. Une représentation minimale de l'état de l'objet est obtenue par le formalisme d'Ensemble Cinématique, approche originale basée sur des contraintes de vélocité. Celle-ci permet alors de suivre efficacement tout objet articulé.
Les systèmes simples et les systèmes plus évolués tels que les robots aident l'être humain à accomplir plusieurs tâches depuis fort longtemps. Dans certains cas, le système en question remplace carrément l'humain alors que dans d'autres, le système agit en coopération avec celui-ci. Dans le dernier cas, le système représente plus un outil servant à augmenter les performances ou bien à éviter des tâches ingrates. L'avantage principal de cette augmentation humaine est de laisser à l'opérateur une certaine latitude dans le processus décisionnel de la tâche. Les forces propres aux humains et aux robots sont donc combinées afin d'obtenir une synergie, c'est-à-dire d'obtenir un meilleur système que la somme de ses composantes. Cependant, accomplir des tâches de coopération complexes de manière intuitives représente un défi de taille. Alors qu'auparavant les robots étaient isolés et donc conçus et programmés en conséquence, la nouvelle génération de robots doit être capable de comprendre son environnement et les intentions de l'humain, et d'y répondre adéquatement et de manière sécuritaire, intuitive, conviviale et ergonomique. Ceci apporte de nombreux débouchés dans différents domaines tels que la manutention, l'assemblage manufacturier, la réadaptation physique, la chirurgie, l'apprentissage via des simulations haptiques, l'aide aux personnes handicapées et bien d'autres. Cette thèse comporte trois parties. La première traite de la commande des robots d'interaction physique. L'approche pour parvenir à une commande intuitive, les bonnes pratiques, un algorithme d'interaction s'adaptant aux intentions de l'humain et l'adaptation d'une commande par couple pré-calculé à l'interaction humain-robot sont présentés. La deuxième partie traite de systèmes mains sur la charge qui sont plus intuitifs à utiliser pour l'opérateur. Le développement de ces systèmes comprend des innovations mécaniques et de commande avancées. La troisième partie traite finalement d'éléments de sécurité. Elle présente d'abord le développement d'un algorithme d'observation et de contrôle des vibrations et ensuite le développement d'un capteur détectant à distance la proximité humaine. Cette thèse se propose d'apporter plusieurs contributions, tant dans un esprit scientifique que pour des applications industrielles requérant des réponses immédiates.
Cette thèse présente deux nouvelles architectures de commande pour les interactions physiques humain-robot (pHRIs). Ces architectures sont spéciquement développées dans une vision d'implantation en industrie pour les manipulations d'assemblage. En effet, deux types de robots collaboratifs adaptés à dfférentes contraintes de l'industrie et ayant des interfaces d'interactions physiques différentes sont étudiés en utilisant chacun leur propre architecture de commande. Le premier robot collaboratif développé est un manipulateur entièrement actionné permettant des pHRIs dans son espace libre, c.-à-d., des interactions unilatérales, et des pHRIs lorsque ses mouvements sont contraints par un environnement quelconque, c.-à-d., des interactions bilatérales. Les interactions de l'humain peuvent s'effectuer sur n'importe quelles parties du robot grâce aux capteurs de couples dans les articulations. Cependant, si une amplication des forces de l'humain sur l'environnement est désirée, alors il est nécessaire d'utiliser le capteur d'efforts supplémentaire attaché au robot. Ceci permet à la commande, en combinant les lectures du capteur d'efforts à l'effecteur, d'utiliser le ratio des forces appliquées indépendamment par l'opérateur et par l'environnement an de générer l'amplication désirée. Cette loi de commande est basée sur l'admittance variable qui a déjà démontré ses bénéces pour les interactions unilatérales. Ici, l'admittance variable est adaptée aux interactions bilatérales an d'obtenir un seul algorithme de commande pour tous les états. Une loi de transition continue peut alors être dénie an d'atteindre les performances optimales pour chaque mode d'interaction qui, en fait, nécessitent chacun des valeurs de paramètres spéciques. Le cheminement et les résultats pour arriver à cette première architecture de commande sont présentés en trois étapes. Premièrement, la loi de commande est implémentée sur un prototype à un degré de liberté (ddl) an de tester le potentiel d'amplication et de transition, ainsi que la stabilité de l'interaction. Deuxièmement, un algorithme d'optimisation du régulateur pour les interactions bilatérales avec un robot à plusieurs ddls est développé. Cet algorithme vérie la stabilité robuste du système en utilisant l'approche des valeurs singulières structurées (- analysis), pour ensuite faire une optimisation des régulateurs stables en fonction d'une variable liée à la conguration du manipulateur. Ceci permet d'obtenir une loi de commande variable qui rend le système stable de façon robuste en atteignant des performances optimales peu iii importe la conguration des articulations du robot. La loi de commande trouvée utilise un séquencement de gain pour les paramètres du régulateur par admittance durant les interactions bilatérales. La stabilité et la performance du système sont validées avec des tests d'impact sur différents environnements. Finalement, la loi de commande en admittance variable optimale est implémentée et validée sur un robot manipulateur à plusieurs ddls (Kuka LWR 4) à l'aide de suivis de trajectoire pour des interactions unilatérales et bilatérales. Le deuxième robot collaboratif développé est un manipulateur partiellement actif et partiellement passif. L'architecture mécanique du robot est appelée macro-mini. Tous les degrés de liberté actionnés faisant partie du macro manipulateur sont doublés par les articulations passives du mini manipulateur. Le robot est alors sous-actionné. L'opérateur humain interagit uniquement avec le mini manipulateur, et donc, avec les articulations passives ce qui élimine tous délais dans la dynamique d'interaction. Ce robot collaboratif permet de dénir une loi de commande qui génère une très faible impédance lors des interactions de l'opérateur, et ce, même pour des charges utiles élevées. Malgré que des amplications de force ne peuvent être produites, les interactions bilatérales ont une stabilité assurée peu importe la situation. Aussi, les modes coopératif et autonome du robot utilisent les mêmes valeurs de paramètres de commande ce qui permet une transition imperceptible d'un à l'autre. La nouvelle loi de commande est comparée sur plusieurs aspects avec la commande en admittance variable précé- demment développée. Les résultats démontrent que cette nouvelle loi de commande combinée à l'architecture active-passive du macro-mini manipulateur, appelé uMan, permet des interactions intuitives et sécuritaires bien supérieures à ce qu'un système entièrement actionné peut générer. De plus, pour l'assistance autonome, une détection de collision avancée et une plani cation de trajectoire adaptée à l'architecture du robot sont développées. Des validations expérimentales sont présentées an d'évaluer la facilité à produire des manipulations nes, de démontrer la sécurité du système et d'établir la viabilité du concept en industrie.
Frank Popper traces the development of immersive, interactive new media art from its antecedents through today's digital, multimedia, & networked art.