Download Free Adaptation Des Modeles De Langage Dans Le Cadre Du Dialogue Homme Machine Book in PDF and EPUB Free Download. You can read online Adaptation Des Modeles De Langage Dans Le Cadre Du Dialogue Homme Machine and write the review.

La modélisation statistique de la parole spontanée dans la cadre d'une application de dialogue oral homme-machine doit s'accommoder d'une faible quantité de données d'apprentissage. L'utilisation de classes de mots se révèle alors bénéfique à plusieurs titres. Le premier intérêt est la réduction du nombre de paramètres mais cette thèse contribue à montrer que les classes peuvent permettre en outre de résoudre des problèmes plus larges de robustesse et d'adaptation des modèles de langage liés à l'évolutivité d'un systéme de dialogue. Ainsi, le présent travail porte à la fois sur la construction des classes de mots et sur l'exploitation qui peut en être faite. La seule utilisation de classes a priori n'est pas souhaitable pour modéliser la parole spontanée dont les particularismes dépassent bien souvent le cadre d'une description a priori. Les classes de mots construites automatiquement peuvent quant à elles capturer ces particularités mais les algorithmes classiques n'exploitent que des informations contextuelles extraites des données et souffrent donc du manque de données d'apprentissage. Cette thèse propose une voie médiane où les informations contextuelles et les informations a priori sont utilisées conjointement pour la construction des classes. Un nouveau cadre théorique est défini dont le principe est de pallier le manque de données par une exploitation accrue des données disponibles. Il en résulte des classes plus homogènes, pouvant refléter des propriétés d'ordre syntaxique ou sémantique selon les informations utilisées, tout en demeurant bien adaptées à la modélisation de la parole spontanée. Grâce à ces classes, le problème de l'ajout d'un mot dans le lexique peut être résolu efficacement
Le dialogue entre un homme et une machine n’est pas encore similaire au dialogue naturel entre deux humains. Des techniques issues de plusieurs disciplines sont appliquées avec une habileté croissante, pour une fluidité et un réalisme en progrès. Analyse linguistique, résolution des références, identification des actes de dialogue, des intentions de l’utilisateur, décision de la réaction du système et du message à produire en retour : autant d’étapes de traitement caractérisées chacune par des théories propres et des ressources spécifiques. Cet ouvrage synthétise les principaux problèmes posés par chaque étape de conception d’un système de dialogue homme-machine tout en proposant plusieurs pistes pour suivre la voie d’un dialogue en langage naturel. Il se fonde sur les expériences de recherche et les développements récents, avec des préoccupations recoupant celles des domaines de l’intelligence artificielle, du traitement automatique des langues, des interfaces homme-machine, comme les interfaces multimodales ou multimédias.
Le but de cet ouvrage est de faire le point sur la communication homme-machine, en se plaçant dans le champ pluridisciplinaire des sciences cognitives, et en insistant plus particulièrement sur les rôles respectifs de l'informatique et de la psychologie cognitive. Les problèmes de fond posés par l'utilisation de la langue par un humain qui communique avec une machine sont mis en lumière, et les auteurs ont donné une nette priorité aux aspects de communication par rapport aux approches théoriques de la linguistique.
Les systèmes de dialogues oraux Homme-Machine sont des interfaces entre un utilisateur et des services. Ces services sont présents sous plusieurs formes : services bancaires, systèmes de réservations (de billets de train, d'avion), etc. Les systèmes de dialogues intègrent de nombreux modules notamment ceux de reconnaissance de la parole, de compréhension, de gestion du dialogue et de synthèse de la parole. Le module qui concerne la problématique de cette thèse est celui de compréhension de la parole. Le processus de compréhension de la parole est généralement séparé du processus de transcription. Il s'agit, d'abord, de trouver la meilleure hypothèse de reconnaissance puis d'appliquer un processus de compréhension. L'approche proposée dans cette thèse est de conserver l'espace de recherche probabiliste tout au long du processus de compréhension en l'enrichissant à chaque étape. Cette approche a été appliquée lors de la campagne d'évaluation MEDIA. Nous montrons l'intérêt de notre approche par rapport à l'approche classique. En utilisant différentes sorties du module de RAP sous forme de graphe de mots, nous montrons que les performances du décodage conceptuel se dégradent linéairement en fonction du taux d'erreurs sur les mots (WER). Cependant nous montrons qu'une approche intégrée, cherchant conjointement la meilleure séquence de mots et de concepts, donne de meilleurs résultats qu'une approche séquentielle. Dans le souci de valider notre approche, nous menons des expériences sur le corpus MEDIA dans les mêmes conditions d'évaluation que lors de la campagne MEDIA. Il s'agit de produire des interprétations sémantiques à partir des transcriptions sans erreur. Les résultats montrent que les performances atteintes par notre modèle sont au niveau des performances des systèmes ayant participé à la campagne d'évaluation. L'étude détaillée des résultats obtenus lors de la campagne MEDIA nous permet de montrer la corrélation entre, d'une part, le taux d'erreur d'interprétation et, d'autre part, le taux d'erreur mots de la reconnaissance de la parole, la taille du corpus d'apprentissage, ainsi que l'ajout de connaissance a priori aux modèles de compréhension. Une analyse d'erreurs montre l'intérêt de modifier les probabilités des treillis de mots avec des triggers, un modèle cache ou d'utiliser des règles arbitraires obligeant le passage dans une partie du graphe et s'appliquant sur la présence d'éléments déclencheurs (mots ou concepts) en fonction de l'historique. On présente les méthodes à base de d'apprentissage automatique comme nécessairement plus gourmandes en terme de corpus d'apprentissage. En modifiant la taille du corpus d'apprentissage, on peut mesurer le nombre minimal ainsi que le nombre optimal de dialogues nécessaires à l'apprentissage des modèles de langages conceptuels du système de compréhension. Des travaux de recherche menés dans cette thèse visent à déterminer quel est la quantité de corpus nécessaire à l'apprentissage des modèles de langages conceptuels à partir de laquelle les scores d'évaluation sémantiques stagnent. Une corrélation est établie entre la taille de corpus nécessaire pour l'apprentissage et la taille de corpus afin de valider le guide d'annotations. En effet, il semble, dans notre cas de l'évaluation MEDIA, qu'il ait fallu sensiblement le même nombre d'exemple pour, d'une part, valider l'annotation sémantique et, d'autre part, obtenir un modèle stochastique « de qualité » appris sur corpus. De plus, en ajoutant des données a priori à nos modèles stochastiques, nous réduisons de manière significative la taille du corpus d'apprentissage nécessaire pour atteindre les même scores du système entièrement stochastique (près de deux fois moins de corpus à score égal). Cela nous permet de confirmer que l'ajout de règles élémentaires et intuitives (chiffres, nombres, codes postaux, dates) donne des résultats très encourageants. Ce constat a mené à la réalisation d'un système hybride mêlant des modèles à base de corpus et des modèles à base de connaissance. Dans un second temps, nous nous appliquons à adapter notre système de compréhension à une application de dialogue simple : un système de routage d'appel. La problématique de cette tâche est le manque de données d'apprentissage spécifiques au domaine. Nous la résolvons en partie en utilisant divers corpus déjà à notre disposition. Lors de ce processus, nous conservons les données génériques acquises lors de la campagne MEDIA et nous y intégrons les données spécifiques au domaine. Nous montrons l'intérêt d'intégrer une tâche de classification d'appel dans un processus de compréhension de la parole spontanée. Malheureusement, nous disposons de très peu de données d'apprentissage relatives au domaine de la tâche. En utilisant notre approche intégrée de décodage conceptuel, conjointement à un processus de filtrage, nous proposons une approche sous forme de sac de mots et de concepts. Cette approche exploitée par un classifieur permet d'obtenir des taux de classification d'appels encourageants sur le corpus de test, alors que le WER est assez élevé. L'application des méthodes développées lors de la campagne MEDIA nous permet d'améliorer la robustesse du processus de routage d'appels.
Le terme promotion de la santé en Afrique, près de 30 ans après l'adoption de la Charte d'Ottawa, continue d'avoir des connotations complètement hors du sens que lui confère cette charte. Cela n'est pas étonnant quand on sait que la notion de santé dans ce contexte africain équivaut à la lutte contre la maladie à travers les soins de santé dispensés par des professionnels de la santé dans des formations sanitaires et les hôpitaux. L'évolution que connait le continent depuis quelques décennies est de donner un peu plus de place à la communauté à travers les relais communautaires dans une participation communautaire vidée de son contenu, car le pouvoir n'est jamais passé entre les mains des communautés.C'est au vu de tout ceci que le présent ouvrage à sa raison d'être pour expliquer les fondements de l'autonomisation communautaire et de la promotion de la santé avec leur importance pour la région africaine en proie aux mauvais indicateurs de santé comparativement aux autres régions du monde.
The creation of new lexical units and patterns has been studied in different research frameworks, focusing on either system-internal or system-external aspects, from which no comprehensive view has emerged. The volume aims to fill this gap by studying dynamic processes in the lexicon – understood in a wide sense as not being necessarily limited to the word level – by bringing together approaches directed to morphological productivity as well as approaches analyzing general types of lexical innovation and the role of discourse-related factors. The papers deal with ongoing changes as well as with historical processes of change in different languages and reflect on patterns and specific subtypes of lexical innovation as well as on their external conditions and the speakers’ motivations for innovating. Moreover, the diffusion and conventionalization of innovations will be addressed. In this way, the volume contributes to understanding the complex interplay of structural, cognitive and functional factors in the lexicon as a highly dynamic domain.
This book examines how the computer, as we currently know it, will be replaced by a new generation of technologies, moving computing off the desktop and ultimately integrating it with real world objects and everyday environments. It provides a unique combination of concepts, methods and prototypes of ubiquitous and pervasive computing reflecting the current interest in smart environments and ambient intelligence.
The articles collected in this volume from the two companion Arts Special Issues, "The Machine as Art (in the 20th Century)" and "The Machine as Artist (in the 21st Century)", represent a unique scholarly resource: analyses by artists, scientists, and engineers, as well as art historians, covering not only the current (and astounding) rapprochement between art and technology but also the vital post-World War II period that has led up to it; this collection is also distinguished by several of the contributors being prominent individuals within their own fields, or as artists who have actually participated in the still unfolding events with which it is concerned