Download Free Methodes Doptimisation Globale Basees Sur Lanalyse Dintervalle Pour La Resolution De Problemes Avec Contraintes Book in PDF and EPUB Free Download. You can read online Methodes Doptimisation Globale Basees Sur Lanalyse Dintervalle Pour La Resolution De Problemes Avec Contraintes and write the review.

Le retour au premier plan de l'optimisation globale correspond à un besoin industriel. De nombreuses applications, que ce soit au niveau de la conception ou de l'exploitation se ramènent à la recherche d'optima n'entrant pas dans le cadre des hypothèses simplificatrices (convéxite et donc unicité, différentiabilité, existence de points stationnaires,...). C'est en partie le cas des exemples concrets étudiés : la conception de procédés chimiques et d'actionneurs électromécaniques. Les méthodes d'optimisation globale que nous avons étudiées, sont basées sur l'analyse d'intervalle, ce qui leur donne leur caractère déterministe. Elles permettent donc de trouver avec certitude l'optimum global ainsi que tous ses optimiseurs, quelle que soit la nature du problème : continu, mixte, avec ou sans contraintes, ... certes, de telles performances se payent en temps de calcul et en utilisation mémoire. Les algorithmes développés dans cette thèse ont pour but de réduire de facon considérable ces temps CPU et le flot de données stocké. Afin d'améliorer ces algorithmes de type branch and bound, de nouvelles méthodes d'encadrement de l'optimum global concernant les fonctions différentiables de plusieurs variables ont été proposées. Le procédé mis en oeuvre consiste à construire des hyperplans dont l'intersection fournit tout simplement une minoration de la fonction ; cette construction utilise les propriétés d'inclusion de l'analyse d'intervalle. L'intégration de ces méthodes au sein d'algorithmes de type branch and bound, permet d'améliorer de facon considérable leur convergence et de limiter l'effet de clusters. La découverte des optima globaux des deux problèmes semi-industriels traités ont démontré l'efficacité de tels algorithmes par rapport aux méthodes classiques (gain de 10% sur les optima). Dès lors, l'utilisation des nouvelles méthodes d'encadrement dans un tel cadre (problèmes mixtes avec contraintes) semble très prometteuse.
This book constitutes the refereed conference proceedings of the 18th International Conference on Principles and Practice of Constraint Programming (CP 2013), held in Uppsala, Sweden, in September 2013. The 61 revised papers presented together with 3 invited talks were carefully selected from 138 submissions. The scope of the conference is on all aspects of computing with constraints, including: theory, algorithms, environments, languages, models and systems, applications such as decision making, resource allocation, and agreement technologies.
This book constitutes the refereed proceedings of the 9th International Conference on High-Performance Computing and Networking, HPCN Europe 2001, held in Amsterdam, The Netherlands in June 2001. The 67 revised papers and 15 posters presented were carefully reviewed and selected from a total of almost 200 submissions. Among the areas covered are Web/grid applications of HPCN, end user applications, computational science, computer science, and Java in HPCN.
International journal devoted to pure and applied research on the use of scientific methods and information processing in business and industry. Articles may be in English or French.
L'optimisation est un des thèmes majeurs que le professeur Yves Cherruault développe dans son laboratoire (le MEDIMAT) depuis la fin des années 1970. Il a, en particulier, mis au point une technique d'optimisation globale, baptisée ALIENOR, qui permet de ramener la minimisation d'une fonction multivariables à celle d'une fonction d'une seule variable. Cette méthode originale est basée sur l'utilisation d'une transformation réductrice permettant de construire des courbes qui " a-densifient " l'espace Rn. Ces courbes " a-denses " ont un rapport avec les courbes qui " remplissent l'espace " (courbes de Péano, ... ) et avec les fractales. Les derniers développements associés à ces méthodes de type ALIENOR sont décrits. Des classes très générales de transformations réductrices sont proposées et l'on montre comment les méthodes d'optimisation peuvent servir à la résolution d'équations fonctionnelles de tous types. Deux applications fondamentales de l'optimisation sont également traitées, à savoir : - l'identification de modèles mathématiques, - le contrôle optimal de systèmes. Dans le cas de systèmes contrôlés, l'auteur montre comment l'utilisation de la méthode décompositionnelle d'Adomian (dont les grands principes sont rappelés) permet de se ramener à un problème d'optimisation classique. Notons enfin que les méthodes d'optimisation classiques sont aussi clairement et simplement détaillées dans cet ouvrage. Cet ouvrage sera un précieux outil pour les chercheurs et ingénieurs utilisant les méthodes d'optimisation ainsi que pour les étudiants scientifiques désireux de s'initier à ces techniques.
Une approche efficace pour la résolution de problèmes inverses consiste à définir le signal (ou l'image) recherché(e) par minimisation d'un critère pénalisé. Ce dernier s'écrit souvent sous la forme d'une somme de fonctions composées avec des opérateurs linéaires. En pratique, ces fonctions peuvent n'être ni convexes ni différentiables. De plus, les problèmes auxquels on doit faire face sont souvent de grande dimension. L'objectif de cette thèse est de concevoir de nouvelles méthodes pour résoudre de tels problèmes de minimisation, tout en accordant une attention particulière aux coûts de calculs ainsi qu'aux résultats théoriques de convergence. Une première idée pour construire des algorithmes rapides d'optimisation est d'employer une stratégie de préconditionnement, la métrique sous-jacente étant adaptée à chaque itération. Nous appliquons cette technique à l'algorithme explicite-implicite et proposons une méthode, fondée sur le principe de majoration-minimisation, afin de choisir automatiquement les matrices de préconditionnement. L'analyse de la convergence de cet algorithme repose sur l'inégalité de Kurdyka-L ojasiewicz. Une seconde stratégie consiste à découper les données traitées en différents blocs de dimension réduite. Cette approche nous permet de contrôler à la fois le nombre d'opérations s'effectuant à chaque itération de l'algorithme, ainsi que les besoins en mémoire, lors de son implémentation. Nous proposons ainsi des méthodes alternées par bloc dans les contextes de l'optimisation non convexe et convexe. Dans le cadre non convexe, une version alternée par bloc de l'algorithme explicite-implicite préconditionné est proposée. Les blocs sont alors mis à jour suivant une règle déterministe acyclique. Lorsque des hypothèses supplémentaires de convexité peuvent être faites, nous obtenons divers algorithmes proximaux primaux-duaux alternés, permettant l'usage d'une règle aléatoire arbitraire de balayage des blocs. L'analyse théorique de ces algorithmes stochastiques d'optimisation convexe se base sur la théorie des opérateurs monotones. Un élément clé permettant de résoudre des problèmes d'optimisation de grande dimension réside dans la possibilité de mettre en oeuvre en parallèle certaines étapes de calculs. Cette parallélisation est possible pour les algorithmes proximaux primaux-duaux alternés par bloc que nous proposons: les variables primales, ainsi que celles duales, peuvent être mises à jour en parallèle, de manière tout à fait flexible. A partir de ces résultats, nous déduisons de nouvelles méthodes distribuées, où les calculs sont répartis sur différents agents communiquant entre eux suivant une topologie d'hypergraphe. Finalement, nos contributions méthodologiques sont validées sur différentes applications en traitement du signal et des images. Nous nous intéressons dans un premier temps à divers problèmes d'optimisation faisant intervenir des critères non convexes, en particulier en restauration d'images lorsque l'image originale est dégradée par un bruit gaussien dépendant du signal, en démélange spectral, en reconstruction de phase en tomographie, et en déconvolution aveugle pour la reconstruction de signaux sismiques parcimonieux. Puis, dans un second temps, nous abordons des problèmes convexes intervenant dans la reconstruction de maillages 3D et dans l'optimisation de requêtes pour la gestion de bases de données.
Cette thèse aborde la résolution de problèmes d'optimisation sous contraintes et systèmes de contraintes non linéaires sur les réels. Dans un premier temps, nous sommes intéressés à l'optimisation de problèmes dont les données sont connues de façon implicite (résultats d'une simulation informatique), en particulier, dans le cas des systèmes à événements discrets. Les contraintes de la simulation nécessitent de choisir judicieusement les méthodes d'optimisation adaptées à cette démarche de simulation-optimisation. Il est nécessaire d'utiliser des méthodes d'optimisation itératives où la fonction objectif est calculée point par point. Cette étude a donné naissance à l’environnement SimOpt qui consiste à coopérer entre un environnement de simulation et un environnement d’optimisation mathématique constitué d’un ensemble de méthodes d’analyse numérique et de recherche opérationnelle. Ensuite, Nous avons étudié les problèmes d'optimisation globale non linéaires continus basés sur la satisfaction de contraintes et l'arithmétique des intervalles. Dans ce cas, le résultat du calcul est un intervalle qui contient les solutions. Notre contribution consiste d'abord à classifier les techniques de résolution et établir les différentes relations de décomposition et transformation d'un problème d'optimisation dans un processus de résolution. Finalement, la dernière partie est consacrée à la résolution de systèmes de contraintes non linéaires. Nous avons proposé une méthode basée sur une approche symbolique numérique qui permet de limiter le problème de localité des raisonnements dans le processus de résolution basé sur les techniques de consistance locale.
Notre travail s'est principalement orienté sur une analyse théorique de problèmes d'optimisation à deux niveaux avec une étude d'approximations de problèmes de Stackelberg susceptible de servir de base à des méthodes non heuristiques liées au développement de techniques d'optimisation globale. Dans le chapitre on présente des généralités sur les problèmes d'optimisation à deux niveaux. On donne des exemples permettant de motiver les différentes formulations proposées dans la littérature. L'analyse de la complexité des problèmes d'optimisation à deux niveaux est effectué dans le cas linéaire. Pour cela, on énonce un résultat établi par j. F. Bard que l'on démontre sous des hypothèses plus faibles et de façon plus directe. Le chapitre se termine par la présentation de résultats d'existence. Dans le deuxième chapitre, on s'intéresse à l'étude de conditions nécessaires et suffisantes d'optimalité pour des problèmes d'optimisation à deux niveaux à formulation forte. Dans un premier temps, on commence par l'étude d'une classe de problèmes d'optimisation globale appelés problèmes anti-convexes. On montre ensuite que certains problèmes d'optimisation à deux niveaux peuvent être reformulés en problèmes de la classe ainsi considérée, ce qui nous permet d'en déduire des conditions nécessaires et suffisantes d'optimalité locale. Pour les conditions d'optimalité globale on ne considère que le cas linéaire et on montre que le problème d'optimisation à deux niveaux est équivalent à un problème de maximisation d'une fonction convexe sur un convexe compact. Dans le dernier chapitre, on s'intéresse à des problèmes d'optimisation à deux niveaux à formulation faible. Pour de tels problèmes, il est connu qu'en général les solutions n'existent pas même sous des hypothèses assez fortes, ce qui a conduit à l'introduction d'ensembles de solutions plus grands qui peuvent constituer de bons candidats pour la résolution du problème pose. On étudie ensuite deux procédures de régularisation combinées à une méthode introduite par Molodtsov. Nous présentons alors des résultats nouveaux sur l'approximation de sous-équilibres exacts. Nous donnons pour terminer des résultats de stabilité sous perturbations de données