Download Free Contribution A Letude Des Algorithmes De Loptimisation Non Convexe Et Non Differentiable Book in PDF and EPUB Free Download. You can read online Contribution A Letude Des Algorithmes De Loptimisation Non Convexe Et Non Differentiable and write the review.

Etude théorique et algorithmique des problèmes d'optimisation non convexes et non différentiables des types suivants: maximiser f(x) sur C, minimiser f(x)-g(x) sur C, minimiser f(x) lorsque x appartient à C et g(x) positive, où f, g sont convexes définies sur rn et C est une partie compacte convexe non vide de rn. Un étudie les conditions nécessaires d'optimalité du premier ordre la dualité, les méthodes de sous-gradients qui convergent vers des solutions optimales locales et les algorithmes qui permettent d'obtenir les solutions globales. On donne, quelques résultats numériques et applications des algorithmes présentés
Sont concernés les problèmes d'optimisation non convexe et non différentiable du type d.c canonique. L'aspect théorique et l'aspect algorithmique sont abordés
CETTE THESE EST CONSACREE A L'ETUDE DU CONDITIONNEMENT DES PROBLEMES D'OPTIMISATION ET A L'ETUDE DE PLUSIEURS ALGORITHMES EN OPTIMISATION NON DIFFERENTIABLE. DANS LA PREMIERE PARTIE ON ETUDIE LE CONDITIONNEMENT DES FONCTIONS SEMI-CONTINUES INFERIEUREMENT. ON ETEND LA NOTION D'APPLICATION MULTIVOQUE SUR-LIPSCHITZ ET ON MONTRE, EN TRAVAILLANT AVEC UN SOUS DIFFERENTIEL ABSTRAIT DEFINI DE FACON AXIOMATIQUE, QUE LE CONDITIONNEMENT LOCAL D'UNE FONCTION, A PRIORI NON CONVEXE, EST ASSURE PAR LA PROPRIETE DE SUR-LIPSCHITZ DE L'INVERSE DE SON SOUS DIFFERENTIEL. DANS LE CAS CONVEXE ON OBTIENT PLUSIEURS CARACTERISATIONS PRIMALES ET DUALES DU CONDITIONNEMENT GLOBAL. ON RETROUVE AINSI CERTAINS RESULTATS DE B. LEMAIRE, DE R. ZHANG ET DE J. TRAIMAN. DANS LA SECONDE PARTIE, ON PROPOSE UNE APPROCHE PROXIMALE POUR RESOUDRE UNE FAMILLE DE PROBLEMES DE LOCALISATION DE TYPE MINIMAX. ON MONTRE QU'UNE REFORMULATION ADEQUATE DU PROBLEME PERMET DE CONSTRUIRE UN SCHEMA DE DUALITE AU SENS DE FENCHEL. ON EN DEDUIT ALORS DES CONDITIONS D'OPTIMALITE QUI PEUVENT ETRE RESOLUES PAR UN ALGORITHME PROXIMAL. CETTE APPROCHE PERMET DE RESOUDRE DES PROBLEMES FAISANT INTERVENIR DES NORMES OU JAUGES MIXTES. ELLE PERMET AUSSI DE PRENDRE EN COMPTE UNE GRANDE VARIETE DE CONTRAINTES CONVEXES ET CONDUIT A DES CALCULS QUI PEUVENT ETRE EFFECTUES EN PARALLELE. LA TROISIEME PARTIE EST CONSACREE A L'ETUDE D'UN ALGORITHME POUR TROUVER UN POINT CRITIQUE D'UNE FONCTION SEMI-CONTINUE INFERIEUVEMENT NON CONVEXE. EN UTILISANT LA MOREAU REGULARISATION AINSI QUE DES RESULTATS SUR LES FONCTIONS COMPOSITES ET SUR LA RESOLUTION DES SYSTEMES D'EQUATIONS NON DIFFERENTIABLES, ON OBTIENT UN ALGORITHME QUI CONVERGE VERS UN POINT CRITIQUE POUR DES FONCTIONS D'UN TYPE PARTICULIER, APPELEES FONCTIONS R-PROX-REGULIERES. ON MONTRE QUE, DANS CERTAINS CAS, LA CONVERGENCE EST SUPERLINEAIRE.
Une approche efficace pour la résolution de problèmes inverses consiste à définir le signal (ou l'image) recherché(e) par minimisation d'un critère pénalisé. Ce dernier s'écrit souvent sous la forme d'une somme de fonctions composées avec des opérateurs linéaires. En pratique, ces fonctions peuvent n'être ni convexes ni différentiables. De plus, les problèmes auxquels on doit faire face sont souvent de grande dimension. L'objectif de cette thèse est de concevoir de nouvelles méthodes pour résoudre de tels problèmes de minimisation, tout en accordant une attention particulière aux coûts de calculs ainsi qu'aux résultats théoriques de convergence. Une première idée pour construire des algorithmes rapides d'optimisation est d'employer une stratégie de préconditionnement, la métrique sous-jacente étant adaptée à chaque itération. Nous appliquons cette technique à l'algorithme explicite-implicite et proposons une méthode, fondée sur le principe de majoration-minimisation, afin de choisir automatiquement les matrices de préconditionnement. L'analyse de la convergence de cet algorithme repose sur l'inégalité de Kurdyka-L ojasiewicz. Une seconde stratégie consiste à découper les données traitées en différents blocs de dimension réduite. Cette approche nous permet de contrôler à la fois le nombre d'opérations s'effectuant à chaque itération de l'algorithme, ainsi que les besoins en mémoire, lors de son implémentation. Nous proposons ainsi des méthodes alternées par bloc dans les contextes de l'optimisation non convexe et convexe. Dans le cadre non convexe, une version alternée par bloc de l'algorithme explicite-implicite préconditionné est proposée. Les blocs sont alors mis à jour suivant une règle déterministe acyclique. Lorsque des hypothèses supplémentaires de convexité peuvent être faites, nous obtenons divers algorithmes proximaux primaux-duaux alternés, permettant l'usage d'une règle aléatoire arbitraire de balayage des blocs. L'analyse théorique de ces algorithmes stochastiques d'optimisation convexe se base sur la théorie des opérateurs monotones. Un élément clé permettant de résoudre des problèmes d'optimisation de grande dimension réside dans la possibilité de mettre en oeuvre en parallèle certaines étapes de calculs. Cette parallélisation est possible pour les algorithmes proximaux primaux-duaux alternés par bloc que nous proposons: les variables primales, ainsi que celles duales, peuvent être mises à jour en parallèle, de manière tout à fait flexible. A partir de ces résultats, nous déduisons de nouvelles méthodes distribuées, où les calculs sont répartis sur différents agents communiquant entre eux suivant une topologie d'hypergraphe. Finalement, nos contributions méthodologiques sont validées sur différentes applications en traitement du signal et des images. Nous nous intéressons dans un premier temps à divers problèmes d'optimisation faisant intervenir des critères non convexes, en particulier en restauration d'images lorsque l'image originale est dégradée par un bruit gaussien dépendant du signal, en démélange spectral, en reconstruction de phase en tomographie, et en déconvolution aveugle pour la reconstruction de signaux sismiques parcimonieux. Puis, dans un second temps, nous abordons des problèmes convexes intervenant dans la reconstruction de maillages 3D et dans l'optimisation de requêtes pour la gestion de bases de données.
Cette thèse est consacrée a l'étude des algorithmes en optimisation non convexe, a l'implémentation des codes a l'usage industriel et aux simulations numériques dans les problèmes de grande tailles. L'étude des problèmes quadratiques (convexes ou non convexes) sous contraintes linéaires et quadratiques ainsi que celle des méthodes de région de confiance pour minimisation d'une fonction de classe c#2, font l'objet de deux premiers chapitres. Les chapitres 3 et 4 sont réservés a l'optimisation non convexe (classification, dualité, stabilité et les algorithmes de sous gradients de resolution). Enfin, les simulations numériques dans les problèmes concrets de grande taille sont présentées et commentées dans le dernier chapitre
Optimization, as examined here, ranges from differential equations to problems arising in Mechanics and Statistics. The main topics covered are: calculations of variations and nonlinear elasticity, optimal control, analysis and optimization in problems dealing with nondifferentiable data, duality techniques, algorithms in mathematical programming and optimal control.
This volume contains a collection of 23 papers presented at the 4th French-German Conference on Optimization, hold at Irsee, April 21 - 26, 1986. The conference was aUended by ninety scientists: about one third from France, from Germany and from third countries each. They all contributed to a highly interesting and stimulating meeting. The scientifique program consisted of four survey lectures of a more tutorical character and of 61 contributed papers covering almost all areas of optimization. In addition two informal evening sessions and a plenary discussion on further developments of optimization theory were organized. One of the main aims of the organizers was to indicate and to stress the increasing importance of optimization methods for almost all areas of science and for a fast growing number of industry branches. We hope that the conference approached this goal in a certain degree and managed to continue fruitful discussions between -theory and -applications-. Equally important to the official contributions and lectures is the -nonmeasurable part of activities inherent in such a scientific meeting. Here the charming and inspiring atmosphere of a place like Irsee helped to establish numerous new contacts between the participants and to deepen already existing ones. The conference was sponsored by the Bayerische Kultusministerium, the Deutsche Forschungsgemeinschaft and the Universities of Augsburg and Bayreuth. Their interest in the meeting and their assistance is gratefully acknowledged. We would like to thank the authors for their contributions and the referees for their helpful comments.
Cette thèse est consacrée à l'analyse qualitative et quantitative de l'optimisation d.c. (différence de deux fonctions convexes). Le chapitre I est destiné à l'étude générale de la théorie et des algorithmes de l'optimisation d.c. - approche locale. Dans le chapitre II nous nous intéressons à la fois à l'étude théorique (la dualité lagrangienne, conditions d'optimalité) et algorithmique (algorithmes globaux, DCA) du problème de minimisation d'une forme quadratique sur une boule ou une sphère euclidienne. Nous présentons dans le chapitre III deux nouvelles méthodes (méthode globale de type branch and bound et DCA) pour la minimisation d'une forme quadratique indéfinie sur un polyèdre convexe. La résolution du problème d'optimisation multicritère par DCA via la pénalité exacte et par un algorithme global de type branch and bound fait l'objet du chapitre IV. Le chapitre V concerne le traitement du problème multidimensionnel des tableaux de dissimilarités (MDS) par DCA. La résolution du problème de calcul des valeurs propres extrêmes d'une matrice réelle symétrique par DCA est étudiée dans le chapitre VI. Enfin, dans le dernier chapitre nous étudions une méthode globale d'optimisation d.c. et son application à la résolution d'un problème industriel d'optimisation non convexe de Pool carburant
CETTE THESE EST CONSACREE A LA RESOLUTION D'INCLUSIONS MONOTONES ET EN PARTICULIER DE PROBLEMES D'OPTIMISATION CONVEXE. D'UNE PART, NOUS PROPOSONS UNE NOUVELLE METHODE FONDEE SUR UNE RELAXATION DE L'ETAPE PROXIMALE DE LA METHODE DE L'INVERSE PARTIEL ; LES TESTS NUMERIQUES ONT CONFIRME UNE AMELIORATION TRES NETTE DE LA VITESSE DE CONVERGENCE DANS CERTAINS CAS PAR RAPPORT AUX ALGORITHMES CONNUS. D'AUTRE PART, NOUS PROPOSONS UNE VERSION DIAGONALE DE LA METHODE DE LIONS-MERCIER, CE QUI PERMET NOTAMMENT EN OPTIMISATION CONVEXE, DE COMBINER LA METHODE DES DIRECTIONS ALTERNEES DES MULTIPLICATEURS AVEC UNE CLASSE IMPORTANTE DE METHODES DE PENALITE.
Les travaux qui composent cette thèse s'articulent autour des thèmes suivants : Optimisation globale, Analyse et optimisation non différentiables, Analyse convexe.