Download Free Algorithmes Robustes En Optimisation Non Convexe Book in PDF and EPUB Free Download. You can read online Algorithmes Robustes En Optimisation Non Convexe and write the review.

Cette thèse est consacrée a l'étude des algorithmes en optimisation non convexe, a l'implémentation des codes a l'usage industriel et aux simulations numériques dans les problèmes de grande tailles. L'étude des problèmes quadratiques (convexes ou non convexes) sous contraintes linéaires et quadratiques ainsi que celle des méthodes de région de confiance pour minimisation d'une fonction de classe c#2, font l'objet de deux premiers chapitres. Les chapitres 3 et 4 sont réservés a l'optimisation non convexe (classification, dualité, stabilité et les algorithmes de sous gradients de resolution). Enfin, les simulations numériques dans les problèmes concrets de grande taille sont présentées et commentées dans le dernier chapitre
Une approche efficace pour la résolution de problèmes inverses consiste à définir le signal (ou l'image) recherché(e) par minimisation d'un critère pénalisé. Ce dernier s'écrit souvent sous la forme d'une somme de fonctions composées avec des opérateurs linéaires. En pratique, ces fonctions peuvent n'être ni convexes ni différentiables. De plus, les problèmes auxquels on doit faire face sont souvent de grande dimension. L'objectif de cette thèse est de concevoir de nouvelles méthodes pour résoudre de tels problèmes de minimisation, tout en accordant une attention particulière aux coûts de calculs ainsi qu'aux résultats théoriques de convergence. Une première idée pour construire des algorithmes rapides d'optimisation est d'employer une stratégie de préconditionnement, la métrique sous-jacente étant adaptée à chaque itération. Nous appliquons cette technique à l'algorithme explicite-implicite et proposons une méthode, fondée sur le principe de majoration-minimisation, afin de choisir automatiquement les matrices de préconditionnement. L'analyse de la convergence de cet algorithme repose sur l'inégalité de Kurdyka-L ojasiewicz. Une seconde stratégie consiste à découper les données traitées en différents blocs de dimension réduite. Cette approche nous permet de contrôler à la fois le nombre d'opérations s'effectuant à chaque itération de l'algorithme, ainsi que les besoins en mémoire, lors de son implémentation. Nous proposons ainsi des méthodes alternées par bloc dans les contextes de l'optimisation non convexe et convexe. Dans le cadre non convexe, une version alternée par bloc de l'algorithme explicite-implicite préconditionné est proposée. Les blocs sont alors mis à jour suivant une règle déterministe acyclique. Lorsque des hypothèses supplémentaires de convexité peuvent être faites, nous obtenons divers algorithmes proximaux primaux-duaux alternés, permettant l'usage d'une règle aléatoire arbitraire de balayage des blocs. L'analyse théorique de ces algorithmes stochastiques d'optimisation convexe se base sur la théorie des opérateurs monotones. Un élément clé permettant de résoudre des problèmes d'optimisation de grande dimension réside dans la possibilité de mettre en oeuvre en parallèle certaines étapes de calculs. Cette parallélisation est possible pour les algorithmes proximaux primaux-duaux alternés par bloc que nous proposons: les variables primales, ainsi que celles duales, peuvent être mises à jour en parallèle, de manière tout à fait flexible. A partir de ces résultats, nous déduisons de nouvelles méthodes distribuées, où les calculs sont répartis sur différents agents communiquant entre eux suivant une topologie d'hypergraphe. Finalement, nos contributions méthodologiques sont validées sur différentes applications en traitement du signal et des images. Nous nous intéressons dans un premier temps à divers problèmes d'optimisation faisant intervenir des critères non convexes, en particulier en restauration d'images lorsque l'image originale est dégradée par un bruit gaussien dépendant du signal, en démélange spectral, en reconstruction de phase en tomographie, et en déconvolution aveugle pour la reconstruction de signaux sismiques parcimonieux. Puis, dans un second temps, nous abordons des problèmes convexes intervenant dans la reconstruction de maillages 3D et dans l'optimisation de requêtes pour la gestion de bases de données.
Etude théorique et algorithmique des problèmes d'optimisation non convexes et non différentiables des types suivants: maximiser f(x) sur C, minimiser f(x)-g(x) sur C, minimiser f(x) lorsque x appartient à C et g(x) positive, où f, g sont convexes définies sur rn et C est une partie compacte convexe non vide de rn. Un étudie les conditions nécessaires d'optimalité du premier ordre la dualité, les méthodes de sous-gradients qui convergent vers des solutions optimales locales et les algorithmes qui permettent d'obtenir les solutions globales. On donne, quelques résultats numériques et applications des algorithmes présentés
CETTE THESE EST CONSACREE A L'ETUDE DU CONDITIONNEMENT DES PROBLEMES D'OPTIMISATION ET A L'ETUDE DE PLUSIEURS ALGORITHMES EN OPTIMISATION NON DIFFERENTIABLE. DANS LA PREMIERE PARTIE ON ETUDIE LE CONDITIONNEMENT DES FONCTIONS SEMI-CONTINUES INFERIEUREMENT. ON ETEND LA NOTION D'APPLICATION MULTIVOQUE SUR-LIPSCHITZ ET ON MONTRE, EN TRAVAILLANT AVEC UN SOUS DIFFERENTIEL ABSTRAIT DEFINI DE FACON AXIOMATIQUE, QUE LE CONDITIONNEMENT LOCAL D'UNE FONCTION, A PRIORI NON CONVEXE, EST ASSURE PAR LA PROPRIETE DE SUR-LIPSCHITZ DE L'INVERSE DE SON SOUS DIFFERENTIEL. DANS LE CAS CONVEXE ON OBTIENT PLUSIEURS CARACTERISATIONS PRIMALES ET DUALES DU CONDITIONNEMENT GLOBAL. ON RETROUVE AINSI CERTAINS RESULTATS DE B. LEMAIRE, DE R. ZHANG ET DE J. TRAIMAN. DANS LA SECONDE PARTIE, ON PROPOSE UNE APPROCHE PROXIMALE POUR RESOUDRE UNE FAMILLE DE PROBLEMES DE LOCALISATION DE TYPE MINIMAX. ON MONTRE QU'UNE REFORMULATION ADEQUATE DU PROBLEME PERMET DE CONSTRUIRE UN SCHEMA DE DUALITE AU SENS DE FENCHEL. ON EN DEDUIT ALORS DES CONDITIONS D'OPTIMALITE QUI PEUVENT ETRE RESOLUES PAR UN ALGORITHME PROXIMAL. CETTE APPROCHE PERMET DE RESOUDRE DES PROBLEMES FAISANT INTERVENIR DES NORMES OU JAUGES MIXTES. ELLE PERMET AUSSI DE PRENDRE EN COMPTE UNE GRANDE VARIETE DE CONTRAINTES CONVEXES ET CONDUIT A DES CALCULS QUI PEUVENT ETRE EFFECTUES EN PARALLELE. LA TROISIEME PARTIE EST CONSACREE A L'ETUDE D'UN ALGORITHME POUR TROUVER UN POINT CRITIQUE D'UNE FONCTION SEMI-CONTINUE INFERIEUVEMENT NON CONVEXE. EN UTILISANT LA MOREAU REGULARISATION AINSI QUE DES RESULTATS SUR LES FONCTIONS COMPOSITES ET SUR LA RESOLUTION DES SYSTEMES D'EQUATIONS NON DIFFERENTIABLES, ON OBTIENT UN ALGORITHME QUI CONVERGE VERS UN POINT CRITIQUE POUR DES FONCTIONS D'UN TYPE PARTICULIER, APPELEES FONCTIONS R-PROX-REGULIERES. ON MONTRE QUE, DANS CERTAINS CAS, LA CONVERGENCE EST SUPERLINEAIRE.
Sont concernés les problèmes d'optimisation non convexe et non différentiable du type d.c canonique. L'aspect théorique et l'aspect algorithmique sont abordés
La fiabilité des systèmes complexes est un défi majeur pour les entreprises industrielles. Ces dernières doivent répondre aux exigences des donneurs d’ordre dont le non-respect entraînerait des pénalités compromettant les marchés futurs. L’un des enjeux majeurs de l’optimisation fiabiliste est d’établir une surveillance rigoureuse, capable de prédire et de détecter les modes de défaillances des systèmes étudiés. Cet ouvrage présente les avancées de la recherche et de l’industrie appliquées aux domaines de l’optimisation, de la fiabilité et de la prise en compte des incertitudes en mécanique. Ce couplage est à la base de la compétitivité des entreprises dans les secteurs de l’automobile, de l’aéronautique, du génie civil ou encore de la défense. Accompagné d’exemples détaillés, Incertitudes, optimisation et fiabilité des structures présente les nouveaux outils de conception les plus performants. Il s’adresse aux ingénieurs et aux enseignants-chercheurs.
L’approche loop-shaping consiste en l’obtention d’une spécification relative à la boucle ouverte de l’asservissement à partir de spécifications relatives à divers transferts en boucle fermée. Parce qu’il est plus simple de travailler sur un unique transfert (la boucle ouverte) plutôt que sur une multitude de transferts bouclés, cette approche s’avère particulièrement adaptée au contexte industriel. Cet ouvrage se concentre sur la déclinaison des spécifications de haut niveau vers une spécification de type loop-shaping, puis sur les techniques permettant d’intégrer pleinement cette démarche pour le calcul de correcteurs robustes et performants, en particulier par la synthèse H?. Modelage de la boucle ouverte escomptée, la synthèse H? par loop-shaping permet par ailleurs de stabiliser toute une boule de modèles grâce à la notion de gap métrique, ce qui s’avère particulièrement intéressant pour la prise en compte de contraintes industrielles. La volonté accrue de réaliser des asservissements à moindre coût et de plus en plus performants mène à l’optimisation de cette technique, la rendant indispensable à son domaine.
Ce livre est exclusivement consacré aux algorithmes numériques d'optimisation (quasi-Newton, faisceaux, programmation quadratique successive, points intérieurs); les bases théoriques (conditions d'optimalité, multiplicateurs de Lagrange) sont supposées connues. Son but est de familiariser le lecteur avec ces algorithmes, qui sont pour la plupart bien classiques. Leur description insiste sur leur implémentation numérique, ils peuvent être programmés directement par un lecteur expérimenté. Le côté théorique n'est pas pour autant négligé, avec démonstration de chaque théorème de convergence ou vitesse de convergence; souvent, ces démonstrations utilisent des hypothèses minimales.
Sections 1-2. Keyword Index.--Section 3. Personal author index.--Section 4. Corporate author index.-- Section 5. Contract/grant number index, NTIS order/report number index 1-E.--Section 6. NTIS order/report number index F-Z.