Download Free Methode Du Gradient En Programmation Lineaire Et Quadratique Book in PDF and EPUB Free Download. You can read online Methode Du Gradient En Programmation Lineaire Et Quadratique and write the review.

"Ce travail a pour objet la résolution par la Méthode du Gradient des problèmes d'optimisation à contraintes linéaires et à fonction objectif linéaire ou quadratique. Les méthodes et algorithmes sont déduits des méthodes générales de résolution des problèmes d'optimisation".
Dans cette thèse, nous présentons une étude à la fois théorique et algorithmique de la programmation linéaire-quadratique généralisée. Nous commençons par dégager les différentes propriétés de l'objectif et de définir le lien de l'optimalité avec les inégalités variationnelles et le problème de complémentarité linéaire. Pour résoudre numériquement ces problèmes, nous adaptons en premier lieu une variante SQP de la méthode quasi-newtonienne BFGS et proposons d'appliquer l'algorithme du point proximal lorsque l'objectif est non différentiable. Ensuite, nous nous plaçons dans le cadres des méthodes de point intérieur et proposons une nouvelle méthode basée sur la résolution d'une suite de systèmes quasi-définis. Cette méthode tire un grand avantage de la structure particulière de ces systèmes. Après, nous généralisons notre étude au problème du minimax à termes linéaires croisés. Deux cas importants sont analysés, le cas des contraintes linéaires polyèdriques et celui des inégalités linéaires matricielles. Enfin, nous appliquons notre résultat à la résolution des problèmes issus de l'optimisation dynamique et stochastique. Les expériences numériques réalisées confirment les performances de notre méthode.
Il s'agit d'une synthèse entre les méthodes générales de programmation non linéaire avec contraintes et les méthodes classiques de programmation linéaire. Plus précisément, on se propose d'étudier les méthodes de montée : Gradient réduit, Gradient projeté dans le cas linéaire et de les comparer avec les méthodes du simplex.
CETTE THESE PRESENTE DES ALGORITHMES DE PROGRAMMATION LINEAIRE ET DE CALCUL MATRICIEL. LE PREMIER CHAPITRE EST CONSACRE A LA PROGRAMMATION LINEAIRE. L'INTRODUCTION DE VARIABLES D'ECART QUADRATIQUES TRANSFORME LE PROBLEME INITIAL EN UN PROBLEME NON LINEAIRE, RESOLU DE FACON ITERATIVE A L'AIDE DE DEUX ALGORITHMES DE TYPE NEWTON. LEUR CONVERGENCE EST LINEAIRE POUR LE PREMIER, QUADRATIQUE POUR LE SECOND. LA COMPARAISON AVEC DES RESULTATS NUMERIQUES OBTENUS PAR LA METHODE DE KARMARKAR MONTRE L'INTERET DE NOTRE METHODE. UNE METHODE DE RESOLUTION DE SYSTEMES LINEAIRES REGULIERS EST PRESENTEE DANS LE DEUXIEME CHAPITRE ; LA COMPARAISON AVEC LA METHODE DE GAUSS MONTRE QUE LES DEUX METHODES SONT ANALOGUES, LA NOTRE PRESENTANT L'INTERET D'OFFRIR UN DEGRE DE PARALLELISATION SUPERIEUR. LES DEUX DERNIERS CHAPITRES RASSEMBLENT DEUX ARTICLES TRAITANT DU CALCUL DE L'INVERSE D'UNE MATRICE HESSENBERG ET DE L'ORDRE DE MULTIPLICITE DE VALEURS PROPRES REELLES D'UNE MATRICE TRIDIAGONALE
LES METHODES DE POINTS INTERIEURS JOUENT ACTUELLEMENT UN ROLE TRES IMPORTANT DANS LA RESOLUTION DES PROBLEMES DE GRANDE TAILLE EN PROGRAMMATION LINEAIRE. DANS CETTE THESE, NOUS PROPOSONS DEUX ALGORITHMES DE POINTS INTERIEURS DE TYPE NEWTON POUR RESOUDRE LES PROBLEMES LINEAIRES. LE PREMIER, UTILISE LA FONCTION BARRIERE MULTIPLICATIVE PRIMALE QUI EST L'EXPONENTIELLE D'UNE FONCTION DU TYPE FONCTION POTENTIELLE DE KARMARKAR. CONTRAIREMENT AUX CAS CLASSIQUES, ICI L'EXPOSANT DE CETTE FONCTION VARIE D'UNE ITERATION A L'AUTRE ET PREND DES VALEURS INFERIEURES AU NOMBRE DES CONTRAINTES D'INEGALITE DU PROBLEME. NOUS MONTRONS SOUS CERTAINES HYPOTHESES, QUE CET ALGORITHME A UNE CONVERGENCE QUADRATIQUE. LES EXPERIENCES NUMERIQUES FAITES MONTRENT QU'IL EST MOINS SENSIBLE AUX ERREURS D'ARRONDI QUE LES ALGORITHMES DE KARMARKAR ET DE GONZAGA QUI UTILISENT LA FONCTION POTENTIELLE DE TYPE KARMARKAR. LE DEUXIEME ALGORITHME QUE NOUS PROPOSONS UTILISE UNE NOUVELLE CLASSE DE FONCTIONS POTENTIELLES BASEES SUR LES FONCTIONS JAUGES CONCAVES. SOUS CERTAINES HYPOTHESES, NOUS MONTRONS QUE LA CONVERGENCE DE L'ALGORITHME EST QUADRATIQUE OU SUPERLINEAIRE
IL EXISTE ACTUELLEMENT DEUX GRANDES CLASSES DE METHODES POUR LA PROGRAMMATION MATHEMATIQUE LINEAIRE OU QUADRATIQUE: LES METHODES SIMPLICIALES ET LES METHODES DITES DE POINTS INTERIEURS. CES DEUX APPROCHES SONT ABORDEES ET COMPAREES DANS LE CADRE DE LA PROGRAMMATION QUADRATIQUE CONVEXE SOUS CONTRAINTES LINEAIRES. ON RECHERCHE PLUS SPECIFIQUEMENT, A ADAPTER LES TECHNIQUES DE LA PROGRAMMATION LINEAIRE VERS DES METHODES SUSCEPTIBLES DE RESOUDRE EFFICACEMENT DES PROBLEMES FAIBLEMENT QUADRATIQUES (MATRICE HESSIENNE Q DE RANG FAIBLE, PROBLEMES SEPARABLES, MATRICE RESTREINTE A UN PETIT NOMBRE DE VARIABLES). DEUX METHODES SIMPLICIALES ORIGINALES SONT DESCRITES. DANS LE CADRE DES METHODES DE POINTS INTERIEURS, ON EXPOSE DIVERSES TECHNIQUES, DE MISE EN FORME DU PROBLEME, DE TRAITEMENT DE LA PHASE I NOTAMMENT. UNE MISE EN UVRE D'UNE PARTIE DE CES METHODES ET DES TECHNIQUES DE FACTORISATION LU EST PRESENTEE. ENFIN, UNE ANALYSE COMPARATIVE, PERMET DE DEGAGER LES ATOUTS SPECIFIQUES A CHAQUE APPROCHE
Optimisation en sciences de l’ingénieur présente les principales méthodes exactes d’optimisation statique et dynamique. Parmi les méthodes décrites, figurent : la programmation linéaire avec plusieurs implémentations et la programmation non linéaire, particulièrement détaillée compte tenu de la grande variété d’algorithmes existants ; la programmation dynamique avec divers exemples d’application ; les réseaux de Hopfield ; l’optimisation en identification des systèmes ; l’optimisation des systèmes dynamiques avec notamment l’application à la commande des processus, l’optimisation des systèmes de grandes dimensions et des systèmes d’information. Didactique, cet ouvrage propose des références permettant au lecteur d’approfondir les diverses méthodes traitées. Lorsque les algorithmes étudiés le permettent, sans trop agrandir les présentations, des exemples d’implémentation sont proposés.