Download Free Methodes Numeriques De La Programmation Lineaire Et Quadratique Book in PDF and EPUB Free Download. You can read online Methodes Numeriques De La Programmation Lineaire Et Quadratique and write the review.

Dans cette thèse, nous présentons une étude à la fois théorique et algorithmique de la programmation linéaire-quadratique généralisée. Nous commençons par dégager les différentes propriétés de l'objectif et de définir le lien de l'optimalité avec les inégalités variationnelles et le problème de complémentarité linéaire. Pour résoudre numériquement ces problèmes, nous adaptons en premier lieu une variante SQP de la méthode quasi-newtonienne BFGS et proposons d'appliquer l'algorithme du point proximal lorsque l'objectif est non différentiable. Ensuite, nous nous plaçons dans le cadres des méthodes de point intérieur et proposons une nouvelle méthode basée sur la résolution d'une suite de systèmes quasi-définis. Cette méthode tire un grand avantage de la structure particulière de ces systèmes. Après, nous généralisons notre étude au problème du minimax à termes linéaires croisés. Deux cas importants sont analysés, le cas des contraintes linéaires polyèdriques et celui des inégalités linéaires matricielles. Enfin, nous appliquons notre résultat à la résolution des problèmes issus de l'optimisation dynamique et stochastique. Les expériences numériques réalisées confirment les performances de notre méthode.
IL EXISTE ACTUELLEMENT DEUX GRANDES CLASSES DE METHODES POUR LA PROGRAMMATION MATHEMATIQUE LINEAIRE OU QUADRATIQUE: LES METHODES SIMPLICIALES ET LES METHODES DITES DE POINTS INTERIEURS. CES DEUX APPROCHES SONT ABORDEES ET COMPAREES DANS LE CADRE DE LA PROGRAMMATION QUADRATIQUE CONVEXE SOUS CONTRAINTES LINEAIRES. ON RECHERCHE PLUS SPECIFIQUEMENT, A ADAPTER LES TECHNIQUES DE LA PROGRAMMATION LINEAIRE VERS DES METHODES SUSCEPTIBLES DE RESOUDRE EFFICACEMENT DES PROBLEMES FAIBLEMENT QUADRATIQUES (MATRICE HESSIENNE Q DE RANG FAIBLE, PROBLEMES SEPARABLES, MATRICE RESTREINTE A UN PETIT NOMBRE DE VARIABLES). DEUX METHODES SIMPLICIALES ORIGINALES SONT DESCRITES. DANS LE CADRE DES METHODES DE POINTS INTERIEURS, ON EXPOSE DIVERSES TECHNIQUES, DE MISE EN FORME DU PROBLEME, DE TRAITEMENT DE LA PHASE I NOTAMMENT. UNE MISE EN UVRE D'UNE PARTIE DE CES METHODES ET DES TECHNIQUES DE FACTORISATION LU EST PRESENTEE. ENFIN, UNE ANALYSE COMPARATIVE, PERMET DE DEGAGER LES ATOUTS SPECIFIQUES A CHAQUE APPROCHE
"Ce travail a pour objet la résolution par la Méthode du Gradient des problèmes d'optimisation à contraintes linéaires et à fonction objectif linéaire ou quadratique. Les méthodes et algorithmes sont déduits des méthodes générales de résolution des problèmes d'optimisation".
CETTE THESE PRESENTE DES ALGORITHMES DE PROGRAMMATION LINEAIRE ET DE CALCUL MATRICIEL. LE PREMIER CHAPITRE EST CONSACRE A LA PROGRAMMATION LINEAIRE. L'INTRODUCTION DE VARIABLES D'ECART QUADRATIQUES TRANSFORME LE PROBLEME INITIAL EN UN PROBLEME NON LINEAIRE, RESOLU DE FACON ITERATIVE A L'AIDE DE DEUX ALGORITHMES DE TYPE NEWTON. LEUR CONVERGENCE EST LINEAIRE POUR LE PREMIER, QUADRATIQUE POUR LE SECOND. LA COMPARAISON AVEC DES RESULTATS NUMERIQUES OBTENUS PAR LA METHODE DE KARMARKAR MONTRE L'INTERET DE NOTRE METHODE. UNE METHODE DE RESOLUTION DE SYSTEMES LINEAIRES REGULIERS EST PRESENTEE DANS LE DEUXIEME CHAPITRE ; LA COMPARAISON AVEC LA METHODE DE GAUSS MONTRE QUE LES DEUX METHODES SONT ANALOGUES, LA NOTRE PRESENTANT L'INTERET D'OFFRIR UN DEGRE DE PARALLELISATION SUPERIEUR. LES DEUX DERNIERS CHAPITRES RASSEMBLENT DEUX ARTICLES TRAITANT DU CALCUL DE L'INVERSE D'UNE MATRICE HESSENBERG ET DE L'ORDRE DE MULTIPLICITE DE VALEURS PROPRES REELLES D'UNE MATRICE TRIDIAGONALE
LES METHODES DE POINTS INTERIEURS JOUENT ACTUELLEMENT UN ROLE TRES IMPORTANT DANS LA RESOLUTION DES PROBLEMES DE GRANDE TAILLE EN PROGRAMMATION LINEAIRE. DANS CETTE THESE, NOUS PROPOSONS DEUX ALGORITHMES DE POINTS INTERIEURS DE TYPE NEWTON POUR RESOUDRE LES PROBLEMES LINEAIRES. LE PREMIER, UTILISE LA FONCTION BARRIERE MULTIPLICATIVE PRIMALE QUI EST L'EXPONENTIELLE D'UNE FONCTION DU TYPE FONCTION POTENTIELLE DE KARMARKAR. CONTRAIREMENT AUX CAS CLASSIQUES, ICI L'EXPOSANT DE CETTE FONCTION VARIE D'UNE ITERATION A L'AUTRE ET PREND DES VALEURS INFERIEURES AU NOMBRE DES CONTRAINTES D'INEGALITE DU PROBLEME. NOUS MONTRONS SOUS CERTAINES HYPOTHESES, QUE CET ALGORITHME A UNE CONVERGENCE QUADRATIQUE. LES EXPERIENCES NUMERIQUES FAITES MONTRENT QU'IL EST MOINS SENSIBLE AUX ERREURS D'ARRONDI QUE LES ALGORITHMES DE KARMARKAR ET DE GONZAGA QUI UTILISENT LA FONCTION POTENTIELLE DE TYPE KARMARKAR. LE DEUXIEME ALGORITHME QUE NOUS PROPOSONS UTILISE UNE NOUVELLE CLASSE DE FONCTIONS POTENTIELLES BASEES SUR LES FONCTIONS JAUGES CONCAVES. SOUS CERTAINES HYPOTHESES, NOUS MONTRONS QUE LA CONVERGENCE DE L'ALGORITHME EST QUADRATIQUE OU SUPERLINEAIRE
LA THESE PORTE SUR UNE ETUDE A LA FOIS THEORIQUE ET PRATIQUE DES METHODES DE POINTS INTERIEURS POUR LA PROGRAMMATION LINEAIRE ET LA PROGRAMMATION QUADRATIQUE CONVEXE. DANS UNE PREMIERE PARTIE, ELLE DONNE UNE INTRODUCTION AUX METHODES DE POINTS INTERIEURS POUR LA PROGRAMMATION LINEAIRE, DECRIT LES OUTILS DE BASE, CLASSIFIE ET PRESENTE D'UNE FACON UNIFIEE LES DIFFERENTES METHODES. ELLE PRESENTE DANS LA SUITE UN EXPOSE DES ALGORITHMES DE TRAJECTOIRE CENTRALE POUR LA PROGRAMMATION LINEAIRE ET LA PROGRAMMATION QUADRATIQUE CONVEXE. DANS UNE SECOND PARTIE, SONT ETUDIEES DES PROCEDURES DE PURIFICATION EN PROGRAMMATION LINEAIRE. IL S'AGIT DES PROCEDURES QUI DETERMINENT, VIA UNE METHODE DE POINTS INTERIEURS, UN SOMMET (OU FACE) OPTIMAL. DANS CETTE PARTIE, NOUS AVONS INTRODUIT ET DEVELOPPE UNE NOUVELLE PROCEDURE DE PURIFICATION QUI PERMET DE MENER DANS TOUS LES CAS A UN SOMMET OPTIMAL ET DE REDUIRE LE TEMPS DE CALCUL. LA DERNIERE PARTIE EST CONSACREE AUX ILLUSTRATIONS ET AUX EXPERIENCES NUMERIQUES.