Download Free Approche De Meta Modelisation Et Transformations De Modeles Dans Le Contexte De La Modelisation Et Simulation A Evenements Discrets Book in PDF and EPUB Free Download. You can read online Approche De Meta Modelisation Et Transformations De Modeles Dans Le Contexte De La Modelisation Et Simulation A Evenements Discrets and write the review.

Cette thèse s'inscrit au carrefour du monde de la modélisation et simulation de systèmes d'une part et du monde de l'ingénierie logicielle d'autre part. Elle vise à faire bénéficier un formalisme de spécification de systèmes à évènements discrets (DEVS) des apports de l'ingénierie dirigée par les modèles (IDM) avec l'une de ses incarnations les plus populaires : MDA (Model Driven Architecture). Le formalisme DEVS de par son adaptabilité et son extensibilité permet l'expression et la simulation de modèles dans des domaines très variés, mais l'existence de plusieurs plateformes dédiées à ce langage nuit fortement à l'interopérabilité de ces modèles. Ces difficultés, si elles ne sont pas nouvelles, représentent cependant un défi d'autant plus important que les modèles considérés sont complexes (i.e composés en général de nombreux sous modèles et interagissant fortement entre eux). L'objectif de la thèse est de proposer une réponse à la problématique de l'interopérabilité des modèles DEVS, vis-À-Vis d'autres formalismes voisins de DEVS et également vis-À-Vis des différents simulateurs existants. Le cœur de notre travail est constitué par MetaDEVS, méta-Modèle offrant une représentation des modèles DEVS indépendante des plateformes. MetaDEVS est également le nom donné à l'approche globale qui vise à fournir des passerelles génériques entre différents formalismes et DEVS («Model-To-Model»). Cette approche montre également comment, à partir de modèles DEVS spécifiés selon MetaDEVS, du code orienté-Objet, simulable, peut être automatiquement généré («Model-To-Text»).Les formalismes choisis pour faire l'objet d'une transformation vers DEVS sont BasicDEVS, un petit formalisme pédagogique créé pour l'occasion, ainsi que les automates à états finis (FSM). La plateforme de destination choisie pour la génération de code est la plateforme éducative PyDEVS, compatible avec la plateforme DEVSimPy, utilisée par les chercheurs du projet TIC de l'Università di Corsica.
Pour réaliser un modèle dans un domaine métier, les mêmes concepts peuvent être traduits, nommés, représentés ou reliés différemment dans des méta-modèles différents. Ainsi, une transformation définie pour un méta-modèle particulier ne peut pas être utilisée pour un autre méta-modèle. La réutilisation des transformations est donc limitée. Face à ce problème, nous proposons dans cette thèse une solution pour migrer automatiquement les transformations existantes pour pouvoir les appliquer à un autre méta-modèle. Une telle transformation est adaptée pour le nouveau méta-modèle qui a une représentation légèrement différente par rapport à celle d'origine, tout en préservant la sémantique de la transformation. À cette fin, nous introduisons d'abord MetaModMap, un langage spécifique qui permet de décrire des correspondances de la sémantique intentionnelle entre les éléments de deux méta-modèles qui modélisent le même domaine. Ensuite, nous proposons un mécanisme de réécriture pour migrer automatiquement la transformation en utilisant ces correspondances définies par l'utilisateur. La solution proposée utilise une relation de typage de modèle basée sur des graphes qui permet de faire des adaptations en toute sécurité. Notre approche a été prototypée avec MOMENT2 et peut être utilisée pour d¿autres frameworks basés sur le même paradigme de transformation de modèles basé sur les graphes.
Cette thèse aborde les problématiques liées à la reproductibilité des expériences numériques dans le cadre des systèmes complexes environnementaux, et plus particulièrement dans le cadre de la modélisation de systèmes multi-agents. L'activité de M&S peut s'apparenter à une expérience numérique, au même titre qu'une expérience scientifique menée dans une discipline expérimentale, c'est pourquoi la description des modèles SMA doit être partagée de façon non ambigüe. Dans cet objectif, nous nous sommes dirigés vers une approche formelle, qui permet de décrire les modèles d'un point de vue structurel et sémantique. Nous présentons dans ce manuscrit deux contributions majeures : une proposition de formalisation du paradigme agent associant des méthodes de conception pour l'élaboration des modèles et une mise en oeuvre des abstractions permettant de faciliter le développement de SMA, d'après les concepts définis par l'approche formelle à travers l'outil Quartz. Nous proposons également une mise en application de l'approche à travers deux exemples, dans lesquels la définition d'un modèle est établie, de la description informelle à son implémentation.
Les découvertes scientifiques aboutissent souvent à la représentation de structures dans l’environnement sous forme de graphes d’objets. Par exemple, certains réseaux de réactions biologiques visent à représenter les processus vitaux tels que la consommation de gras ou l’activation/désactivation des gênes. L’extraction de connaissances à partir d'expérimentations, l'analyse des données et l’inférence conduisent à la découverte de structures effectives dans la nature. Ce processus de découverte scientifiques peut-il être automatisé au moyen de diverses sources de connaissances? Dans cette thèse, nous abordons la même question dans le contexte contemporain de l'ingénierie dirigée par les modèles (IDM) de systèmes logiciels complexes. L’IDM vise à accélérer la création de logiciels complexes en utilisant de artefacts de base appelés modèles. Tout comme le processus de découverte de structures effectives en science un modeleur crée dans un domaine de modélisation des modèles effectifs, qui représente des artefacts logiciels utiles. Dans cette thèse, nous considérons deux domaines de modélisation: métamodèles pour la modélisation des langages et des feature diagrams pour les lignes de produits (LPL) logiciels. Pouvons-nous automatiser la découverte de modèles effectifs dans un domaine de modélisation? Le principal défi dans la découverte est la génération automatique de modèles. Les modèles sont des graphes d’objets interconnectés avec des contraintes sur leur structure et les données qu'ils contiennent. Ces contraintes sont imposées par un domaine de modélisation et des sources hétérogènes de connaissances, incluant plusieurs règles de bonne formation. Comment pouvons-nous générer automatiquement des modèles qui satisfont ces contraintes? Dans cette thèse, nous présentons un framework dirigé par les modèles pour répondre à cette question. Le framework pour la découverte automatique de modèles utilise des sources hétérogènes de connaissances pour construire, dans un premier temps, un sous-ensemble concis et pertinent d’une spécification du domaine de modélisation appelée domaine de modélisation effectif. Ensuite, il transforme le domaine de modélisation effectif défini dans différents langages vers un problème de satisfaction de contraintes dans le langage de spécification formel Alloy. Enfin, le framework invoque un solveur sur le modèle Alloy pour générer un ou plusieurs modèles effectifs. Nous incorporons le framework dans deux outils: Cartier pour la découverte de modèles a partir de n’importe quel langage de modélisation et Avishkar pour la découverte de produits dans une LPL. Nous validons notre framework par des expérimentations rigoureuses pour la génération de test, la complétion de modèles partiel, la génération de produits, et la génération d’orchestrations web service. Les résultats montrent que notre framework génère systématiquement des solutions effectives dans des domaines de modélisation à partir de cas d’étude significatifs.
LES MODELES, QUI N'ETAIENT HIER ENCORE UTILISES QU'A TITRE DE DOCUMENTATION, SONT AUJOURD'HUI DEVENUS DES ENTITES DE PREMIER ORDRE INTERPRETES NON SEULEMENT PAR L'HOMME, MAIS EGALEMENT PAR LA MACHINE. EN EFFET, DE PLUS EN PLUS D'OUTILS SONT CAPABLES DE TIRER PARTI DE LA MASSE D'INFORMATION QU'ILS CONSTITUENT. CETTE NECESSITE DE PRENDRE EN COMPTE DES MODELES ABSTRAITS DE PLUS EN PLUS NOMBREUX NOUS OBLIGE ALORS A DEFINIR AVEC PRECISION LEUR NATURE, LES FORMALISMES UTILISES POUR LES EXPRIMER, AINSI QUE LES RELATIONS ET LES CORRESPONDANCES ENTRE CES MODELES. NOUS NOUS SITUONS DANS UNE APPROCHE OU UN MODELE EST CONSIDERE COMME UNE ABSTRACTION D'UN SYSTEME PAR RAPPORT A UNE CERTAINE ONTOLOGIE OU META-MODELE. CETTE ONTOLOGIE EST CONSTITUEE DES CONCEPTS ET DES RELATIONS ENTRE CONCEPTS UTILISABLES DANS L'EXPRESSION DU MODELE. LA NOTION DE META-MODELE EST ESSENTIELLE DANS LE CADRE DE L'INGENIERIE DES MODELES ET CETTE THESE VISE A PROPOSER UN CADRE INDUSTRIEL COHERENT POUR LA MODELISATION ET LA META-MODELISATION. ELLE PRESENTE DANS UN PREMIER TEMPS QUELQUES FORMALISMES SUSCEPTIBLES DE SUPPORTER LA REPRESENTATION DES MODELES ET DE LEURS META-MODELES. DANS LE CADRE DE CE TRAVAIL, LES MODELES ISSUS DE DOMAINES DIVERS TELS QUE L'INDUSTRIALISATION DU DEVELOPPEMENT DE LOGICIELS, LA RETRO-INGENIERIE ET LA MODELISATION DE PROCESSUS DOIVENT ETRE SUPPORTES DE FACON HOMOGENE. NOUS AVONS DEFINI NOTRE PROPRE FORMALISME, BASE SUR LES RESEAUX SEMANTIQUES, CAPABLE DE REPRESENTER INDIFFEREMMENT CES MODELES ET LEURS META-MODELES DE FACON EXPLICITE. NOUS NOUS SOMMES INTERESSES A LA RELATION EXISTANT ENTRE UN MODELE ET SON META-MODELE, AINSI QU'A LA NOTION D'EXTENSION DE MODELES ET DE META-MODELES. AU DELA DE L'EXPRESSION DES MODELES, NOUS AVONS PROPOSE UN MOYEN DE FORMALISER LES REGLES DE TRANSFORMATION DE MODELES AINSI QU'UN LANGAGE D'EXPRESSION DE REQUETES SUR UN MODELE. CE TRAVAIL A DONNE LIEU A LA REALISATION D'UN ENSEMBLE D'OUTILS GENERIQUES DE SUPPORT A LA MODELISATION.
Un état des lieux de la modélisation et de la simulation Il y a trente-cinq ans paraissait en France l’importante synthèse dirigée par Pierre Delattre et Michel Thellier : Élaboration et justification des modèles. Depuis cette date, que de chemins parcourus ! La simulation a pris un poids considérable. Sa pratique n’est plus seulement numérique. L’approche objets, la simulation à base d’agents, la simulation sur grille, le calcul parallèle se sont développés. La diversité des pratiques s’est donc considérablement accrue, essentiellement à la faveur de l’enrichissement des possibilités offertes par la computation. Si cette augmentation de la diversité a pu apparaître comme occasionnant un morcellement des pratiques de modélisation, on ne peut oublier qu’elle a été accompagnée d’une tendance inverse : l’intégration de différents types de sous-modèles dans des systèmes uniques de simulation. Reste que la puissance calculatoire des ordinateurs, la diversité des modes de simulation, l’amplification du phénomène « boîte noire » impliquée par ces deux facteurs, ont pu concourir à un effet de « sidération » devant l’effectivité de ces expériences in silico. Une forme de « scepticisme computationnel » doit alors être à l’œuvre pour s’en prémunir. Il fallait tâcher de rendre compte de ces mouvements riches et en partie contradictoires. Il fallait tâcher d’en proposer des analyses épistémologiques en profitant des progrès de la philosophie des sciences sur la notion de modèle, fruits d’inflexions importantes qui ont également eu lieu dans cette discipline au cours des dernières décennies depuis l’analyse des théories scientifiques vers l’examen des modèles. Les 23 chapitres du tome 2 de Modéliser & simuler entendent compléter le vaste état des lieux commencé dans le tome 1 en mettant en valeur des disciplines et des approches qui n’y étaient pas représentées, par exemple la modélisation matérielle en physique, la modélisation formelle et la simulation en chimie théorique et computationnelle, en architecture ou encore en ingénierie et dans les sciences de la conception. Les tomes 1 et 2 sont indépendants l’un de l’autre. Découvrez cette analyse épistémologique de la simulation et de la modélisation centrée sur des disciplines telles que la modélisation matérielle en physique, la modélisation formelle et la simulation en chimie théorique et computationnelle, en architecture ou encore en ingénierie et dans les sciences de la conception EXTRAIT Un des points clés pour respecter la méthode scientifique est aussi de pouvoir reproduire les résultats des expériences informatiques déployées sur des calculateurs distribués. Le fait de paralléliser les simulations ajoute une complexité si nous voulons reproduire de manière fiable les résultats de nos calculs. L’absence de reproductibilité est liée à un manque de rigueur dans la conception de nos simulations parallèles stochastiques. LES AUTEURS Sous la direction de Franck Varenne, Marc Silberstein, Sébastien Dutreuil et Philippe Huneman, de nombreux auteurs ont également contribué à la rédaction de cet ouvrage : Leonardo Bich, Frédéric Boulanger, Céline Brochot, Christophe Cambier, Pascal Carrivain, Gilberte Chambaud, Léo Coutellec, Julien Delile, Jean-Marie Dembele, René Doursat, Thierry Foglizzo, Sara Franceschelli, Christian Girard, Hélène Guillemot, David R.C. Hill, Annick Lesne, Johannes Martens, Sébastien Martin, Bertrand Maury, Olivier Michel, Philippe Morel, Matteo Mossio, Nadine Peyriéras, Denis Phan, Laurent Pujo-Menjouet, Stephane Redon, Stéphanie Ruphy, Hiroki Sayama, Anne-Françoise Schmid, Jean-Marc Victor, Paul Villoutreix, Frédéric Wieber, Marie-Emilie Willemin et Florence Zeman.
Cette thèse est constituée de trois essais indépendants, chacun portant sur un aspect théorique ou empirique relatif à la question des connaissances provenant d'experts. Dans le premier chapitre de cette thèse, j'étudie la transmission de connaissances scientifiques entre un expert et un décideur. Un modèle scientifique est formalisé par une distribution de probabilité sur un ensemble de scénarios possibles. L'expert est supposé connaître le modèle le plus probable parmi un ensemble possible et cherche à le communiquer au décideur. Toutefois, parce que ces modèles sont trop complexes, l'expert ne peut pas certifier cette information au décideur. Je montre que s'il y a une différence d'intérêt entre les deux partis, à l'équilibre, la transmission de l'information est toujours partielle. L'expert ne pourra jamais communiquer de manière crédible quel modèle est le plus probable. Toutefois, il pourra désigner un ensemble de modèles contenant celui-ci. La taille de cet ensemble, et donc le degré d'information qu'il pourra communiquer, dépend à la fois de la différence d'intérêt entre les partis mais aussi du consensus entre les modèles scientifiques. Si la science n'est pas suffisamment consensuelle, il y a une asymétrie dans la transmission de l'information. Si le modèle le plus probable est parmi les plus optimistes, la transmission d'information dépend uniquement de la différence d'intérêt entre les partis. Mais s'il est parmi les plus pessimistes, aucune transmission d'information n'est possible. Dans le second chapitre de cette thèse, mes co-auteurs et moi mesurons expérimentalement les croyances de sujets sur des événements dont ils sont plus ou moins familiers. Pour ce faire, nous proposons une méthode novatrice d'identification des croyances des sujets qui s'appuie sur l'utilisation d'intervalles de probabilités objectives. Pour chaque événement, notre approche nous permet d'éliciter des ensembles de distribution de probabilités majoritairement non dégénérés. De plus, plus les événements sont familiers, plus les intervalles élicités sont restreints. Ainsi, plus nos sujets se sentent experts sur une question, plus leurs croyances sont précises. Notre approche nous permet également d'estimer la manière dont ces sujets agissent en correspondance avec leurs croyances. Ce faisant, nous parvenons à la première estimation du coefficient de mixture alpha dans le modèle de décision alpha-maxmin EU de Hurwicz, en contrôlant par les croyances des sujets. Dans le troisième chapitre de cette thèse, je reprends l'hypothèse que la connaissance scientifique est trop complexe pour être certifiée à des non-experts. J'étudie les conséquences de celle-ci dans un cas appliqué : celui du changement climatique. Je modélise le problème de la sur-émission de gaz à effet de serre (GES) comme un jeu de contribution à un mal public. Dans ce jeu, tous les contributeurs gagnent individuellement à émettre, car les GES sont corrélés à la consommation de biens, mais tous les contributeurs souffrent du total des émissions car celles-ci sont responsables de dommages climatiques. A l'équilibre, le niveau d'émission est toujours trop élevé, car chaque contributeur ne tient pas compte des externalités négatives dont il est responsable. Les contributeurs ne sont pas des experts du climats, et leurs connaissances sur les dommages auxquels ils s'exposent s'appuient uniquement sur un expert. Ce dernier tient compte des externalités des contributeurs, et voudrait toujours un niveau d'émission plus bas que celui obtenu à l'équilibre par les contributeurs. Il y a donc toujours une différence d'intérêt entre l'expert et les non-experts. Dans ce chapitre, je prouve qu'aucune transmission d'information ne peut avoir lieu à l'équilibre. Ce résultat montre que la seule parole de l'expert, sans pouvoir de certification, ne suffit pas lorsqu'il s'agit de communiquer sur le risque climatique.
Cet ouvrage se veut une contribution a une meilleure comprehension de l'evolution des modeles de simulation dans leur cycle de vie. Le concept au coeur de cet objectif est celui de modelisation multi-analyse qui vise a conjuguer la simulation, les capacites de raisonnement symbolique, et les moyens de synthese automatique de code, a partir d'une specification unique. Cet effort, qui est au service de l'ingenierie modele-centree des systemes complexes, est a la croisee de la theorie mathematique des systemes dynamiques, des methodes formelles et du genie logiciel avance.
La problématique est l’étude de la modélisation pour la simulation de systèmes complexes et des processus de modélisation et de simulation. Les processus de modélisation et de simulation étant complexes, il faut rationaliser la modélisation et gagner en maîtrise sur elle. Nous proposons de concevoir le modèle complexe comme une société de modèles en interaction. Nous appliquons l’approche orientée pattern pour rationaliser la modélisation en la centrant sur les données. Nous utilisons l’approche agent pour distribuer l’observation et le contrôle dans le modèle global. La société de modèles permet alors l’émergence des patterns par l’activité des agents. Les artefacts, appliqués à la modélisation, sont le support des données, des patterns et des interactions entre agents. Le couplage des agents se fait ainsi via les artefacts, à la différence d’une approche par événements. Nous identifions trois types d’agents 1° les agents-modèles, qui exécutent ic modèle d’un phénomène; 2° les agents-observateurs, qui construisent des observables; 3° les agents-contrôleurs, qui contrôlent localement le modèle global. Les agents peuvent également s’adapter à leur environnement avec des opérations pour modifier leurs perceptions et actions. Le modèle complexe peut alors être construit incrémentalement, les comportements des agents peuvent être modifiés facilement, et tin agent peut être ajouté ou enlevé du modèle global sans impact sur la structure des autres agents. Enfin, nous identifions quatre types de comportements pour un agent-modèle 1’ basé sur des équations différentielles (intensionnel) ; 2’ centré individu (émergent) 3’ pré-calculé (extensionnel); 4 joué par un expert (participatif). Pour’ aller plus loin dans la rationalisation de la modélisation, nous exhibons les biais computationnels induits par la traduction de modèles conceptuels en modèles computationnels dans le cas de modèles de peuplements d’agents. Nous montrons que nos modèles sont très sensibles aux différents biais étudiés. Il est nécessaire que les thématiciens connaissent les sources de biais et que l’outil de simulation soit spécialisé afin de permettre 1° d’expliciter le modèle, 2° de garantir les propriétés identifiées et 3° de permettre des analyses systématiques. C’est ce que nous faisons dans notre simulateur. Enfin, ce travail entre dans le cadre du projet ANR Chaloupe. L’enjeu est d’envisager la co-viabilité de peuplements écologiques et de leur exploitation par des groupes sociaux (e.g. pêcheries). Nous présentons les résultats de simulation obtenus validant la société de modèles qui permet une modélisation souple et rigoureuse.
Le sujet abordé par cette thèse relève du domaine de l’ingénierie des Environnements Informatiques pour l’Apprentissage Humain (EIAH). D’un point de vue pédagogique, nous nous intéressons à la spécification de situations d’apprentissage dans un contexte de Pédagogie par Projet Collectif (PPC) en milieu universitaire. La PPC est une méthode de la pédagogie active "regroupant" les deux méthodes actives : Pédagogie par Projet (PP) et Apprentissage Collectif (AC). D’un point de vue informatique, nous nous intéressons au cycle de vie complet de développement du logiciel. Plus précisément depuis la spécification des besoins pédagogiques jusqu’à l’opérationnalisation dans un EIAH. Dans cette thèse, nous définissons un processus de conception et de médiatisation de situations d’apprentissage dans un contexte de Pédagogie par Projet Collectif (PPC). Ce processus est un processus d’ingénierie qui met l’enseignant au coeur du travail à toutes les étapes du cycle de vie. Il intègre la nécessaire compréhension partagée entre l’enseignant et l’expert de la plate-forme (ingénieur pédagogique) aussi bien lors du choix de plate-forme que de l’opérationnalisation du scénario PPC sur la plate-forme. Nous centrons notre processus autour de la notion de scénarios permettant de mettre en oeuvre des situations d’apprentissage dans un contexte de Pédagogie par Projet Collectif (PPC) et nous adoptons une démarche d’Ingénierie Dirigée par les modèles (IDM) autour de ces scénarios. Cette approche est proposée dans le but de favoriser la conciliation des deux points de vue : pédagogique et technique. Pour ce faire nous adoptons une approche d’expression centrée sur une méta-modélisation spécifiquement dédiée à la Pédagogie par Projet Collectif (PPC). Notre recherche en EIAH nous a permis de constater une insuffisance des langages de scénarisation pédagogique dans un contexte de Pédagogie par Projet Collectif (PPC). Ainsi définir un méta-modèle dédié à la Pédagogie par Projet Collectif (PPC) peut s’avérer plus pertinent pour l’enseignant qui évolue alors dans une culture pédagogique qui lui est propre. Il permet ainsi de pallier à l’inadéquation de la description inhérente à une approche généraliste. Nous proposons d’utiliser notre méta-modèle PPC pour aider l’enseignant concepteur à élaborer ses scénarios d’apprentissage. Dans la dernière phase nous choisissons la stratégie de la réutilisation de plates-formes existantes et déjà opérationnelles plutôt que celle du développement ex-nihilo d’une nouvelle plate-forme, fusse-t-elle à base de composants réutilisables. Cependant l’extrême complexité et diversité des technologies et compétences à maîtriser rendent difficile la réutilisation d’une plate-forme dans un contexte nouveau, notamment faute de capitalisation suffisante. Ces problèmes de réutilisation sont d’ailleurs une problématique centrale dans les activités du génie logiciel, mais ils pointent sans doute avec plus d’acuité dans le domaine nouveau et fondamentalement transdisciplinaire des EIAH. Pour cela, afin de maximiser la pertinence de l’opérationnalisation finale, nous proposons d’aborder le problème par une phase de choix de plates-formes à partir d’un modèle de fonctionnalités que nous avons défini et dédié à la PPC. Ce modèle de fonctionnalités agit alors comme un modèle qualité spécifiquement défini pour la PPC. L’enseignant concepteur est guidé pour choisir une plate-forme la mieux adaptée à ses besoins formulés à travers son scénario. Il peut être amené à choisir une plate-forme parmi plusieurs mises à sa disposition ou bien évaluer dans quelle mesure une certaine plate-forme est bien adaptée à son besoin (scénario). Ensuite nous proposons une démarche par transformation de modèles depuis le méta-modèle de la situation d’apprentissage de la PPC vers celui de la plate-forme cible qui a été sélectionnée. Cette dernière phase conclut notre démarche et permet de satisfaire notre hypothèse fondatrice de départ qu’une situation d’apprentissage de type PPC peut être médiatisée par transformation du scénario PPC en un scénario PPC opérationnalisable par la plate-forme cible suivant une approche de type MDA (Model Driven Architecture). Cette approche basée sur les modèles, met au centre la technique de transformation de modèles. Cette technique favorise la traçabilité entre les différents modèles produits à différents niveaux d’abstraction. Nous avons testé nos travaux sur la plate-forme Moodle, utilisée à l’IUT de Laval. Ce cas d’étude nous a amené de plus à développer un outil informatique à l’usage des enseignants-concepteurs destiné à faciliter la transformation d’un scénario PPC en scénario PPC opérationnalisable sur une plate-forme cible quelconque, Moodle dans notre cas.