77 research outputs found

    DĂ©pendances fonctionnelles (extraction et exploitation)

    Get PDF
    Les dépendances fonctionnelles fournissent une information sémantique sur les données d une table en mettant en lumière les liens de corrélation qui les unient. Dans cette thèse, nous traitons du problème de l extraction de ces dépendances en proposant un contexte unifié permettant la découverte de n importe quel type de dépendances fonctionnelles (dépendances de clé, dépendances fonctionnelles conditionnelles, que la validité soit complète ou approximative). Notre algorithme, ParaCoDe, s exécute en parallèle sur les candidats, réduisant ainsi le temps global de calcul. De ce fait, il est très compétitif vis-à-vis des approches séquentielles connues à ce jour. Les dépendances satisfaites sur une table nous servent à résoudre le problème de la matérialisation partielle du cube de données. Nous présentons une caractérisation de la solution optimale dans laquelle le coût de chaque requête est borné par un seuil de performance fixé préalablement et dont la taille est minimale. Cette spécification de la solution donne un cadre unique pour décrire et donc comparer formellement les techniques de résumé de cubes de données.Functional dependancies provide a semantic information over data from a table to exhibit correlation links. In this thesis, we deal with the dependancy discovery problem by proposing a unified context to extract any type of functional dependencies (key dependencies, conditional functional dependencies, with an exact or an approximate validity). Our algorithm, ParaCoDe, runs in parallel on candidates there by reducing the global time of computations. Hence, it is very competitive comparated to sequential appoaches known today. Satisfied dependencies on a table are used to solve the problem of partial materiali-zation of data cube. We present a characterization of the optimal solution in which the cost of each query is bounded by a before hand fixed performance threshold and its size is minimal. This specification of the solution gives a unique framework to describe and formally compare summarization techniques of data cubes.BORDEAUX1-Bib.electronique (335229901) / SudocSudocFranceF

    Gestion dynamique des connaissances de maintenance pour des environnements de production de haute technologie Ă  fort mix produit

    Get PDF
    The constant progress in electronic technology, the short commercial life of products, and the increasing diversity of customer demand are making the semiconductor industry a production environment constrained by the continuous change of product mix and technologies. In such environment, success depends on the ability to develop and industrialize new products in required competitive time while keeping a good level of cost, yield and cycle time criteria. These criteria can be ensured by high and sustainable availability of production capacity which needs appropriate maintenance policies in terms of diagnosis, supervision, planning and operating protocols. At the start of this study, the FMEA approach (analysis of failure modes, effects and criticality) was only mobilized to capitalize the expert’s knowledge for maintenance policies management. However, the evolving nature of the industrial context requires knowledge updating at appropriate frequencies in order to adapt the operational procedures to equipment and processes behavior changes.This thesis aims to show that the knowledge update can be organized by setting up an operational methodology combine both Bayesian networks and FMEA method. In this approach, existing knowledge and know-how skills are initially capitalized in terms of cause to effect links using the FMEA method in order to prioritize maintenance actions and prevent their consequences on the equipment, the product quality and personal safety. This knowledge and expertise are then used to develop unified operating procedures for expert’s knowledge and know-how sharing. The causal links stored in the FMEA are modeled in an operational Bayesian network (BN-O), in order to enable the assessment of maintenance actions effectiveness and, hence, the relevance of existing capitalized knowledge. In an uncertain and highly variable environment, the proper execution of procedures is measured using standards maintenance performance measurement indicators (MPM). Otherwise, the accuracy of existing knowledge can be assessed as a function of the O-BN model accuracy. Any drift of these criteria leads to learning a new unsupervised Bayesian network (U-BN) to discover new causal relations from historical data. The structural difference between O-BN (built using experts judgments) and U-BN (learned from data) highlights potential new knowledge that need to be analyzed and validated by experts to modify the existing FMEA and update associated maintenance procedures.The proposed methodology has been tested in a production workshop constrained by high product mix to demonstrate its ability to dynamically renew expert knowledge and improve the efficiency of maintenance actions. This experiment led to 30% decrease in failure occurrence due to inappropriate maintenance actions. This is certifying a better quality of knowledge modeled in the tools provided by this thesis.Le progrès constant des technologies électroniques, la courte durée de vie commerciale des produits, et la diversité croissante de la demande client font de l’industrie du semi-conducteur un environnement de production contraint par le changement continu des mix produits et des technologies. Dans un tel environnement, le succès dépend de la capacité à concevoir et à industrialiser de nouveaux produits rapidement tout en gardant un bon niveau de critères de coût, rendement et temps de cycle. Une haute disponibilité des capacités de production est assurée par des politiques de maintenance appropriées en termes de diagnostic, de supervision, de planification et des protocoles opératoires. Au démarrage de cette étude, l’approche AMDEC (analyse des modes de défaillance, leurs effets et de leur criticité) était seule mobilisée pour héberger les connaissances et le savoir-faire des experts. Néanmoins, la nature évolutive du contexte industriel requiert la mise à jour à des fréquences appropriées de ces connaissances pour adapter les procédures opérationnelles aux changements de comportements des équipements et des procédés. Cette thèse entend montrer que la mise à jour des connaissances peut être organisée en mettant en place une méthodologie opérationnelle basée sur les réseaux bayésiens et la méthode AMDEC. Dans cette approche, les connaissances et les savoir-faire existants sont tout d’abord capitalisés en termes des liens de cause à effet à l’aide de la méthode d’AMDEC pour prioriser les actions de maintenance et prévenir leurs conséquences sur l’équipement, le produit et la sécurité des personnels. Ces connaissances et savoir-faire sont ensuite utilisés pour concevoir des procédures opérationnelles standardisées permettant le partage des savoirs et savoir-faire des experts. Les liens causaux stockés dans l’AMDEC sont modélisés dans un réseau bayésien opérationnel (O-BN), afin de permettre l’évaluation d’efficacité des actions de maintenance et, par là même, la pertinence des connaissances existantes capitalisées. Dans un contexte incertain et très variable, l’exécution appropriée des procédures est mesurée à l’aide des indicateurs standards de performance de maintenance (MPM) et la précision des connaissances existantes en évaluant la précision de l’O-BN. Toute dérive de ces critères conduit à l'apprentissage d'un nouveau réseau bayésien non-supervisé (U-BN) pour découvrir de nouvelles relations causales à partir de données historiques. La différence structurelle entre O-BN et U-BN met en évidence de nouvelles connaissances potentielles qui sont validées par les experts afin de modifier l’AMDEC existante ainsi que les procédures de maintenance associées. La méthodologie proposée a été testée dans un des ateliers de production contraint par un haut mix de produits pour démontrer sa capacité à renouveler dynamiquement les connaissances d’experts et d'améliorer l'efficacité des actions de maintenance. Cette expérimentation a conduit à une diminution de 30% des reprises d’opérations de maintenance attestant une meilleure qualité des connaissances modélisées dans les outils fournis par cette thèse

    Composition dynamique de services sensibles au contexte dans les systèmes intelligents ambiants

    Get PDF
    With the appearance of the paradigms of the ambient intelligence and ubiquitaire robotics, we attend the emergence of new ambient intelligent systems to create and manage environments or intelligent ecosystems in a intuitive and transparent way. These environments are intelligent spaces characterized in particular by the opening, the heterogeneousness, the uncertainty and the dynamicité of the entities which establish(constitute) them. These characteristics so lift(raise) considerable scientific challenges for the conception(design) and the implementation of an adequate intelligent system. These challenges are mainly among five: the abstraction of the representation of the heterogeneous entities, the management of the uncertainties, the reactivity in the events, the sensibility in the context and the auto-adaptationAvec l'apparition des paradigmes de l'intelligence ambiante et de la robotique ubiquitaire, on assiste à l'émergence de nouveaux systèmes intelligents ambiants visant à créer et gérer des environnements ou écosystèmes intelligents d'une façon intuitive et transparente. Ces environnements sont des espaces intelligents caractérisés notamment par l'ouverture, l'hétérogénéité, l'incertitude et la dynamicité des entités qui les constituent. Ces caractéristiques soulèvent ainsi des défis scientifiques considérables pour la conception et la mise en œuvre d'un système intelligent adéquat. Ces défis sont principalement au nombre de cinq : l'abstraction de la représentation des entités hétérogènes, la gestion des incertitudes, la réactivité aux événements, la sensibilité au contexte et l'auto-adaptation face aux changements imprévisibles qui se produisent dans l'environnement ambiant. L'approche par composition dynamique de services constitue l'une des réponses prometteuses à ces défis. Dans cette thèse, nous proposons un système intelligent capable d'effectuer une composition dynamique de services en tenant compte, d'une part, du contexte d'utilisation et des diverses fonctionnalités offertes par les services disponibles dans un environnement ambiant et d'autre part, des besoins variables exprimés par les utilisateurs. Ce système est construit suivant un modèle multicouche, adaptatif et réactif aux événements. Il repose aussi sur l'emploi d'un modèle de connaissances expressif permettant une ouverture plus large vers les différentes entités de l'environnement ambiant notamment : les dispositifs, les services, les événements, le contexte et les utilisateurs. Ce système intègre également un modèle de découverte et de classification de services afin de localiser et de préparer sémantiquement les services nécessaires à la composition de services. Cette composition est réalisée d'une façon automatique et dynamique en deux phases principales: la phase offline et la phase online. Dans la phase offline, un graphe global reliant tous les services abstraits disponibles est généré automatiquement en se basant sur des règles de décision sur les entrées et les sorties des services. Dans la phase online, des sous-graphes sont extraits automatiquement à partir du graphe global selon les tâches à réaliser qui sont déclenchées par des événements qui surviennent dans l'environnement ambiant. Les sous-graphes ainsi obtenus sont exécutés suivant un modèle de sélection et de monitoring de services pour tenir compte du contexte d'utilisation et garantir une meilleure qualité de service. Les différents modèles proposés ont été mis en œuvre et validés sur la plateforme ubiquitaire d'expérimentation du laboratoire LISSI à partir de plusieurs scénarii d'assistance et de maintien de personnes à domicil

    Actes du séminaire national de didactique des mathématiques 2012

    Get PDF
    Actes de la session 2012 du séminaire national de didactique des mathématiques. Le séminaire national de didactique des mathématiques est organisé par l'ARDM. Il a pour but de permettre la diffusion régulière des recherches nouvelles ou en cours, et de favoriser les échanges et débats au sein de la communauté francophone de didactique des mathématiques. Se trouvent également des textes correspondant à la fête des 30 ans de la revue RDM (Recherche en Didactique des Mathématiques) et au colloquium organisé conjointement par l'ARDM et la CFEM (Commission Française pour l'enseignement des mathématiques)

    Apprentissage de la structure de réseaux bayésiens : application aux données de génétique-génomique

    Get PDF
    Apprendre la structure d'un réseau de régulation de gènes est une tâche complexe due à la fois au nombre élevé de variables le composant (plusieurs milliers) et à la faible quantité d'échantillons disponibles (quelques centaines). Parmi les approches proposées, nous utilisons le formalisme des réseaux bayésiens, ainsi apprendre la structure d'un réseau de régulation consiste à apprendre la structure d'un réseau bayésien où chaque variable représente un gène et chaque arc un phénomène de régulation. Dans la première partie de ce manuscrit nous nous intéressons à l'apprentissage de la structure de réseaux bayésiens génériques au travers de recherches locales. Nous explorons plus efficacement l'espace des réseaux possibles grâce à un nouvel algorithme de recherche stochastique (SGS), un nouvel opérateur local (SWAP), ainsi qu'une extension des opérateurs classiques qui permet d'assouplir temporairement la contrainte d'acyclicité des réseaux bayésiens. La deuxième partie se focalise sur l'apprentissage de réseaux de régulation de gènes. Nous proposons une modélisation du problème dans le cadre des réseaux bayésiens prenant en compte deux types d'information. Le premier, classiquement utilisé, est le niveau d'expression des gènes. Le second, plus original, est la présence de mutations sur la séquence d'ADN pouvant expliquer des variations d'expression. L'utilisation de ces données combinées dites de génétique-génomique, vise à améliorer la reconstruction. Nos différentes propositions se sont montrées performantes sur des données de génétique-génomique simulées et ont permis de reconstruire un réseau de régulation pour des données observées sur le plante Arabidopsis thaliana.Structure learning of gene regulatory networks is a complex process, due to the high number of variables (several thousands) and the small number of available samples (few hundred). Among the proposed approaches to learn these networks, we use the Bayesian network framework. In this way to learn a regulatory network corresponds to learn the structure of a Bayesian network where each variable is a gene and each edge represents a regulation between genes. In the first part of this thesis, we are interested in learning the structure of generic Bayesian networks using local search. We explore more efficiently the search space thanks to a new stochastic search algorithm (SGS), a new local operator (SWAP) and an extension for classical operators to briefly overcome the acyclic constraint imposed by Bayesian networks. The second part focuses on learning gene regulatory networks. We proposed a model in the Bayesian networks framework taking into account two kinds of information. The first one, commonly used, is gene expression levels. The second one, more original, is the mutations on the DNA sequence which can explain gene expression variations. The use of these combined data, called genetical genomics, aims to improve the structural learning quality. Our different proposals appeared to be efficient on simulated genetical genomics data and allowed to learn a regulatory network for observed data from Arabidopsis thaliana

    Adaptation autonomique d'applications pervasives dirigée par les architectures

    Get PDF
    The autonomic adaptation of software application is becoming increasingly important in many domains, including pervasive field. Indeed, the integration fo different application resources (physical devices, services and third party applications) often needs to be dynamic and should adapt rapidly and automatically to changes in the execution context. To that end, service-oriented components offer support for adaptation at the architectural level. However, they do not allow the formalisation of all the design constraints that must be guaranteed during the execution of the system. To overcome this limitation, this thesis modeled the design, deployment and runtime architectures. Also, it proposes to establish links between them and has developed algorithms to check the validity of an execution architecture with respect to its architectural design. This led us to consider the entire life cycle of components and to define a set of concepts to be included in architectures supporting variability. This formalisation can be exploited both by a human administrator and by an autonomic manager that has its knowledge base increased and structured. The implementation resulted in the realization of a knowledge base, providing a studio (Cilia IDE) for the design, deployment and supervision of dynamic applications, as well as an autonomic manager that can update the structure of pervasive applications. This thesis has been validated using a pervasive application called “Actimetry”, developed in the FUI~MEDICAL project.La problématique d'adaptation autonomique prend de plus en plus d'importance dans l'administration des applications modernes, notamment pervasives. En effet, la composition entre les différentes ressources de l'application (dispositifs physiques, services et applications tierces) doit souvent être dynamique, et s'adapter automatiquement et rapidement aux évolutions du contexte d'exécution. Pour cela, les composants orientés services offrent un support à l'adaptation au niveau architectural. Cependant, ils ne permettent pas d'exprimer l'ensemble des contraintes de conception qui doivent être garanties lors de l'exécution du système. Pour lever cette limite, cette thèse a modélisé les architectures de conception, de déploiement et de l'exécution. De plus, elle a établi des liens entre celle-ci et proposé des algorithmes afin de vérifier la validité d'une architecture de l'exécution par rapport à son architecture de conception. Cela nous a conduits à considérer de près le cycle de vie des composants et à définir un ensemble de concepts afin de les faire participer à des architectures supportant la variabilité. Notons que cette formalisation peut être exploitée aussi bien par un administrateur humain, que par un gestionnaire autonomique qui voit ainsi sa base de connaissances augmentée et structurée. L'implantation a donné lieu à la réalisation d'une base de connaissance, mise à disposition d'un atelier (Cilia IDE) de conception, déploiement et supervision d'applications dynamiques, ainsi que d'un gestionnaire autonomique capable de modifier la structure d'une application pervasive. Cette thèse a été validée à l'aide d'une application pervasive nommée >, développée dans le cadre du projet FUI~MEDICAL

    La négociation dans la construction du territoire : une approche institutionnaliste

    Get PDF
    Cette thèse montre que la négociation est l'enjeu majeur de la construction du territoire, fondée sur la création de ressources. Cette création de ressources suppose la mise en coordination d'acteurs hétérogènes (firmes, acteurs publics ou sociaux) dont les logiques d'intérêts et de pouvoir sont difficiles à concilier. La dynamique de construction du territoire dépend alors de la capacité des acteurs à traiter ces conflits par la négociation. L'apport principal de cette thèse réside dans une conception renouvelée du territoire défini dans le cadre de l'approche par la proximité comme un espace de négociation. Il s'agit d'un espace construit sur la base de processus complexes, croisés et situés de négociation, vecteurs d'anticipation, de médiation ou de résolution des conflits. La négociation est ici définie dans une perspective institutionnaliste comme un processus de co-production de règles à la fois arbitré et arbitral, visant à la mise en compatibilité des différentes logiques d'acteurs. Ces règles, constitutives d'une proximité institutionnelle, facilitent ensuite l'engagement des acteurs dans une activité finalisée commune donnant naissance à une proximité organisationnelle. Nos deux études de cas confirment que les dynamiques territoriales reposent d'une part sur de "grandes négociations" visant à la formulation d'un cadre de règles commun à tous les acteurs, dans les périodes de transition. Et d'autre part, elles reposent sur de "petites négociations", plus décentralisées, concernant la mise en oeuvre pratique des proximités organisationnelles. Cette analyse montre également que si les acteurs sont conduits à faire des concessions et à céder une partie de leur pouvoir de décision, ils tentent assez systématiquement d'exercer un pouvoir d'influence ou de discrimination par des moyens masqués et détournés.This thesis brings to light that negotiation is at stake in territory construction based on resources creation. This resources creation supposes to set up coordination between various actors (firms, public actors, social actors), whose vested interests may not prove conciliable. So the dynamic of territory construction depends on actors capacity to solve these conflicts by using negotiation. The main contribution of this thesis is to propose a renewed conception of territory, within the proximity approach perspective, clearly definited as a negotiation space. It means here a space built up from complex, crossed and situated negotiation processes, aiming at conflict anticipation, mediation and solving. Negotiation is beeing defined through an intitutionalist perspective as a rules co-production process, both arbitral and arbitrated, aiming at a compatibility between the different logics involved. These rules compose an institutional proximity, that can lead to effective common economic activities between actors, so contributing to an organizational proximity. Our two empirical studies confirm that territorial dynamics are based on the one hand on "large negotiations", within transition periods, aiming at a common set of rules. On the other hand, territorial dynamics are based on "small negotiations", as decentralized negotiations concerning the effective selling out of organizational proximities. This analysis shows moreover that if actors make concessions and yield one part of their decision power, they endeavour systematically to exerce an influence or a discrimination power by hided and indirect means

    Système d'information décisionnel sur les interactions environnement-santé : cas de la Fièvre de la Vallée du Rift au Ferlo (Sénégal)

    Get PDF
    Our research is in part of the QWeCI european project (Quantifying Weather and Climate Impacts on Health in Developing Countries, EU FP7) in partnership with UCAD, the CSE and the IPD, around the theme of environmental health with the practical case on vector-borne diseases in Senegal and particularly the Valley Fever (RVF). The health of human and animal populations is often strongly influenced by the environment. Moreover, research on spread factors of vector-borne diseases such as RVF, considers this issue in its dimension both physical and socio-economic. Appeared in 1912-1913 in Kenya, RVF is a widespread viral anthropo-zoonosis in tropical regions which concerns animals but men can also be affected. In Senegal, the risk area concerns mainly the Senegal River Valley and the forestry-pastoral areas Ferlo. With a Sahelian climate, the Ferlo has several ponds that are sources of water supply for humans and livestock but also breeding sites for potential vectors of RVF. The controlling of the RVF, which is crossroads of three (03) large systems (agro-ecological, pathogen, economic/health/social), necessarily entails consideration of several parameters if one wants to first understand the mechanisms emergence but also consider the work on risk modeling. Our work focuses on the decision making process for quantify the use of health data and environmental data in the impact assessment for the monitoring of RVF. Research teams involved produce data during their investigations periods and laboratory analyzes. The growing flood of data should be stored and prepared for correlated studies with new storage techniques such as datawarehouses. About the data analysis, it is not enough to rely only on conventional techniques such as statistics. Indeed, the contribution on the issue is moving towards a predictive analysis combining both aggregate storage techniques and processing tools. Thus, to discover information, it is necessary to move towards datamining. Furthermore, the evolution of the disease is strongly linked to environmental spatio-temporal dynamics of different actors (vectors, viruses, and hosts), cause for which we rely on spatio-temporal patterns to identify and measure interactions between environmental parameters and the actors involved. With the decision-making process, we have obtained many results :i.following the formalization of multidimensional modeling, we have built an integrated datawarehouse that includes all the objects that are involved in managing the health risk - this model can be generalized to others vector-borne diseases;ii.despite a very wide variety of mosquitoes, Culex neavei, Aedes ochraceus and Aedes vexans are potential vectors of FVR. They are most present in the study area and, during the rainy season period which is most prone to suspected cases; the risk period still remains the month of October;iii.the analyzed ponds have almost the same behavior, but significant variations exist in some points.This research shows once again the interest in the discovery of relationships between environmental data and the FVR with datamining methods for the spatio-temporal monitoring of the risk of emergence.Notre recherche se situe dans le cadre du projet QWECI (Quantifying Weather and Climate Impacts on Health in Developing Countries, UE FP7) en partenariat avec l’UCAD, le CSE et l’IPD, autour de la thématique environnement-santé avec comme cas pratique les maladies à vecteurs au Sénégal et plus particulièrement la Fièvre de la Vallée du Rift (FVR). La santé des populations humaines et animales est souvent fortement influencée par l’environnement. D’ailleurs, la recherche sur les facteurs de propagation des maladies à transmission vectorielle, telle que la FVR, prend en compte cette problématique dans sa dimension aussi bien physique que socio-économique. Apparue en 1912-1913 au Kenya, la FVR est une anthropo-zoonose virale répandue dans les régions tropicales qui concerne principalement les animaux mais dont les hommes peuvent aussi être touchés. Au Sénégal, la zone à risque concerne en majorité la vallée du fleuve Sénégal et la zone sylvo-pastorale du Ferlo. Bien que de climat sahélien, le Ferlo regorge de nombreuses mares qui sont des sources d’approvisionnement en eau pour les hommes et le bétail mais également les gîtes larvaires pour les vecteurs potentiels de la FVR. La maîtrise de la FVR, carrefour de trois (03) grands systèmes (agro-écologique, pathogène, économique/sanitaire/social), implique nécessairement la prise en compte de plusieurs paramètres si l’on veut d’abord comprendre les mécanismes d’émergence mais aussi envisager le travail de modélisation du risque. Notre travail porte sur le processus décisionnel pour quantifier l’utilisation de données sanitaires et environnementales dans l’évaluation de leur impact pour le suivi de la FVR. Les équipes de recherche impliquées produisent des données lors de leurs enquêtes de terrains et des analyses de laboratoire. Ce flot de données croissant devrait être stocké et préparé à des études corrélées grâce aux nouvelles techniques de stockage que sont les entrepôts de données. A propos de l’analyse des données, il ne suffit pas de s’appuyer seulement sur les techniques classiques telles que les statistiques. En effet, la valeur ajoutée de contribution sur la question s’oriente vers une analyse prédictive combinant à la fois les techniques agrégées de stockage et des outils de traitement. Ainsi, pour la découverte d’informations, nouvelles et pertinentes à priori non évidentes, il est nécessaire de s’orienter vers la fouille de données. Par ailleurs, l’évolution de la maladie étant fortement liée à la dynamique spatio-temporelle environnementale des différents acteurs (vecteurs, virus et hôtes), cause pour laquelle nous nous appuyons sur les motifs spatio-temporels pour identifier et mesurer certaines interactions entre les paramètres environnementaux et les acteurs impliqués. Grâce au processus décisionnel, les résultats qui en découlent sont multiples :i.suivant la formalisation de la modélisation multidimensionnelle, nous avons construit un entrepôt de données intégré qui regroupe l’ensemble des objets qui participent à la gestion du risque sanitaire – ce modèle peut être généralisé aux maladies à vecteurs ;ii.malgré une très grande variété de moustiques, les Culex de type neavei et les Aedes de type ochraceus et vexans sont les vecteurs potentiels de la FVR les plus présents dans la zone d’étude et ce, durant la saison des pluies, période la plus sujette à des cas suspects ; la période à risque reste quand même le mois d’octobre ;iii.les mares analysées ont quasiment le même comportement, mais des variations significatives subsistent par endroits.Ce travail de recherche démontre une fois de plus l’intérêt pour la mise en évidence des relations entre les données environnementales et la FVR à partir de méthodes de fouille de données, pour la surveillance spatio-temporelle du risque d’émergence

    Les approches chaos-stochastiques du risque de marché

    Get PDF
    The complexity of financial markets and the resurgence of severe crises contribute to the skepticism and evolution of standard econometric models in the explanation and prediction of financial time series. The warning given jointly by prudential authorities and researchers aims to encourage the development of nonlinear and more complex models inspired by other disciplines. I argue in this thesis that a chaos-stochastic approach of financial dynamics is likely to lead to better results. The relevance of this association is evaluated for market risk in two distinct analytical frameworks. I show the improvements given by a synthesis of chaotic models and GARCH specifications with or without Markov Regime Switching (MRS) for modelling and predicting the Value-at-Risk of 7 mains index of Monetary and Economic Union. It appears, from this study, better results from chaos-stochastic models. In the case of the MRS-GARCH specifications, I find more adequacy of the chaotic model of Lasota (1977) for the indices of Southern Europe, which are especially more volatile than those of Northern Europe for which I recommend the model of Mackey-Glass (1977). This combination allows, in a bivariate framework, to provide information on the relationship between these different indices. I introduce two new specifications that integrate issues related to correlation breakdowns. The first distinguishes, by a sub-periods analysis, the relations of interdependence of contagious relationships. Meanwhile, the second provides, in a unified framework, an integration of correlations breakdowns. These two analyses imply It appears from this double analysis the leading role of the Franco-German duo, the existence of two distinct spheres formed in a part by the Northern European indices and in another part by countries of the Southern Europe, and the intensification of relations between some indices following the sovereign debt crisis. Finally, these results support the relevance of a chaotic model which may account for some volatilities that are, wrongly, attributed to GARCH effects.La complexité des marchés financiers et la recrudescence des crises particulièrement sévères contribuent à l'évolution et à la remise en cause de modèles économétriques dits standards dans l'explication et la prévision des dynamiques financières. L'alerte donnée conjointement par les responsables prudentiels et les chercheurs vise à encourager le développement de modèles plus complexes, non linéaires et largement inspirés d'autres disciplines. Nous soutenons dans cette thèse l'idée qu'une approche chaos-stochastique des chroniques financières est susceptible de conduire à de meilleurs résultats. La pertinence de cette association est évaluée pour le risque de marché dans deux cadres d'analyse distincts. Nous montrons tout l'intérêt d'une synthèse des modèles chaotiques et des spécifications GARCH avec ou sans changements de régimes markoviens (MRS) pour la modélisation et la prévision de la Value-at-Risk des indices boursiers de la zone euro. Il ressort de cette étude de meilleurs résultats des modèles chaos-stochastiques et dans le cas des spécifications MRS-GARCH, une meilleure adéquation du modèle chaotique de Lasota(1977) pour les indices de l'Europe du Sud, particulièrement plus volatiles que ceux de l'Europe du Nord pour lesquels nous recommandons le modèle de Mackey-Glass(1977). Cette combinaison permet, dans un cadre bivarié, de mieux appréhender les liens qui existent entre les différentes places boursières de la zone euro. Nous introduisons deux nouvelles spécifications qui intègrent les problématiques liées aux ruptures de corrélations : la première permet de distinguer, par une analyse en sous-périodes, les relations d'interdépendance par rapport aux phénomènes de contagion et la seconde propose, dans un cadre unifié, d'intégrer les ruptures de corrélations. Cette double analyse met en évidence le rôle moteur du couple d'indices franco-allemand, l'existence de deux sphères distinctes constituées d'une part par les indices de l'Europe du Nord et d'autre part par les pays de l'Europe du Sud et l'intensification de certaines relations entre indices suite à la crise des dettes souveraines. Nous constatons et insistons sur la pertinence d'un modèle chaotique en moyenne pour rendre compte d'une part de la volatilité attribuée, à tort, aux effets GARCH
    • …
    corecore