14 research outputs found

    Réseaux et signal : des outils de traitement du signal pour l'analyse des réseaux

    Get PDF
    This thesis describes new tools specifically designed for the analysis of networks such as social, transportation, neuronal, protein, communication networks... These networks, along with the rapid expansion of electronic, IT and mobile technologies are increasingly monitored and measured. Adapted tools of analysis are therefore very much in demand, which need to be universal, powerful, and precise enough to be able to extract useful information from very different possibly large networks. To this end, a large community of researchers from various disciplines have concentrated their efforts on the analysis of graphs, well define mathematical tools modeling the interconnected structure of networks. Among all the considered directions of research, graph signal processing brings a new and promising vision : a signal is no longer defined on a regular n-dimensional topology, but on a particular topology defined by the graph. To apply these new ideas on the practical problems of network analysis paves the way to an analysis firmly rooted in signal processing theory. It is precisely this frontier between signal processing and network science that we explore throughout this thesis, as shown by two of its major contributions. Firstly, a multiscale version of community detection in networks is proposed, based on the recent definition of graph wavelets. Then, a network-adapted bootstrap method is introduced, that enables statistical estimation based on carefully designed graph resampling schemes.Cette thèse propose de nouveaux outils adaptés à l'analyse des réseaux : sociaux, de transport, de neurones, de protéines, de télécommunications... Ces réseaux, avec l'essor de certaines technologies électroniques, informatiques et mobiles, sont de plus en plus mesurables et mesurés ; la demande d'outils d'analyse assez génériques pour s'appliquer à ces réseaux de natures différentes, assez puissants pour gérer leur grande taille et assez pertinents pour en extraire l'information utile, augmente en conséquence. Pour répondre à cette demande, une grande communauté de chercheurs de différents horizons scientifiques concentre ses efforts sur l'analyse des graphes, des outils mathématiques modélisant la structure relationnelle des objets d'un réseau. Parmi les directions de recherche envisagées, le traitement du signal sur graphe apporte un éclairage prometteur sur la question : le signal n'est plus défini comme en traitement du signal classique sur une topologie régulière à n dimensions, mais sur une topologie particulière définie par le graphe. Appliquer ces idées nouvelles aux problématiques concrètes d'analyse d'un réseau, c'est ouvrir la voie à une analyse solidement fondée sur la théorie du signal. C'est précisément autour de cette frontière entre traitement du signal et science des réseaux que s'articule cette thèse, comme l'illustrent ses deux principales contributions. D'abord, une version multiéchelle de détection de communautés dans un réseau est introduite, basée sur la définition récente des ondelettes sur graphe. Puis, inspirée du concept classique de bootstrap, une méthode de rééchantillonnage de graphes est proposée à des fins d'estimation statistique

    Détection de nouveauté pour le monitoring vibratoire des structures de génie civil : approches chaotique et statistique de l'extraction d'indicateurs

    Get PDF
    Le suivi vibratoire de l'état des ouvrages de génie civil vise à anticiper une défaillance structurale par la détection précoce d'endommagement. Dans ce contexte, la détection de nouveauté constitue une approche particulièrement adaptée à l'analyse des signaux compte tenu des difficultés à modéliser une structure unique et soumise à de nombreux facteurs extérieurs influant sur la dynamique vibratoire. Le premier objectif du travail de thèse consiste à observer dans quelle mesure la détection de nouveauté parvient à détecter un endommagement dans un contexte fortement perturbé par des variations environnementales d'une part, et par une excitation de nature impulsionnelle, d'autre part. Le deuxième objectif est de proposer et d'étudier un nouvel indicateur vectoriel, désigné par JFV (pour Jacobian Feature Vector). Le calcul du JFV s'appuie sur la reconstruction de la trajectoire du système dynamique observé dans son espace des phases. Cette approche exploite les développements scientifiques récents réalisés en théorie des systèmes dynamiques non linéaires, parfois qualifiée de théorie du chaos. Le JFV est comparé aux coefficients de modèles auto-régressifs (AR), couramment utilisés en analyse des séries temporelles. Pour réaliser ce travail de thèse, plusieurs cas d'études expérimentaux sont utilisés dont notamment une maquette de structure en bois sur laquelle l'excitation est contrôlée et des variations environnementales sévères sont imposées. Enfin, différentes approches de modélisation statistique des indicateurs normalisés sont mises en œuvre dans le but de comparer leurs aptitudes respectives à la définition d'un seuil de classification robuste.The aim of structural health monitoring of civil structure is the early detection of damage to prevent tructure failure. But modelling the behaviour of such structure is a very challenging task due to it uniqueness and to the effect of environmental parameters on the dynamic. In this context, the novelty detection approach appears to be well adapted since it avoids the need of prior hypothesis on the nature of the dynamical behaviour, and integrates all variability factors. The work of this thesis has two principal aims. The first one is to quantify the ability of novelty detection to discriminate damage under strong environmental variations and impulse excitation. The second one is to introduce a new damage sensitive feature, referred as Jacobian Feature Vector (JFV). The JFV calculation is based on the reconstructed state space which exploits the progress achieved in the theory of non-linear dynamical systems, also known as chaos theory. The comparison between AR parameters, widely used for time series analysis, and the JFV is carried out on several case studies. One of them is a three storey wooden laboratory structure subjected to strong environmental variations and controlled excitation. Finally, since the last step of novelty detection is decision making based on statistical modelling of the normalized damage sensitive features, the robustness of several approaches for the setting of the classification threshold is investigated

    Tutoriel sur les matrices aléatoires - Introduction aux équivalents déterministes

    Get PDF
    Dans cet article, nous décrivons une approche analytique des Matrices Aléatoires avec des applications en Télécommunications. L’approche en question utilise les équivalents déterministes et permet le design des réseaux du futur quand le nombre d’utilisateurs, le nombre de stations de base et le nombre d’antennes augmente au même rythme. Nous étudions un exemple particulier de détermination de débit dans les réseaux sans fils pour lequel l’équivalent déterministe est calculé étape par étape. Nous décrivons également l’ensemble des concepts, lemmes et outils de base issus des matrices aléatoires nécessaires à la bonne compréhension de la théorie.In the following, we provide a tutorial on the practical application of random matrix theory (RMT) in communication problems, in order to facilitate the utilization of the analytic RMT approach for interested researchers. To this end, we first state the necessary basic theoretical concepts, lemmas and tools from RMT. After this, we build intuition, confidence, and insight into RMT concepts and their applications, by putting the introduced theoretical results into a tutorial like context. To familiarize the reader with the introduced tools, we rely on an example of a step by step derivation of the deterministic equivalent for a non-trivial rate problem. Thus, we provide the theory needed to soundly use the framework of RMT in the design of future large scale (w.r.t. the numbers of users, base stations and antennas) communication networks

    Estimation de paramètres et planification d'expériences adaptée aux problèmes de cinétique - Application à la dépollution des fumées en sortie des moteurs

    Get PDF
    Les modèles physico-chimiques destinés à représenter la réalité expérimentale peuvent se révéler inadéquats. C'est le cas du piège à oxyde d'azote, utilisé comme support applicatif de notre thèse, qui est un système catalytique traitant les émissions polluantes du moteur Diesel. Les sorties sont des courbes de concentrations des polluants, qui sont des données fonctionnelles, dépendant de concentrations initiales scalaires.L'objectif initial de cette thèse est de proposer des plans d'expériences ayant un sens pour l'utilisateur. Cependant les plans d'expérience s'appuyant sur des modèles, l'essentiel du travail a conduit à proposer une représentation statistique tenant compte des connaissances des experts, et qui permette de construire ce plan.Trois axes de recherches ont été explorés. Nous avons d'abord considéré une modélisation non fonctionnelle avec le recours à la théorie du krigeage. Puis, nous avons pris en compte la dimension fonctionnelle des réponses, avec l'application et l'extension des modèles à coefficients variables. Enfin en repartant du modèle initial, nous avons fait dépendre les paramètres cinétiques des entrées (scalaires) à l'aide d'une représentation non paramétrique.Afin de comparer les méthodes, il a été nécessaire de mener une campagne expérimentale, et nous proposons une démarche de plan exploratoire, basée sur l entropie maximale.Physico-chemical models designed to represent experimental reality may prove to be inadequate. This is the case of nitrogen oxide trap, used as an application support of our thesis, which is a catalyst system treating the emissions of the diesel engine. The outputs are the curves of concentrations of pollutants, which are functional data, depending on scalar initial concentrations.The initial objective of this thesis is to propose experiental design that are meaningful to the user. However, the experimental design relying on models, most of the work has led us to propose a statistical representation taking into account the expert knowledge, and allows to build this plan.Three lines of research were explored. We first considered a non-functional modeling with the use of kriging theory. Then, we took into account the functional dimension of the responses, with the application and extension of varying coefficent models. Finally, starting again from the original model, we developped a model depending on the kinetic parameters of the inputs (scalar) using a nonparametric representation.To compare the methods, it was necessary to conduct an experimental campaign, and we propose an exploratory design approach, based on maximum entropy.ST ETIENNE-ENS des Mines (422182304) / SudocSudocFranceF

    Optimisation en Temps Réel: Optimiser les Performances des Procédés Chimiques malgré l’Incertitude et les Erreurs de Modélisation

    Get PDF
    This document summarizes the author’s research activities since 1999. They mainly focus on the modelling, the control and the optimization of processes and contributed to the development of real-time optimization methods (RTO), that is, process optimization methods that are capable of driving a real process to optimal performances despite uncertainty, modeling errors and process disturbances. The main philosophy of these methods is to use available process measurement to correct the nominal model-based inputs. Several methodological contributions have been recently obtained in the fields of RTO via modifier adaptation (RTO-MA) but also in the establishment of sufficient conditions for feasibility and optimality that are applicable to any RTO algorithm. The need for the availabilty of an adequate model has been circumvented by the use of convex model approximations and the applicability of RTO-MA was extended to the optimization of discontinuous processes and to the use use transient information for the optimization of steady-state performances of continuous processes. These techniques have been successfully applied to industrial polymerization reactors, to experimental and industrial fuel cells stacks, to the iterative controller tuning problem and to the simulated production of energy using tethered kites. Research has been also performed in the field of modelling and control of blood sugar concentration for patients with Type I diabetes. Attention was paid to the construction of model-based prediction tools that are consistent with standard therapy

    Réseaux de régulation chez Escherichia coli

    Get PDF
    L'adaptation d'une bactérie aux changements de son environnement est contrôlée par un réseau de régulation large et complexe, faisant intervenir de nombreux acteurs et modules différents. Dans ce travail, nous avons étudiés un module de régulation spécifique, contrôlant l'adaptation de la bactérie Escherichia coli à un changement de sources de carbone. Dans un milieu contenant du glucose et de l'acétate, la croissance est divisée en deux phases : les bactéries utilisent préférentiellement le glucose et commencent à métaboliser l'acétate qu'après l'épuisement du glucose. En effet, la présence du glucose réprime la transcription d'un gène nécessaire à la croissance sur acétate, le gène acs (codant pour l'acétyl-CoA synthétase). Le mécanisme régulateur fait intervenir le facteur de transcription Crp-AMPc et le système de transfert de phosphate (PTS), qui permet l'import du glucose. Plusieurs modèles décrivent en détail la cascade de réactions moléculaires à l'origine de cette répression catabolique . Cependant, certaines de nos observations expérimentales ne sont pas correctement prédites par les modèles actuels. Ces modèles doivent être révisés ou complétés. L'outil majeur que nous employons pour les expériences est la fusion transcriptionnelle : une région promotrice fusionnée en amont d'un gène rapporteur (GFP, luciferase). Avec ces constructions, nous mesurons la dynamique de l'expression génique dans différentes souches (mutants) et différentes conditions environnementales. Les observations à l'échelle de la population sont corroborées par des mesures similaires à l'échelle de la cellule unique. Nous utilisons cette même technologie pour construire de petits systèmes synthétiques qui sondent davantage le phénomène de répression catabolique. Nous avons ainsi créé un interrupteur génétique dont le fonctionnement est contrôlé par le flux glycolytique et nous avons construit un petit système de communication intercellulaire basé sur la molécule AMPc. Enfin, nous proposons une manière originale de mesurer l'état métabolique des cellules en utilisant la dépendance énergétique de la luciferase.The adaptation of bacteria to changes in their environment is controlled by a large and complex regulatory network involving many different actors and modules. In this work, we have studied a specific module controlling the adaptation of Escherichia coli to a change in carbon sources. In a medium containing glucose and acetate, growth is divided into two phases : the bacteria preferentially use glucose and start to metabolize acetate only after glucose exhaustion. Indeed, the presence of glucose represses the transcription of a gene needed for growth on acetate : the acs gene (coding for acetyl-CoA synthetase). The regulatory mechanism involves the Crp-cAMP regulator and the phosphate transfer system (PTS), which is responsible for glucose import. Several models describe the cascade of molecular reactions responsible for this catabolite repression . However, our work shows that many of our experimental observations are incorrectly predicted by current models. These models have to be amended.We use transcriptional fusion, i.e., the fusion of a promoter region upstream of a reporter gene (GFP, luciferase), to measure the dynamics of gene expression in different genetic backgrounds and environmental conditions. Observations at the population level are corroborated by similar measurements at the single cell level. We use this same technology to construct small synthetic systems that probe further aspects of the phenomenon of catabolite repression. We have thus created a genetic toggle switch controlled by the glycolytic flux and we have built an inter-cellular communication system mediated by cAMP. Finally, we propose a novel way to measure the metabolic state of cells by using the energy dependence of the luciferase enzyme.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    Schémas de tatouage d'images, schémas de tatouage conjoint à la compression, et schémas de dissimulation de données

    Get PDF
    In this manuscript we address data-hiding in images and videos. Specifically we address robust watermarking for images, robust watermarking jointly with compression, and finally non robust data-hiding.The first part of the manuscript deals with high-rate robust watermarking. After having briefly recalled the concept of informed watermarking, we study the two major watermarking families : trellis-based watermarking and quantized-based watermarking. We propose, firstly to reduce the computational complexity of the trellis-based watermarking, with a rotation based embedding, and secondly to introduce a trellis-based quantization in a watermarking system based on quantization.The second part of the manuscript addresses the problem of watermarking jointly with a JPEG2000 compression step or an H.264 compression step. The quantization step and the watermarking step are achieved simultaneously, so that these two steps do not fight against each other. Watermarking in JPEG2000 is achieved by using the trellis quantization from the part 2 of the standard. Watermarking in H.264 is performed on the fly, after the quantization stage, choosing the best prediction through the process of rate-distortion optimization. We also propose to integrate a Tardos code to build an application for traitors tracing.The last part of the manuscript describes the different mechanisms of color hiding in a grayscale image. We propose two approaches based on hiding a color palette in its index image. The first approach relies on the optimization of an energetic function to get a decomposition of the color image allowing an easy embedding. The second approach consists in quickly obtaining a color palette of larger size and then in embedding it in a reversible way.Dans ce manuscrit nous abordons l’insertion de données dans les images et les vidéos. Plus particulièrement nous traitons du tatouage robuste dans les images, du tatouage robuste conjointement à la compression et enfin de l’insertion de données (non robuste).La première partie du manuscrit traite du tatouage robuste à haute capacité. Après avoir brièvement rappelé le concept de tatouage informé, nous étudions les deux principales familles de tatouage : le tatouage basé treillis et le tatouage basé quantification. Nous proposons d’une part de réduire la complexité calculatoire du tatouage basé treillis par une approche d’insertion par rotation, ainsi que d’autre part d’introduire une approche par quantification basée treillis au seind’un système de tatouage basé quantification.La deuxième partie du manuscrit aborde la problématique de tatouage conjointement à la phase de compression par JPEG2000 ou par H.264. L’idée consiste à faire en même temps l’étape de quantification et l’étape de tatouage, de sorte que ces deux étapes ne « luttent pas » l’une contre l’autre. Le tatouage au sein de JPEG2000 est effectué en détournant l’utilisation de la quantification basée treillis de la partie 2 du standard. Le tatouage au sein de H.264 est effectué à la volée, après la phase de quantification, en choisissant la meilleure prédiction via le processus d’optimisation débit-distorsion. Nous proposons également d’intégrer un code de Tardos pour construire une application de traçage de traîtres.La dernière partie du manuscrit décrit les différents mécanismes de dissimulation d’une information couleur au sein d’une image en niveaux de gris. Nous proposons deux approches reposant sur la dissimulation d’une palette couleur dans son image d’index. La première approche consiste à modéliser le problème puis à l’optimiser afin d’avoir une bonne décomposition de l’image couleur ainsi qu’une insertion aisée. La seconde approche consiste à obtenir, de manière rapide et sûre, une palette de plus grande dimension puis à l’insérer de manière réversible

    Principes de méthodes " non classiques, non statistiques et massivement multivariées " et de réduction de la complexité. Applications en épidémiologie sociale et en médecine légale

    Get PDF
    Social epidemiology and clinical legal medicine are hybrid objects that articulate several fields, accounting for social and interpersonal relationships. The complexity that characterizes them both is investigated through different viewpoints, scales and dimensions: the individual scale, the group scale and the society scale. The techniques used in biomedicine are not designed to properly deal with such a complexity, in a non-normative way. A wide range of alternative non-statistical, “non-classical” methods exist that can process simultaneously various dimensions so that we can reduce the apparent complexity of data while discovering scientific objects. Here, we present the principles and the use of clustering techniques, applied to social epidemiology. We applied different clustering techniques on data from the SIRS cohort to build a typology of healthcare utilization in the Paris metropolitan area. From an epistemological and technical viewpoint, we explain why these methods should take place beside other recognized but limited techniques such as randomized controlled trials. We introduce another but complementary kind of complexity reduction technique. The concept of intrinsic dimension is explained – the littlest dimension needed to describe properly data – and nonlinear dimensionality reduction techniques are applied in clinical legal medicine. With these tools, we explore whether the integration of multiple information sources is relevant in age estimation of living migrants. Finally, we discuss the pros and cons of these methods, as well as the opportunities they may create for both fields of social epidemiology and clinical legal medicine.La complexité qui traverse l'épidémiologie sociale et la médecine légale du vivant est de celle que l'on cherche à saisir par la variété des observations et par l'intrication de points de vue et d'échelles différentes - l'individu, le groupe, la société. Les méthodes du biomédical sont encore peu adaptées au traitement de la complexité, à sa représentation qui ne soit pas normative, statistique. Il existe un ensemble d'approches non statistiques, " non classiques ", qui puissent traiter simultanément un grand nombre de dimensions et qui permettent de réduire la complexité apparente en dégageant des objets d'étude spécifique. Nous présentons ici les principes et l'utilisation des techniques de reconnaissance de forme dans le cadre de l'épidémiologie sociale, en les appliquant à la recherche d'une typologie de recours aux soins, sur la base des données de la cohorte SIRS. Nous expliquons en quoi ces approches ont leur place, épistémologiquement et techniquement parlant, aux côtés des méthodes expérimentales classiques type essais randomisés contrôlés. Nous exposons également un autre moyen de réduire la complexité des données, tout en en préservant les qualités topologiques. Nous introduisons en médecine légale la notion de dimension intrinsèque, plus petite dimension nécessaire et suffisante à la description des données, et de techniques non linéaires de réduction de la dimension. Nous en appliquons les principes au cas de l'intégration de sources d'information multiples pour l'estimation de l'âge chez les adolescents migrants. Enfin, nous discutons les avantages et limites de ces approches ainsi que les perspectives qu'elles ouvrent à ces deux disciplines complémentaires
    corecore