18 research outputs found

    Analyse de variations de performance par comparaison de traces d'exécution

    Get PDF
    RÉSUMÉ La performance est un requis trĂšs important pour bon nombre d'applications. Malheureusement, plusieurs facteurs affectent cette performance : contention pour l'accĂšs Ă  une ressource, mauvais algorithmes de synchronisation, attente de donnĂ©es en provenance du disque, etc. En raison de la taille du code source de certaines applications et des multiples niveaux d'abstraction entre le code applicatif et le matĂ©riel, plusieurs dĂ©veloppeurs ne soupçonnent pas l'existence de toutes ces sources de latence. Le traçage est une technique qui consiste Ă  enregistrer des Ă©vĂ©nements qui surviennent dans un systĂšme informatique. Un grand nombre de problĂšmes de performance peuvent ĂȘtre diagnostiquĂ©s Ă  partir de l'information contenue dans une trace d'exĂ©cution. En raison de leur faible surcoĂ»t, les traceurs modernes peuvent ĂȘtre activĂ©s en continu sur des systĂšmes en production pour capturer des problĂšmes survenant rarement. Des outils spĂ©cialisĂ©s facilitent la navigation Ă  travers le grand nombre d'Ă©vĂ©nements contenus une trace d'exĂ©cution. Malheureusement, mĂȘme avec ces outils, il peut ĂȘtre difficile de juger si le comportement observĂ© est celui attendu sans une connaissance exhaustive du systĂšme analysĂ©. L'objectif de ce travail de recherche est de vĂ©rifier si le diagnostic de variations de performance peut ĂȘtre facilitĂ© par un algorithme qui identifie automatiquement les diffĂ©rences entre deux groupes de traces d'exĂ©cution. L'algorithme doit mettre en Ă©vidence les latences prĂ©sentes dans un groupe d'exĂ©cutions anormalement longues, mais pas dans un groupe d'exĂ©cutions normales. Un dĂ©veloppeur peut alors tenter d'Ă©liminer ces latences. Pour ce faire, nous introduisons d'abord deux nouveaux Ă©vĂ©nements pour le traceur LTTng. L'Ă©vĂ©nement cpu_stack rapporte pĂ©riodiquement la pile d'appels des fils d'exĂ©cution utilisant le processeur. L'Ă©vĂ©nement syscall_stack rapporte la pile d'appels des longs appels systĂšme. Ces deux Ă©vĂ©nements nous permettent de dĂ©terminer si des latences prĂ©sentes dans des traces d'exĂ©cution diffĂ©rentes ont Ă©tĂ© causĂ©es par le mĂȘme code applicatif. Le traçage de l'Ă©vĂ©nement syscall_stack a un surcoĂ»t moindre que celui du traçage traditionnel des appels systĂšme. Nous proposons aussi une nouvelle structure de donnĂ©es appelĂ©e « enhanced calling context tree » (ECCT) pour reprĂ©senter les latences affectant le temps de complĂ©tion d'une tĂąche. Ces latences peuvent ĂȘtre au niveau du matĂ©riel, du systĂšme d'exploitation ou du code applicatif. En prĂ©sence d'interactions entre plusieurs fils d'exĂ©cution, nous utilisons un algorithme de calcul du chemin critique pour inclure dans le ECCT les latences introduites par chacun de ces fils. Nous utilisons les ECCTs Ă  la fois pour stocker des mĂ©triques de performance de façon compacte et comme entrĂ©e de notre algorithme de comparaison. Ensuite, nous prĂ©sentons une interface graphique permettant de visualiser les diffĂ©rences entre des groupes d'exĂ©cution. Les groupes Ă  comparer sont dĂ©finis par l'utilisateur Ă  l'aide de filtres. Les diffĂ©rences sont montrĂ©es Ă  l'aide d'un outil de visualisation appelĂ© « flame graph » diffĂ©rentiels ainsi que d'histogrammes. Les vues sont rafraĂźchies rapidement lorsque les filtres sont modifiĂ©s grĂące Ă  un algorithme de « map-reduce ». L'efficacitĂ© de notre solution pour dĂ©tecter, diagnostiquer et corriger des problĂšmes de performance majeurs est dĂ©montrĂ©e grĂące Ă  quatre Ă©tudes de cas menĂ©es sur des logiciels libres et d'entreprises. Nous mesurons aussi le surcoĂ»t du traçage des Ă©vĂ©nements requis par notre analyse sur diffĂ©rents types d'applications et concluons qu'il est toujours entre 0.2% et 9%. Enfin, nous dĂ©montrons que notre solution dĂ©veloppĂ©e pour Linux peut ĂȘtre adaptĂ©e pour fonctionner sur les systĂšmes d'exploitation Windows et Mac OS X.----------ABSTRACT Performance is a critical requirement for many applications. Unfortunately, many factors can affect performance: resource contention, bad synchronization algorithms, slow disk operations, etc. Because of the large codebase of some applications and because of the multiple levels of abstraction between application code and hardware, many developers are not aware of the existence of these sources of latency. Tracing is a technique that consists of recording events that occur in a system. Many performance problems can be diagnosed using the information contained in an execution trace. Popular tracers achieve low overhead, which allows them to be enabled on production systems to capture bugs that occur infrequently. Specialized tools allow efficient navigation in the large number of events contained in execution traces. However, even with these tools, it is hard to determine whether the observed behavior is normal without a deep knowledge of the analyzed system. The objective of this research project is to verify whether we can facilitate the diagnosis of performance variations with an algorithm that automatically identifies differences between two groups of execution traces. The algorithm must highlight delays that appear in a group of slow executions, but not in a group of normal executions. A developer can then try to eliminate these delays. First, we introduce two new events for the LTTng tracer. The cpu_stack event periodically reports the call stack of threads running on the CPU. The syscall_stack reports the call stack of long system calls. Call stacks allow us to determine whether delays that appear in different execution traces are caused by the same application code. The overhead of tracing the syscall_stack event is less than that of traditional tracing of system calls. Second, we propose a new data structure called enhanced calling context tree (ECCT) to describe delays that affect the completion time of a task execution. These delays can be at the hardware, operating system or application levels. When a task execution involves interactions between several threads, a critical path algorithm is used to include delays caused by each of them in the ECCT. We use ECCTs to store performance metrics compactly and as an input to our comparison algorithm. Third, we present a GUI that shows differences between groups of executions. The user defines two groups of executions to compare using filters. Differences are shown using a visualization tool called differential flame graph along with histograms. A map-reduce algorithm is used to quickly refresh the views when filters are modified. We present four case studies, carried on open-source and enterprise software, to demonstrate that our solution helps to detect, diagnose and fix major performance problems. We measure the overhead of tracing the events required by our analysis on different kinds of applications and conclude that it is always between 0.2% and 9%. Finally, we show that our solution, developed for Linux, can be adapted for the Windows and Mac OS X operating systems

    Intégration holistique et entreposage automatique des données ouvertes

    Get PDF
    Statistical Open Data present useful information to feed up a decision-making system. Their integration and storage within these systems is achieved through ETL processes. It is necessary to automate these processes in order to facilitate their accessibility to non-experts. These processes have also need to face out the problems of lack of schemes and structural and sematic heterogeneity, which characterize the Open Data. To meet these issues, we propose a new ETL approach based on graphs. For the extraction, we propose automatic activities performing detection and annotations based on a model of a table. For the transformation, we propose a linear program fulfilling holistic integration of several graphs. This model supplies an optimal and a unique solution. For the loading, we propose a progressive process for the definition of the multidimensional schema and the augmentation of the integrated graph. Finally, we present a prototype and the experimental evaluations.Les statistiques présentes dans les Open Data ou données ouvertes constituent des informations utiles pour alimenter un systÚme décisionnel. Leur intégration et leur entreposage au sein du systÚme décisionnel se fait à travers des processus ETL. Il faut automatiser ces processus afin de faciliter leur accessibilité à des non-experts. Ces processus doivent pallier aux problÚmes de manque de schémas, d'hétérogénéité structurelle et sémantique qui caractérisent les données ouvertes. Afin de répondre à ces problématiques, nous proposons une nouvelle démarche ETL basée sur les graphes. Pour l'extraction du graphe d'un tableau, nous proposons des activités de détection et d'annotation automatiques. Pour la transformation, nous proposons un programme linéaire pour résoudre le problÚme d'appariement holistique de données structurelles provenant de plusieurs graphes. Ce modÚle fournit une solution optimale et unique. Pour le chargement, nous proposons un processus progressif pour la définition du schéma multidimensionnel et l'augmentation du graphe intégré. Enfin, nous présentons un prototype et les résultats d'expérimentations

    TransformĂ©es basĂ©es graphes pour la compression de nouvelles modalitĂ©s d’image

    Get PDF
    Due to the large availability of new camera types capturing extra geometrical information, as well as the emergence of new image modalities such as light fields and omni-directional images, a huge amount of high dimensional data has to be stored and delivered. The ever growing streaming and storage requirements of these new image modalities require novel image coding tools that exploit the complex structure of those data. This thesis aims at exploring novel graph based approaches for adapting traditional image transform coding techniques to the emerging data types where the sampled information are lying on irregular structures. In a first contribution, novel local graph based transforms are designed for light field compact representations. By leveraging a careful design of local transform supports and a local basis functions optimization procedure, significant improvements in terms of energy compaction can be obtained. Nevertheless, the locality of the supports did not permit to exploit long term dependencies of the signal. This led to a second contribution where different sampling strategies are investigated. Coupled with novel prediction methods, they led to very prominent results for quasi-lossless compression of light fields. The third part of the thesis focuses on the definition of rate-distortion optimized sub-graphs for the coding of omni-directional content. If we move further and give more degree of freedom to the graphs we wish to use, we can learn or define a model (set of weights on the edges) that might not be entirely reliable for transform design. The last part of the thesis is dedicated to theoretically analyze the effect of the uncertainty on the efficiency of the graph transforms.En raison de la grande disponibilitĂ© de nouveaux types de camĂ©ras capturant des informations gĂ©omĂ©triques supplĂ©mentaires, ainsi que de l'Ă©mergence de nouvelles modalitĂ©s d'image telles que les champs de lumiĂšre et les images omnidirectionnelles, il est nĂ©cessaire de stocker et de diffuser une quantitĂ© Ă©norme de hautes dimensions. Les exigences croissantes en matiĂšre de streaming et de stockage de ces nouvelles modalitĂ©s d’image nĂ©cessitent de nouveaux outils de codage d’images exploitant la structure complexe de ces donnĂ©es. Cette thĂšse a pour but d'explorer de nouvelles approches basĂ©es sur les graphes pour adapter les techniques de codage de transformĂ©es d'image aux types de donnĂ©es Ă©mergents oĂč les informations Ă©chantillonnĂ©es reposent sur des structures irrĂ©guliĂšres. Dans une premiĂšre contribution, de nouvelles transformĂ©es basĂ©es sur des graphes locaux sont conçues pour des reprĂ©sentations compactes des champs de lumiĂšre. En tirant parti d’une conception minutieuse des supports de transformĂ©es locaux et d’une procĂ©dure d’optimisation locale des fonctions de base , il est possible d’amĂ©liorer considĂ©rablement le compaction d'Ă©nergie. NĂ©anmoins, la localisation des supports ne permettait pas d'exploiter les dĂ©pendances Ă  long terme du signal. Cela a conduit Ă  une deuxiĂšme contribution oĂč diffĂ©rentes stratĂ©gies d'Ă©chantillonnage sont Ă©tudiĂ©es. CouplĂ©s Ă  de nouvelles mĂ©thodes de prĂ©diction, ils ont conduit Ă  des rĂ©sultats trĂšs importants en ce qui concerne la compression quasi sans perte de champs de lumiĂšre statiques. La troisiĂšme partie de la thĂšse porte sur la dĂ©finition de sous-graphes optimisĂ©s en distorsion de dĂ©bit pour le codage de contenu omnidirectionnel. Si nous allons plus loin et donnons plus de libertĂ© aux graphes que nous souhaitons utiliser, nous pouvons apprendre ou dĂ©finir un modĂšle (ensemble de poids sur les arĂȘtes) qui pourrait ne pas ĂȘtre entiĂšrement fiable pour la conception de transformĂ©es. La derniĂšre partie de la thĂšse est consacrĂ©e Ă  l'analyse thĂ©orique de l'effet de l'incertitude sur l'efficacitĂ© des transformĂ©es basĂ©es graphes

    Protocoles d'Ă©valuation pour l'extraction d'information libre

    Get PDF
    On voudrait apprendre Ă  "lire automatiquement". L'extraction d'information consiste Ă  transformer des paragraphes de texte Ă©crits en langue naturelle en une liste d'Ă©lĂ©ments d'information autosuffisants, de façon Ă  pouvoir comparer et colliger l'information extraite de plusieurs sources. Les Ă©lĂ©ments d'information sont ici reprĂ©sentĂ©s comme des relations entre entitĂ©s : (AthĂ©na ; est la fille de ; Zeus). L'extraction d'information libre (EIL) est un paradigme rĂ©cent, visant Ă  extraire un grand nombre de relations contenues dans le texte analysĂ©, dĂ©couvertes au fur et Ă  mesure, par opposition Ă  un nombre restreint de relations prĂ©dĂ©terminĂ©es comme il est plus courant. Cette thĂšse porte sur l'Ă©valuation des mĂ©thodes d'EIL. Dans les deux premiers chapitres, on Ă©value automatiquement les extractions d'un systĂšme d'EIL, en les comparant Ă  des rĂ©fĂ©rences Ă©crites Ă  la main, mettant respectivement l'accent sur l'informativitĂ© de l'extraction, puis sur son exhaustivitĂ©. Dans les deux chapitres suivants, on Ă©tudie et propose des alternatives Ă  la fonction de confiance, qui juge des productions d'un systĂšme. En particulier, on y analyse et remet en question les mĂ©thodologies suivant lesquelles cette fonction est Ă©valuĂ©e : d'abord comme modĂšle de validation de requĂȘtes, puis en comparaison du cadre bien Ă©tabli de la complĂ©tion de bases de connaissances.Information extraction consists in the processing of natural language documents into a list of self-sufficient informational elements, which allows for cross collection into Knowledge Bases, and automatic processing. The facts that result from this process are in the form of relationships between entities : (Athena ; is the daughter of ; Zeus). Open Information Extraction (OIE) is a recent paradigm the purpose of which is to extract an order of magnitude more relations from the input corpus than classical IE methods, what is achieved by encoding or learning more general patterns, in a less supervised fashion. In this thesis, I study and propose new evaluation protocols for the task of Open Information Extraction, with links to that of Knowledge Base Completion. In the first two chapters, I propose to automatically score the output of an OIE system, against a manually established reference, with particular attention paid to the informativity and exhaustivity of the extractions. I then turn my focus to the confidence function that qualifies all extracted elements, to evaluate it in a variety of settings, and propose alternative models

    Détection de points de vue sur les médias sociaux numériques

    Get PDF
    De nombreux domaines ont intĂ©rĂȘt Ă  Ă©tudier les points de vue exprimĂ©s en ligne, que ce soit Ă  des fins de marketing, de cybersĂ©curitĂ© ou de recherche avec l'essor des humanitĂ©s numĂ©riques. Nous proposons dans ce manuscrit deux contributions au domaine de la fouille de points de vue, axĂ©es sur la difficultĂ© Ă  obtenir des donnĂ©es annotĂ©es de qualitĂ© sur les mĂ©dias sociaux. Notre premiĂšre contribution est un jeu de donnĂ©es volumineux et complexe de 22853 profils Twitter actifs durant la campagne prĂ©sidentielle française de 2017. C'est l'un des rares jeux de donnĂ©es considĂ©rant plus de deux points de vue et, Ă  notre connaissance, le premier avec un grand nombre de profils et le premier proposant des communautĂ©s politiques recouvrantes. Ce jeu de donnĂ©es peut ĂȘtre utilisĂ© tel quel pour Ă©tudier les mĂ©canismes de campagne sur Twitter ou pour Ă©valuer des modĂšles de dĂ©tection de points de vue ou des outils d'analyse de rĂ©seaux. Nous proposons ensuite deux modĂšles gĂ©nĂ©riques semi-supervisĂ©s de dĂ©tection de points de vue, utilisant une poignĂ©e de profils-graines, pour lesquels nous connaissons le point de vue, afin de catĂ©goriser le reste des profils en exploitant diffĂ©rentes proximitĂ©s inter-profils. En effet, les modĂšles actuels sont gĂ©nĂ©ralement fondĂ©s sur les spĂ©cificitĂ©s de certaines plateformes sociales, ce qui ne permet pas l'intĂ©gration de la multitude de signaux disponibles. En construisant des proximitĂ©s Ă  partir de diffĂ©rents types d'Ă©lĂ©ments disponibles sur les mĂ©dias sociaux, nous pouvons dĂ©tecter des profils suffisamment proches pour supposer qu'ils partagent une position similaire sur un sujet donnĂ©, quelle que soit la plateforme. Notre premier modĂšle est un modĂšle ensembliste sĂ©quentiel propageant les points de vue grĂące Ă  un graphe multicouche reprĂ©sentant les proximitĂ©s entre les profils. En utilisant des jeux de donnĂ©es provenant de deux plateformes, nous montrons qu'en combinant plusieurs types de proximitĂ©, nous pouvons correctement Ă©tiqueter 98% des profils. Notre deuxiĂšme modĂšle nous permet d'observer l'Ă©volution des points de vue des profils pendant un Ă©vĂ©nement, avec seulement un profil-graine par point de vue. Ce modĂšle confirme qu'une grande majoritĂ© de profils ne changent pas de position sur les mĂ©dias sociaux, ou n'expriment pas leur revirement.Numerous domains have interests in studying the viewpoints expressed online, be it for marketing, cybersecurity, or research purposes with the rise of computational social sciences. We propose in this manuscript two contributions to the field of stance detection, focused around the difficulty of obtaining annotated data of quality on social medias. Our first contribution is a large and complex dataset of 22853 Twitter profiles active during the French presidential campaign of 2017. This is one of the rare datasets that considers a non-binary stance classification and, to our knowledge, the first one with a large number of profiles, and the first one proposing overlapping political communities. This dataset can be used as-is to study the campaign mechanisms on Twitter, or used to test stance detection models or network analysis tools. We then propose two semi-supervised generic stance detection models using a handful of seed profiles for which we know the stance to classify the rest of the profiles by exploiting various proximities. Indeed, current stance detection models are usually grounded on the specificities of some social platforms, which is unfortunate since it does not allow the integration of the multitude of available signals. By infering proximities from differents types of elements available on social medias, we can detect profiles close enough to assume they share a similar stance on a given subject. Our first model is a sequential ensemble algorithm which propagates stances thanks to a multi-layer graph representing proximities between profiles. Using datasets from two platforms, we show that, by combining several types of proximities, we can achieve excellent results. Our second model allows us to observe the evolution of profiles' stances during an event with as little as one seed profile by stance. This model confirms that a large majority of profiles do not change their stance on social medias, or do not express their change of heart

    Active self-diagnosis in telecommunication networks

    Get PDF
    Les rĂ©seaux de tĂ©lĂ©communications deviennent de plus en plus complexes, notamment de par la multiplicitĂ© des technologies mises en Ɠuvre, leur couverture gĂ©ographique grandissante, la croissance du trafic en quantitĂ© et en variĂ©tĂ©, mais aussi de par l Ă©volution des services fournis par les opĂ©rateurs. Tout ceci contribue Ă  rendre la gestion de ces rĂ©seaux de plus en plus lourde, complexe, gĂ©nĂ©ratrice d erreurs et donc coĂ»teuse pour les opĂ©rateurs. On place derriĂšre le terme rĂ©seaux autonome l ensemble des solutions visant Ă  rendre la gestion de ce rĂ©seau plus autonome. L objectif de cette thĂšse est de contribuer Ă  la rĂ©alisation de certaines fonctions autonomiques dans les rĂ©seaux de tĂ©lĂ©communications. Nous proposons une stratĂ©gie pour automatiser la gestion des pannes tout en couvrant les diffĂ©rents segments du rĂ©seau et les services de bout en bout dĂ©ployĂ©s au-dessus. Il s agit d une approche basĂ©e modĂšle qui adresse les deux difficultĂ©s du diagnostic basĂ© modĂšle Ă  savoir : a) la façon d'obtenir un tel modĂšle, adaptĂ© Ă  un rĂ©seau donnĂ© Ă  un moment donnĂ©, en particulier si l'on souhaite capturer plusieurs couches rĂ©seau et segments et b) comment raisonner sur un modĂšle potentiellement Ă©norme, si l'on veut gĂ©rer un rĂ©seau national par exemple. Pour rĂ©pondre Ă  la premiĂšre difficultĂ©, nous proposons un nouveau concept : l auto-modĂ©lisation qui consiste d abord Ă  construire les diffĂ©rentes familles de modĂšles gĂ©nĂ©riques, puis Ă  identifier Ă  la volĂ©e les instances de ces modĂšles qui sont dĂ©ployĂ©es dans le rĂ©seau gĂ©rĂ©. La seconde difficultĂ© est adressĂ©e grĂące Ă  un moteur d auto-diagnostic actif, basĂ© sur le formalisme des rĂ©seaux BayĂ©siens et qui consiste Ă  raisonner sur un fragment du modĂšle du rĂ©seau qui est augmentĂ© progressivement en utilisant la capacitĂ© d auto-modĂ©lisation: des observations sont collectĂ©es et des tests rĂ©alisĂ©s jusqu Ă  ce que les fautes soient localisĂ©es avec une certitude suffisante. Cette approche de diagnostic actif a Ă©tĂ© expĂ©rimentĂ©e pour rĂ©aliser une gestion multi-couches et multi-segments des alarmes dans un rĂ©seau IMS.While modern networks and services are continuously growing in scale, complexity and heterogeneity, the management of such systems is reaching the limits of human capabilities. Technically and economically, more automation of the classical management tasks is needed. This has triggered a significant research effort, gathered under the terms self-management and autonomic networking. The aim of this thesis is to contribute to the realization of some self-management properties in telecommunication networks. We propose an approach to automatize the management of faults, covering the different segments of a network, and the end-to-end services deployed over them. This is a model-based approach addressing the two weaknesses of model-based diagnosis namely: a) how to derive such a model, suited to a given network at a given time, in particular if one wishes to capture several network layers and segments and b) how to reason a potentially huge model, if one wishes to manage a nation-wide network for example. To address the first point, we propose a new concept called self-modeling that formulates off-line generic patterns of the model, and identifies on-line the instances of these patterns that are deployed in the managed network. The second point is addressed by an active self-diagnosis engine, based on a Bayesian network formalism, that consists in reasoning on a progressively growing fragment of the network model, relying on the self-modeling ability: more observations are collected and new tests are performed until the faults are localized with sufficient confidence. This active diagnosis approach has been experimented to perform cross-layer and cross-segment alarm management on an IMS network.RENNES1-Bibl. Ă©lectronique (352382106) / SudocSudocFranceF

    Supervision de contenus multimédia : adaptation de contenu, politiques optimales de préchargement et coordination causale de flux

    Get PDF
    La qualitĂ© des systĂšmes d'informations distribuĂ©s dĂ©pend de la pertinence du contenu mis Ă  disposition, de la rĂ©activitĂ© du service ainsi que de la cohĂ©rence des informations prĂ©sentĂ©es. Nos travaux visent Ă  amĂ©liorer ces trois critĂšres de performance et passent par la prise en compte des caractĂ©ristiques de l'utilisateur, des ressources disponibles ou plus gĂ©nĂ©ralement du contexte d'exĂ©cution. Par consĂ©quent, cette thĂšse comporte trois volets. Le premier volet se place dans le cadre de l'adaptation de systĂšmes d’information dĂ©ployĂ©s dans des contextes dynamiques et stochastiques. Nous prĂ©sentons une approche oĂč des agents d’adaptation appliquent des politiques de dĂ©cision sĂ©quentielle dans l'incertain. Nous modĂ©lisons ces agents par des Processus DĂ©cisionnels de Markov (PDM) selon que le contexte soit observable ou seulement partiellement observable (PDM Partiellement Observables). Dans le cas d’un service mobile de consultation de films, nous montrons en particulier qu’une politique d'adaptation de ce service Ă  des ressources limitĂ©es peut ĂȘtre nuancĂ©e selon l'intĂ©rĂȘt de l'utilisateur, estimĂ© grĂące Ă  l’évaluation des signaux de retour implicite. Dans le deuxiĂšme volet, nous nous intĂ©ressons Ă  l'optimisation de la rĂ©activitĂ© d'un systĂšme qui propose des contenus hypermĂ©dia. Nous nous appuyons sur des techniques de prĂ©chargement pour rĂ©duire les latences. Comme prĂ©cĂ©demment, un PDM modĂ©lise les habitudes des utilisateurs et les ressources disponibles. La force de ce modĂšle rĂ©side dans sa capacitĂ© Ă  fournir des politiques optimales de prĂ©chargement. Les premiĂšres politiques que nous obtenons sont simples. Nous enrichissons alors le modĂšle pour dĂ©river des politiques de prĂ©chargement plus complexes et plus agressives et montrons leurs performances par simulation. Afin de personnaliser nos stratĂ©gies optimales nous proposons finalement un modĂšle PDMPO dont les politiques s'adaptent aux profils des utilisateurs. Le troisiĂšme volet se place dans le contexte des applications multimĂ©dia interactives distribuĂ©es et concerne le contrĂŽle de la cohĂ©rence des flux multimĂ©dia rĂ©partis. Dans un tel contexte, plusieurs mĂ©canismes de synchronisation sont nĂ©cessaires et plusieurs ordres logiques (fifo, causal, total) s'avĂšrent utiles. Nous proposons une boĂźte Ă  outils capable de gĂ©rer plusieurs protocoles d’ordre partiel et d'assurer une dĂ©livrance correcte de chaque message, en respectant tous les ordres qui lui ont Ă©tĂ© imposĂ©s. Nous dĂ©crivons ensuite l’intĂ©gration des tolĂ©rances humaines vis-Ă -vis des courtes incohĂ©rences causales dans notre boĂźte Ă  outils. Nos simulations montrent que de meilleures performances sont obtenues par cette mĂ©thode comparativement Ă  d’autres approches, comme la causalitĂ© classique ou la Δ-causalitĂ©. ABSTRACT : Distributed systems information quality depends on service responsiveness, data consistency and its relevance according to user interests. The thesis aims to improve these three performance criteria by taking into account user characteristics, available ressources or more generally execution context. Naturally, the document is organized in three main parts. The first part discusses adaptation policies for information systems that are subject to dynamic and stochastic contexts. In our approach adaptation agents apply sequential decisional policies under uncertainty. We focus on the modeling of such decisional processes depending on whether the context is fully or partially observable. We use Markov Decision Processes (MDP) and Partially Observable MDP (POMDP) for modeling a movie browsing service in a mobile environment. Our model derives adaptation policies for this service that take into account the limited (and observable) resources. These policies are further refined according to the (partially observable) users’ interest level estimated from implicit feedback. Our theoretical models are validated through numerous simulations. The second part deals with hypermedia content delivery aiming to reduce navigation latencies by means of prefetching. As previously, we build upon an MDP model able to derive optimal prefetching policies integrating both user behaviour and ressource availability. First, we extend this model and propose more complex and aggressive policies. Second, the extended model is enriched by taking into account user's profile and therefore provides finer prefetching policies. It is worth noting that this model issues personnalized policies without explicily manipulating user profiles. The proposed extensions and the associated policies are validated through comparison with the original model and some heuristic approches. Finally, the third part considers multimedia applications in distributed contexts. In these contexts, highly interactive collaborative applications need to offer each user a consistent view of the interactions represented by the streams exchanged between dispersed groups of users. At the coordination level, strong ordering protocols for capturing and delivering streams' interactions (e.g. CAUSAL, TOTAL order) may be too expensive due to the variability of network conditions. We build upon previous work on expressing streams causality and propose a flexible coordination middleware for integrating different delivery modes (e.g. FIFO, CAUSAL, TOTAL) into a single channel (with respect to each of these protocols). Moreover, the proposed abstract channel can handle the mix of any partial or total order protocols. Integrating perceptual tolerance in our middleware, provides us with a coordination toolkit that performs better than Δ-causality, usually considered the best solutio

    Segmentation mutuelle d'objets d'intĂ©rĂȘt dans des sĂ©quences d'images stĂ©rĂ©o multispectrales

    Get PDF
    Les systĂšmes de vidĂ©osurveillance automatisĂ©s actuellement dĂ©ployĂ©s dans le monde sont encore bien loin de ceux qui sont reprĂ©sentĂ©s depuis des annĂ©es dans les oeuvres de sciencefiction. Une des raisons derriĂšre ce retard de dĂ©veloppement est le manque d’outils de bas niveau permettant de traiter les donnĂ©es brutes captĂ©es sur le terrain. Le prĂ©-traitement de ces donnĂ©es sert Ă  rĂ©duire la quantitĂ© d’information qui transige vers des serveurs centralisĂ©s, qui eux effectuent l’interprĂ©tation complĂšte du contenu visuel captĂ©. L’identification d’objets d’intĂ©rĂȘt dans les images brutes Ă  partir de leur mouvement est un exemple de prĂ©-traitement qui peut ĂȘtre rĂ©alisĂ©. Toutefois, dans un contexte de vidĂ©osurveillance, une mĂ©thode de prĂ©-traitement ne peut gĂ©nĂ©ralement pas se fier Ă  un modĂšle d’apparence ou de forme qui caractĂ©rise ces objets, car leur nature exacte n’est pas connue d’avance. Cela complique donc l’élaboration des mĂ©thodes de traitement de bas niveau. Dans cette thĂšse, nous prĂ©sentons diffĂ©rentes mĂ©thodes permettant de dĂ©tecter et de segmenter des objets d’intĂ©rĂȘt Ă  partir de sĂ©quences vidĂ©o de maniĂšre complĂštement automatisĂ©e. Nous explorons d’abord les approches de segmentation vidĂ©o monoculaire par soustraction d’arriĂšre-plan. Ces approches se basent sur l’idĂ©e que l’arriĂšre-plan d’une scĂšne peut ĂȘtre modĂ©lisĂ© au fil du temps, et que toute variation importante d’apparence non prĂ©dite par le modĂšle dĂ©voile en fait la prĂ©sence d’un objet en intrusion. Le principal dĂ©fi devant ĂȘtre relevĂ© par ce type de mĂ©thode est que leur modĂšle d’arriĂšre-plan doit pouvoir s’adapter aux changements dynamiques des conditions d’observation de la scĂšne. La mĂ©thode conçue doit aussi pouvoir rester sensible Ă  l’apparition de nouveaux objets d’intĂ©rĂȘt, malgrĂ© cette robustesse accrue aux comportements dynamiques prĂ©visibles. Nous proposons deux mĂ©thodes introduisant diffĂ©rentes techniques de modĂ©lisation qui permettent de mieux caractĂ©riser l’apparence de l’arriĂšre-plan sans que le modĂšle soit affectĂ© par les changements d’illumination, et qui analysent la persistance locale de l’arriĂšre-plan afin de mieux dĂ©tecter les objets d’intĂ©rĂȘt temporairement immobilisĂ©s. Nous introduisons aussi de nouveaux mĂ©canismes de rĂ©troaction servant Ă  ajuster les hyperparamĂštres de nos mĂ©thodes en fonction du dynamisme observĂ© de la scĂšne et de la qualitĂ© des rĂ©sultats produits.----------ABSTRACT: The automated video surveillance systems currently deployed around the world are still quite far in terms of capabilities from the ones that have inspired countless science fiction works over the past few years. One of the reasons behind this lag in development is the lack of lowlevel tools that allow raw image data to be processed directly in the field. This preprocessing is used to reduce the amount of information transferred to centralized servers that have to interpret the captured visual content for further use. The identification of objects of interest in raw images based on motion is an example of a reprocessing step that might be required by a large system. However, in a surveillance context, the preprocessing method can seldom rely on an appearance or shape model to recognize these objects since their exact nature cannot be known exactly in advance. This complicates the elaboration of low-level image processing methods. In this thesis, we present different methods that detect and segment objects of interest from video sequences in a fully unsupervised fashion. We first explore monocular video segmentation approaches based on background subtraction. These approaches are based on the idea that the background of an observed scene can be modeled over time, and that any drastic variation in appearance that is not predicted by the model actually reveals the presence of an intruding object. The main challenge that must be met by background subtraction methods is that their model should be able to adapt to dynamic changes in scene conditions. The designed methods must also remain sensitive to the emergence of new objects of interest despite this increased robustness to predictable dynamic scene behaviors. We propose two methods that introduce different modeling techniques to improve background appearance description in an illumination-invariant way, and that analyze local background persistence to improve the detection of temporarily stationary objects. We also introduce new feedback mechanisms used to adjust the hyperparameters of our methods based on the observed dynamics of the scene and the quality of the generated output

    Actes des SixiÚmes journées nationales du Groupement De Recherche CNRS du Génie de la Programmation et du Logiciel

    Get PDF
    National audienceCe document contient les actes des SixiÚmes journées nationales du Groupement De Recherche CNRS du Génie de la Programmation et du Logiciel (GDR GPL) s'étant déroulées au CNAM à Paris du 11 au 13 juin 2014. Les contributions présentées dans ce document ont été sélectionnées par les différents groupes de travail du GDR. Il s'agit de résumés, de nouvelles versions, de posters et de démonstrations qui correspondent à des travaux qui ont déjà été validés par les comités de programmes d'autres conférences et revues et dont les droits appartiennent exclusivement à leurs auteurs
    corecore