683 research outputs found

    Conserver les documents numérisés

    Get PDF
    CONTEXTE ET ENJEUX La pérennité de l’information numérique est une question complexe. Il n’existe pas de solutions prêtes à l’emploi dans ce domaine. En effet les technologies de préservation sont à renouveler régulièrement, le matériel informatique étant en évolution perpétuelle. L’accroissement exponentiel de l’information numérique est une difficulté supplémentaire. Dans un souci de préservation des originaux comme de maîtrise des coûts, la préservation des documents numérisés cherche à év..

    Vers une médiation de composition dynamique de Services Web dans des environnements ubiquitaires.

    Get PDF
    Nowadays, high market pressure stimulates service providers to be more competitive in order to attract more subscribers. The user-centric approach, which aims to provide adapted services to user’s needs, is attracting a great attention thanks to the emergence of ubiquitous environment. The interoperability, either that between users and services or that among services, is favored by the adoption of SOA (Service Oriented Architecture), as a development model as well as the Web services that combine the advantages of this model with the language and development technologies devoted to Internet-based applications. In particular, the dynamic Web service composition is currently the main practice which allows achieving enhanced services, as an answer to increasing complex requests by users for various types of services, by combining functionalities of multiple services within a single and personalized service session. Indeed, already available services are numerous and of various natures, similar services can be provided by heterogeneous platforms. In a ubiquitous environment, users are mobile, either by changing the access network or by changing the terminal, or even both of them. This leads in turn to potential needs on mobility of services, both in terms of the (physical) server and in terms of the (equivalent) services. It is in this dynamic and ubiquitous context that we have conducted our research. In particular, we focused on the particular topic of mediation of dynamic composition of web services. We proposed a mediation approach which consists in identifying and organizing various concrete services (both SOAP and RESTful) to form a set of abstract services, and, from this knowledge base, to provide users the possibility to realize personalized service session according to their needs through dynamic composition of some of the abstract services and their mapping to best suited concrete services. We considered three types of service composition (SOAP/SOAP, SOAP/RESTful, RESTful/RESTful) in our mediation. Depending on the user’s will, this composition (Mashup on the side of the mediator) can be returned to him/her, so that he/she can invoke it autonomously; or the mediator can ensure the realization of the composed services and provide only the final result to the user. In the latter case, the mediator can handle the aforementioned different mobility. This feature is achieved by exploring the mechanism of the virtual community to select the most appropriate concrete service corresponding to the abstract service and maintain the continuity of service while respecting its requested QoS. The virtual community has been developed within the ANR/UBIS project (to which part of this thesis is related).De nos jours, l’ouverture à la concurrence stimule les fournisseurs de services à être de plus en plus compétitifs et à attirer de plus en plus d’abonnés afin de faire face aux fortes pressions du marché. L’approche user-centric, qui consiste à fournir le plus rapidement possible des services adaptés aux besoins de l’usager, attire de plus en plus d’attention suite à l’émergence de l’environnement ubiquitaire. L’interopérabilité, aussi bien celle entre utilisateur et service que celle entre les services, est favorisée par l’adoption de SOA (architecture orientée service) comme modèle de développement, ainsi que les services Web qui combinent les avantages de ce modèle avec les langages et technologies développés pour Internet.Notamment, la composition dynamique de service Web est considérée comme un atout majeur, qui permet de répondre à des requêtes complexes en combinant les fonctionnalités de plusieurs services au sein d’une session personnalisée. Les services sont divers et variés et des services similaires pourraient être fournis depuis des plateformes hétérogènes. Dans un environnement ubiquitaire, les utilisateurs sont mobiles, cette mobilité se manifeste aussi bien à travers les réseaux empruntés que les terminaux utilisés. Ceci entraine une possible mobilité de services (aussi bien en termes de serveur effectif qu’en termes de services équivalents). C’est dans ce contexte dynamique et ubiquitaire, qui est celui choisi par le projet ANR/UBIS (dont cette thèse est partiellement issue), que nous avons mené nos recherches sur le thème particulier de la médiation de composition dynamique de services web. Plus précisément, nous proposons une approche de médiation qui consiste à recenser puis organiser de divers services concrets (aussi bien SOAP que RESTFul) pour constituer une panoplie des services abstraits d’une part, puis, à partir desquels, à offrir aux usagers les possibilités de réaliser des services personnalisés selon leur besoins (logique métier) par composition dynamiquement de ces services abstraits et de leur association avec le service concret le plus approprié. Nous avons considéré les trois types de composition de services (SOAP/SOAP, SOAP/RESTful, RESTful/RESTful) dans notre médiation. Selon le souhait de l’usager, cette composition (Mashup du coté de médiateur) peut lui être retournée et que l’usager peut invoquer de manière autonome, ou bien le médiateur peut assurer la réalisation du service composé et fournir seulement le résultat final à l’usager. Dans ce dernier cas, les différentes mobilités peuvent être prises en compte par le médiateur, qui s’appuie sur les mécanismes de la communauté virtuelle préconisés par le projet UBIS pour activer les services concrets les plus appropriés correspondant à un servic

    Architecture, logique floue, classification et clustering pour l’exploration de données réelles issues de multiples maisons intelligentes

    Get PDF
    Selon l’Organisation des Nations Unies (2019), il est estimé que le nombre de personnes âgées de 65 ans et plus dans le monde devrait doubler d’ici 2050 pour atteindre un total de 1,5 milliard d’individus. Cette évolution impacte le risque de déclarer une maladie neurodégénérative qui, selon le rapport de l’Alzheimer’s Disease International (2015), augmenterait exponentiellement avec l’âge. Or, ces maladies provoquent une perte progressive d’autonomie ce qui induit des besoins en ressources matérielles et humaines. En parallèle de ces enjeux, des progrès allient technologie et santé, comme le dépistage automatique du cancer du sein, présenté dans le travail de Karabatak (2015). Avec l’amélioration continue des environnements intelligents et du matériel, notamment suite à l’apparition de technologies comme l’Arduino (2005), la Rasbperry Pi (2012) ou la Latte Panda (2016), on est en droit d’imaginer les applications possibles de la maison intelligente aux problématiques posées par l’accroissement des maladies dégénératives. C’est ce que nous proposons dans cette thèse, où nous faisons le point sur les environnements intelligents et la reconnaissance d’activités. Point duquel nous dérivons deux propositions : d’une part, une architecture basée sur la gestion d’un flux d’événements descriptifs par des compositions d’agents autonomes permettant le support de plus de 30 environnements hétérogènes. D’autre part, une approche basée sur la logique floue permettant de conduire un processus de reconnaissance d’activités malgré la grande diversité de nos jeux de données. Ces deux solutions participant à l’élaboration d’un outil permettant aux cliniciens de suivre à distance, l’évolution du comportement de patients atteints de maladies dégénératives. According to the United Nations (2019), the world population aged 65 years and more will double up to 1.5 billion individuals before 2050. This trend will impact the growth of neurodegenerative disorders that are subject to an exponential risk of appearance with aging, as reported by Alzheimer’s Disease International (2015). As this kind of disease induces a decrease in the autonomy of the elderly, this evolution will heavily increase the need for human and material resources around the world. In parallel, various research works combine technology and healthcare, like for the automatic breast cancer detection described in the article of Karabatak (2015). This tendency, in conjunction with hardware and intelligent environments improvement, notably with the Arduino (2005), the Rasbperry Pi (2012), and the Latte Panda (2016), affords us to imagine how smart-homes could solve the implications of the aforementioned growth of degenerative diseases. To investigate this question, this thesis derivates two proposals from a careful study of intelligent environments and activity recognition methods. The first is an architecture that supports more than 30 heterogeneous environments and that works by assembling autonomous agents for processing a flux of descriptive events. Finally, the second is a model built upon fuzzy logic that enables us to recognize activities despite the inherent diversity of our datasets. These two solutions answer some aspects of the process of making a tool that allows clinicians to monitor people with degenerative diseases from their homes

    Modélisation des métadonnées multi sources et hétérogènes pour le filtrage négatif et l'interrogation intelligente de grands volumes de données : application à la vidéosurveillance

    Get PDF
    En raison du déploiement massif et progressif des systèmes de vidéosurveillance dans les grandes métropoles, l'analyse a posteriori des vidéos issues de ces systèmes est confrontée à de nombreux problèmes parmi lesquels: (i) l'interopérabilité, due aux différents formats de données (vidéos) et aux spécifications des caméras propres à chaque système ; (ii) le grand temps d'analyse lié à l'énorme quantité de données et métadonnées générées ; et (iii) la difficulté à interpréter les vidéos qui sont parfois à caractère incomplet. Face à ces problèmes, la nécessité de proposer un format commun d'échange des données et métadonnées de vidéosurveillance, de rendre le filtrage et l'interrogation des contenus vidéo plus efficaces, et de faciliter l'interprétation des contenus grâce aux informations exogènes (contextuelles) est une préoccupation incontournable. De ce fait, cette thèse se focalise sur la modélisation des métadonnées multi sources et hétérogènes afin de proposer un filtrage négatif et une interrogation intelligente des données, applicables aux systèmes de vidéosurveillance en particulier et adaptables aux systèmes traitant de grands volumes de données en général. L'objectif dans le cadre applicatif de cette thèse est de fournir aux opérateurs humains de vidéosurveillance des outils pour les aider à réduire le grand volume de vidéo à traiter ou à visionner et implicitement le temps de recherche. Nous proposons donc dans un premier temps une méthode de filtrage dit "négatif", qui permet d'éliminer parmi la masse de vidéos disponibles celles dont on sait au préalable en se basant sur un ensemble de critères, que le traitement n'aboutira à aucun résultat. Les critères utilisés pour l'approche de filtrage négatif proposé sont basés sur une modélisation des métadonnées décrivant la qualité et l'utilisabilité/utilité des vidéos. Ensuite, nous proposons un processus d'enrichissement contextuel basé sur les métadonnées issues du contexte, et permettant une interrogation intelligente des vidéos. Le processus d'enrichissement contextuel proposé est soutenu par un modèle de métadonnées extensible qui intègre des informations contextuelles de sources variées, et un mécanisme de requêtage multiniveaux avec une capacité de raisonnement spatio-temporel robuste aux requêtes floues. Enfin, nous proposons une modélisation générique des métadonnées de vidéosurveillance intégrant les métadonnées décrivant le mouvement et le champ de vue des caméras, les métadonnées issues des algorithmes d'analyse des contenus, et les métadonnées issues des informations contextuelles, afin de compléter le dictionnaire des métadonnées de la norme ISO 22311/IEC 79 qui vise à fournir un format commun d'export des données extraites des systèmes de vidéosurveillance. Les expérimentations menées à partir du framework développé dans cette thèse ont permis de démontrer la faisabilité de notre approche dans un cas réel et de valider nos propositions.Due to the massive and progressive deployment of video surveillance systems in major cities, a posteriori analysis of videos coming from these systems is facing many problems, including the following: (i) interoperability, due to the different data (video) formats and camera specifications associated to each system; (ii) time-consuming nature of analysis due to the huge amount of data and metadata generated; and (iii) difficulty to interpret videos which are sometimes incomplete. To address these issues, the need to propose a common format to exchange video surveillance data and metadata, to make video content filtering and querying more efficient, and to facilitate the interpretation of content using external (contextual) information is an unavoidable concern. Therefore, this thesis focuses on heterogeneous and multi-source metadata modeling in order to propose negative filtering and intelligent data querying, which are applicable to video surveillance systems in particular and adaptable to systems dealing with large volumes of data in general. In the applicative context of this thesis, the goal is to provide human CCTV operators with tools that help them to reduce the large volume of video to be processed or viewed and implicitly reduce search time. We therefore initially propose a so-called "negative" filtering method, which enables the elimination from the mass of available videos those that it is know in advance, based on a set of criteria, that the processing will not lead to any result. The criteria used for the proposed negative filtering approach are based on metadata modeling describing video quality and usability/usefulness. Then, we propose a contextual enrichment process based on metadata from the context, enabling intelligent querying of the videos. The proposed contextual enrichment process is supported by a scalable metadata model that integrates contextual information from a variety of sources, and a multi-level query mechanism with a spatio-temporal reasoning ability that is robust to fuzzy queries. Finally, we propose a generic metadata modeling of video surveillance metadata integrating metadata describing the movement and field of view of cameras, metadata from content analysis algorithms, and metadata from contextual information, in order to complete the metadata dictionary of the ISO 22311/IEC 79 standard, which aims to provide a common format to export data extracted from video surveillance systems. The experiments performed using the framework developed in this thesis showed the reliability of our approach in a real case and enabled the validation of our proposals

    De l'identification à la caractérisation des complexes protéiques : développement d'une plateforme bioinformatique d'analyse

    Get PDF
    Un des défis de l’ère post-génomique est de déterminer la fonction des protéines et plus précisément d’établir une cartographie protéomique de la cellule. Ainsi le défi de la génomique fonctionnelle et plus précisément de la protéomique est de comprendre les événements qui ont lieu au cours de la maturation des protéines. Plusieurs approches ont été décrites pour comprendre la fonction des protéines dont les interactions protéiques. Traditionnellement, les études des interactions protéiques étaient basées sur des approches ciblées ou sur des hypothèses d’interactions. Récemment, le développement des analyses à haut débit a généré une quantité impressionnante d’information. Face à l’accumulation des données, une approche uniquement expérimentale n’apparaît plus suffisante. Par conséquent, la création de méthodes bioinformatiques développant des procédures de prospection de données couplées avec des approches expérimentales permettra de prédire les interacteurs in silico. C’est dans cette optique que le laboratoire a développé son projet de recherche sur la famille des poly (ADP-ribose) polymérases (PARPs). La poly(ADP-ribosyl)ation est une modification post-traductionnelle qui consiste en l’ajout d’une chaîne d’ADP-ribose sur des protéines cibles.L’objectif principal de notre étude est de caractériser par des expériences d’immunoprécipitation le rôle dynamique de la poly(ADP-ribosyl)ation. L’identification des interacteurs des PARPs s’effectuera par spectrométrie de masse. Cette technique va générer d’importantes quantités de données et nécessitera une plate-forme d’analyse et de grandes capacités de calcul informatique. Dans ce contexte général, l’objectif de ce travail de thèse était de développer la plateforme bioinformatique d’analyse, d’implémenter les outils d’identifications des protéines, d’établir un contrôle de qualité des méthodes d’identification (spécificité/sensibilité) et enfin d’explorer le contenu des bases de connaissances. A l’aide du système mis en place au sein de la plateforme de protéomique, nous avons identifié de nouvaux interacteurs de la famille des PARPs comme par exemple RFC1, 2, 3, 4, 5.An ambitious goal of proteomics is to elucidate the structure, interactions and functions of all proteins within cells and organisms. In the “post-genome” era, mass spectrometry (MS) has become an important method for the analysis of proteome data. One strategy to determine protein function is to identify protein–protein interactions. The rapid advances made in mass spectrometry in combination with other methods used in proteomics results in an increasing of proteomics projects. The increasing use of high-throughput and large-scale bioinformatics-based studies has generated a massive amount of data stored in a number of different databases. A challenge for bioinformatics is to explore array of information to uncover biologically relevant interactions and pathways. Thus for protein interaction studies, there is clearly a need to develop a systematic and stepwise in silico approach that can predict potential interactors or are most likely to improve our understanding of how complex biological systems work. The focus of our laboratory is the study of the activity of poly(ADP-ribose) polymerases (PARPs) and their role in the cell. Poly(ADP-ribosylation) is a post-synthetic protein modification consisting of long chains of poly(ADP-ribose) (pADPr) synthesized by PARPs at the expense of NAD+. The overall objective of this research is to extensively characterize the dynamic roles of poly(ADP-ribosyl)ation in response to cellular stresses that cause DNA damage. Our approach utilizes immunoprecipitation and affinity purification followed by mass spectrometry identification of associated proteins. One part of this thesis projet is to develop the architecture and major features of a web-based utility tool, which is designed to rationally organize protein and peptide data generated by the tandem mass spectrometry. Next, we have performed benchmarking to optimize protein identification. The system will be expanded as needed in order to make the analysis more efficient. We have also explored the public database information for protein identification data mining. Using the described pipeline, we have successfully identified several interactions of biological significance between PARP and other proteins such as RFC1, 2, 3, 4, 5
    • …
    corecore