7 research outputs found

    Détection et exploitation des copies partielles afin de faciliter l'analyse forensique d'un système de fichiers

    Get PDF
    La forensique informatique, connue sous le terme anglais \ud « computer forensic », est le domaine de recherche qui s'intéresse aux enquêtes après incidents. Elle représente l'ensemble des principes scientifiques et des méthodes techniques appliquées à l'investigation criminelle pour prouver l'existence d'un crime et aider la justice à déterminer l'identité de l'auteur et son mode opératoire. Les investigateurs, dans leurs enquêtes, utilisent des outils matériels ou logiciels. Les outils logiciels sont des outils d'acquisition qui servent à copier d'importantes quantités de données à partir de l'ordinateur saisi, et des outils d'analyse de preuves. En examinant les différents outils de la forensique informatique nous avons constaté l'absence et la nécessité d'un outil logiciel pour localiser les copies légèrement modifiées d'un fichier texte (copies partielles). En forensique informatique, la recherche de copies partielles d'un fichier texte contenant des informations douteuses peut aider grandement un investigateur à localiser la version originale de ce fichier à partir de la copie disponible, sachant que cette copie a, peut-être, été légèrement modifiée. Après une recherche approfondie, nous avons constaté qu'une solution possible à ce problème vient combler un vide entre les outils classiques de recherche de copies identiques de fichiers utilisant les fonction de hachage (MD5, SHA-I, etc.) et les outils de comparaison de fichiers ligne par ligne ou encore caractère par caractère. Notre travail a consisté à concevoir, développer et présenter à la communauté de la forensique informatique un outil logiciel qui sert à localiser les copies partielles d'un fichier texte dans un système de fichiers. Pour ce faire, nous avons adapté certains algorithmes d'alignement, utilisés en bioinformatique, pour comparer deux fichiers textes. Nous avons défini un seuil d'acceptation servant à distinguer les copies intéressantes (pour l'investigation) des autres fichiers. L'outil que nous avons développé utilise deux algorithmes d'alignement de séquences (global et local) conçus au départ pour trouver les similarités entre les séquences protéique ou nucléotidiques ainsi qu'un troisième algorithme d'alignement conçu pour résoudre un problème lié à la détection d'intrusion (semi-global). Nous avons aussi défini un alignement automatique: en se basant sur la différence de tailles entre les fichiers comparés, l'outil choisira automatiquement le type d'alignement à utiliser, à savoir, global ou local. Nous avons testé cet outil sur un ensemble de fichiers textes sélectionnés au hasard et les résultats montrent que cette approche a vraiment permis de trouver une solution efficace au problème de détection de copies partielles d'un fichier texte. D'autre part, nous avons comparé notre outil avec les outils de comparaison de fichiers disponibles et nous avons constaté qu'aucun de ces outils ne donne de résultats comparables. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Forensique informatique, Copie partielle, Comparaison de fichiers, Alignement de séquences, Bioinformatique

    A prediction-based dynamic content adaptation framework for enterprise documents applied to collaborative mobile web conferencing

    Get PDF
    Enterprise documents, created in applications such as PowerPoint and Word, can be used and shared using ubiquitousWeb-enabled terminals connected to the Internet. In the context ofWeb conferencing, enterprise documents, particularly presentation slides, are hosted on the server and presented to the meeting participants synchronously. When mobile devices are involved in such meeting conferencing applications, the content (e.g.: presentation slides) should be adapted to meet the target mobile terminal constraints, but more importantly, to provide the end-user with the best experience possible. Globally, two major trends in content adaptation have been studied: static and dynamic. In static content adaptation, the content is adapted into a set of versions using different transcoding parameter combinations. At runtime, when the content is requested, the optimal of those versions, based on a given quality criterion, is selected for delivery. The performance of these solutions is based on the granularity in use; the number of created versions. In dynamic content adaptation, also called just-in-time adaptation, based on the mobile device context, a customized version is created on-the-fly, while the end-user is still waiting. Dynamically identifying the optimal transcoding parameters, without performing any transcoding operation, is very challenging. In this thesis, we propose a novel dynamic adaptation framework that estimates, without performing transcoding, near-optimal transcoding parameters (format, scaling parameter and quality factor). The output formats considered in this research are JPEG- and XHTML-based Web pages. Firstly, we define a quality of experience measure to quantify the quality of the adapted content as experienced by the end-user. This measure takes into account the visual aspect of the content as well as its transport quality, which is mostly affected by the network conditions. Secondly, we propose a dynamic adaptation framework capable of selecting dynamically and with very little computational complexity, near-optimal adapted content that meets the best compromise between its visual quality and delivery time based on the proposed quality of experience measure. It uses predictors of file size and visual quality of JPEG images subject to changing their scaling parameter and quality factor proposed in recent researches. Our framework is comprised of five adaptation methods with increased quality and complexity. The first one, requiring one transcoding operation, estimates near-optimal adapted content, whereas the other four methods improve its prediction accuracy by allowing the system to perform more than one transcoding operation. The performance of the proposed dynamic framework was tested with a static exhaustive system and a typical dynamic system. Globally, the obtained results were very close to optimality and far better than the typical dynamic system. Besides, we were able to reach optimality on a large number of tested documents. The proposed dynamic framework has been applied to OpenOffice Impress presentations. It is designed to be general, but future work can be carried out to validate its applicability to other enterprise documents types such as Word (text) and Excel (spreadsheet)

    Multi-Objective Optimization in Dynamic Content Adaptation of Slide Documents

    No full text

    Dynamic Optimal Countermeasure Selection for Intrusion Response System

    No full text

    Alternatively activated microglia and macrophages in the central nervous system

    No full text
    corecore