10 research outputs found

    Les index bitmap compressés

    Get PDF
    Les index bitmap sont trĂšs utilisĂ©s dans les moteurs de recherche et les bases de donnĂ©es pour accĂ©lĂ©rer les opĂ©rations de recherche. Leurs principaux avantages sont leur forme compacte et leur capacitĂ© Ă  tirer profit du traitement parallĂšle de bits dans les CPU (bit-level parallelism). Lorsque employĂ©s sur des attributs de faibles cardinalitĂ©s, l'efficacitĂ© des index bitmaps en matiĂšre d'occupation d'espace mĂ©moire et de temps de traitements comparĂ© aux autres types d'index classiques, tels que l'arbre-B, est largement reconnue dans la littĂ©rature. Cependant, plus la cardinalitĂ© d'un attribut s'Ă©lĂšve plus la taille et les temps de traitements de son index bitmap augmentent jusqu'Ă  consommer plus d'espaces mĂ©moires que les donnĂ©es indexĂ©es et d'importants temps de calculs. Afin de maintenir l'efficacitĂ© de ces solutions d'indexation dans ces conditions- lĂ , plusieurs chercheurs ont proposĂ© des travaux dans le but de rĂ©duire la taille et amĂ©liorer les temps de traitement de bitmaps indexant des attributs de larges cardinalitĂ©s. Les solutions proposĂ©es dans la littĂ©rature adressant cette problĂ©matique se divisent en trois catĂ©gories : le paquetage des bitmaps, l'encodage des bitmaps et la compression des bitmaps. Les contributions proposĂ©es dans cette thĂšse se classent parmi la troisiĂšme catĂ©gorie. AprĂšs avoir constatĂ© que la plupart des techniques de compression de bitmaps introduites ces 15 derniĂšres annĂ©es se basent sur le modĂšle de la solution WAH, qui combine une compression par plages de valeurs avec une reprĂ©sentation bitmap sous forme de chaĂźnes de bits alignĂ©es par mots CPU, cette thĂšse propose la technique Roaring bitmap, qui adopte un nouveau modĂšle pour compresser les bitmaps. Cette mĂ©thode discrĂ©tise l'espace des entiers reprĂ©sentĂ©s par un bitmap en des partitions de taille fixe, puis applique sur chacune une forme de compression appropriĂ©e selon la densitĂ© du groupe d'entiers. Des expĂ©riences ont Ă©tĂ© conduites pour comparer les performances temps-espace du nouveau modĂšle avec ceux de deux autres solutions de compression bitmap parmi les plus connues dans la littĂ©rature : WAH et Concise. Les rĂ©sultats ont montrĂ© que, sur des faibles densitĂ©s, la nouvelle mĂ©thode ne consomme que ≈ 50% de l'espace mĂ©moire occupĂ© par Concise et ≈ 25% de celui de WAH. Aussi, Roaring bitmap a pu accĂ©lĂ©rer les temps de calcul d'opĂ©rations logiques par rapport aux deux autres techniques sur tous les tests effectuĂ©s, en Ă©tant de 4 Ă  5 fois plus performant sur des donnĂ©es synthĂ©tiques, et jusqu'Ă  1100 fois plus rapide sur des donnĂ©es rĂ©elles. La librairie de Roaring bitmap et celles des autres solutions adoptant le modĂšle WAH qui sont disponibles au grand public ne supportent que des bitmaps d'au plus 232 (≈ 4 milliards) entrĂ©es. Avec l'avĂšnement du Big Data, le besoin d'indexer de trĂšs larges collections de donnĂ©es sur lesquelles de telles librairies se rĂ©vĂšlent impraticables est souvent rencontrĂ©. Les ingĂ©nieurs du moteur de recherche Apache Lucene ont rencontrĂ© ce problĂšme, et ont introduit la solution OpenBitSet, qui peut allouer des bitmaps avec jusqu'Ă  64 x 232 – 1 entrĂ©es. Cependant, cette solution reste simple et n'applique aucune forme de compression sur les bitmaps. La prĂ©sente thĂšse propose trois nouveaux modĂšles de compression bitmap basĂ©s sur le format de Roaring bitmap et qui peuvent indexer jusqu'Ă  264 entrĂ©es. Des expĂ©riences sur des donnĂ©es synthĂ©tiques comparant les performances des trois nouveaux modĂšles avec la solution d'Apache Lucene, OpenBitSet, et d'autres collections Java du paquetage Java.Util : ArrayList, LinkedList, HashSet et TreeSet, ont montrĂ© qu'OpenBitSet et les collections Java consomment, respectivement, jusqu'Ă  ≈ 300 millions de fois et ≈ 1800 fois plus d'espaces mĂ©moire comparĂ©s aux trois nouveaux modĂšles. Ces derniers ont Ă©galement calculĂ© des intersections entre deux ensembles d'entiers, ≈ 6 millions de fois, ≈ 63 milles fois et ≈ 6 fois plus rapidement par rapport Ă  OpenBitSet, aux deux collections ArrayList et LinkedList, et aux deux structures HashSet et TreeSet, respectivement. En Ă©valuant les temps pour calculer l'union de deux ensembles d'entiers, les nouvelles mĂ©thodes ont Ă©tĂ© jusqu'Ă  ≈ 3 millions de fois plus performantes qu'OpenBitSet. Aussi, cette derniĂšre structure de donnĂ©es a Ă©tĂ© jusqu'Ă  ≈ 14 millions de fois plus lente pour insĂ©rer un entier gĂ©nĂ©rĂ© alĂ©atoirement que les trois solutions proposĂ©es. Afin de valider le format de la solution Roaring bitmap dans un SGBD rĂ©el, cette technique d'indexation a Ă©tĂ© intĂ©grĂ©e au moteur OLAP Druid. Ce systĂšme se base essentiellement sur des index bitmap compressĂ©s avec la technique Concise pour accĂ©lĂ©rer les temps de rĂ©ponse de requĂȘtes OLAP effectuant des analyses dĂ©taillĂ©es sur les donnĂ©es (drill-down). Des expĂ©riences sur des donnĂ©es rĂ©elles ont Ă©tĂ© rĂ©alisĂ©es pour Ă©valuer les performances de Roaring bitmap et de Concise au sein du SGBD Druid. Les rĂ©sultats ont montrĂ© que Roaring bitmap a amĂ©liorĂ© de ≈ 2 fois les temps de rĂ©ponse de requĂȘtes d'agrĂ©gations et prĂšs de 5 fois le temps de traitements de requĂȘtes de recherche comparĂ© Ă  la solution Concise.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : index bitmap, compression, performances, opĂ©rations logiques, structures de donnĂ©es

    L’amĂ©lioration de la collecte de donnĂ©es et de l’évaluation de formules pour la vĂ©rification de l’exĂ©cution

    Get PDF
    Les technologies de l’information sont devenues une partie importante de notre vie. Bien que ces magnifiques techniques nous facilitent la vie et facilitent la vie, les accidents et les catastrophes causĂ©s par des dysfonctionnements de logiciels provoquent beaucoup de pertes de vies et de richesse qui peuvent en fait ĂȘtre Ă©vitĂ©es. La vĂ©rification et la validation de logiciels sont un ensemble de techniques visant Ă  vĂ©rifier la fonctionnalitĂ© et Ă  Ă©valuer la qualitĂ© logicielle. La vĂ©rification de l’exĂ©cution est l’une des techniques couramment utilisĂ©es dans le domaine industriel. Son origine provient d’autres techniques de vĂ©rification, mais elle a aussi ses propres fonctionnalitĂ©s et caractĂ©ristiques. Le but de cette recherche est d’explorer les mĂ©thodes et les solutions pour amĂ©liorer deux aspects de la vĂ©rification de l’exĂ©cution : la collecte de donnĂ©es et l’évaluation de formules. Dans la premiĂšre partie, nous prĂ©sentons un canal de communication unidirectionnelle basĂ© sur des codes optiques qui sont applicables pour la transmission de donnĂ©es dans un environnement spĂ©cifique. Ensuite, dans la deuxiĂšme partie, nous introduisons notre solution de l’évaluation hors ligne de logiques temporelles basĂ©es sur la manipulation bitmap et la compression bitmap. Les deux parties ont Ă©tĂ© Ă©crites sous forme d’articles Ă  publier, dont l’un a Ă©tĂ© publiĂ©, tandis que l’autre est en cours d’examen

    Diffusion numérique du patrimoine, dimension de la politique culturelle (La)

    Get PDF
    Les enjeux du numérique pour la politique culturelle et la valorisation du patrimoine. Propositions pour une politique de la diffusion numérique du patrimoine

    HTML et Javascript

    No full text
    Programmation Web, Ă©tude des langages HTML et JavaScrip

    Nouvelle génération de systÚmes de vision temps réel à grande dynamique

    Get PDF
    Cette thĂšse s intĂšgre dans le cadre du projet europĂ©en EUREKA "High Dynamic Range - Low NoiseCMOS imagers", qui a pour but de dĂ©velopper de nouvelles approches de fabrication de capteursd images CMOS Ă  haute performance. L objectif de la thĂšse est la conception d un systĂšme de visiontemps rĂ©el Ă  grande gamme dynamique (HDR). L axe principal sera la reconstruction, en temps rĂ©elet Ă  la cadence du capteur (60 images/sec), d une vidĂ©o Ă  grande dynamique sur une architecturede calcul embarquĂ©e.La plupart des capteurs actuels produisent une image numĂ©rique qui n est pas capable de reproduireles vraies Ă©chelles d intensitĂ©s lumineuses du monde rĂ©el. De la mĂȘme maniĂšre, les Ă©crans, impri-mantes et afficheurs courants ne permettent pas la restitution effective d une gamme tonale Ă©tendue.L approche envisagĂ©e dans cette thĂšse est la capture multiple d images acquises avec des tempsd exposition diffĂ©rents permettant de palier les limites des dispositifs actuels.Afin de concevoir un systĂšme capable de s adapter temporellement aux conditions lumineuses,l Ă©tude d algorithmes dĂ©diĂ©s Ă  la grande dynamique, tels que les techniques d auto exposition, dereproduction de tons, en passant par la gĂ©nĂ©ration de cartes de radiances est rĂ©alisĂ©e. Le nouveausystĂšme matĂ©riel de type "smart camĂ©ra" est capable de capturer, gĂ©nĂ©rer et restituer du contenu Ă grande dynamique dans un contexte de parallĂ©lisation et de traitement des flux vidĂ©os en temps rĂ©elThis thesis is a part of the EUREKA European project called "High Dynamic Range - Low NoiseCMOS imagers", which developped new approaches to design high performance CMOS sensors.The purpose of this thesis is to design a real-time high dynamic range (HDR) vision system. Themain focus will be the real-time video reconstruction at 60 frames/sec in an embedded architecture.Most of the sensors produce a digital image that is not able to reproduce the real world light inten-sities. Similarly, monitors, printers and current displays do not recover of a wide tonal range. Theapproach proposed in this thesis is multiple acquisitions, taken with different exposure times, to over-come the limitations of the standard devices.To temporally adapt the light conditions, the study of algorithms dedicated to the high dynamic rangetechniques is performed. Our new smart camera system is able to capture, generate and showcontent in a highly parallelizable context for a real time processingDIJON-BU Doc.Ă©lectronique (212319901) / SudocSudocFranceF

    Informatique et culture scientifique du numérique

    Get PDF
    National audienceCe document transcrit les MOOC rĂ©alisĂ©s par le Learning Lab Inria, avec le soutien du MinistĂšre de l’éducation nationale et de la jeunesse, en partenariat avec le projet Class ́Code et l’UniversitĂ© CĂŽte d’Azur.Cette premiĂšre version reprend et remet en forme les contenus des MOOC, notamment en transcrivant les propos oraux des diffĂ©rents intervenants issus des supports multimĂ©dias, et en adaptant les contenus Ă  un mĂ©dia textuel. Les apports supplĂ©mentaires concernent modestement la partie surles logiciels libres et celle sur le son et la musique. En l’état, il manque encore un chapitre sur les implications et applications de l’informatique (bioinformatique, mĂ©decine, arts, etc.) et un autre sur l’architecture des ordinateurs et des rĂ©seaux. Cependant, le taux de recouvrement n’est pas nul car ces sujets sont Ă©galement abordĂ©s dans d’autres sections du manuel. Toutefois, le manuel reste exploitable comme tel et sera enrichi et amĂ©liorĂ© dans des versions suivantes

    Traitement des signaux et images en temps réel ("implantation de H.264 sur MPSoC")

    Get PDF
    Cette thÚse est élaborée en cotutelle entre l université Badji Mokhtar (Laboratoire LERICA) et l université de bourgogne (Laboratoire LE2I, UMR CNRS 5158). Elle constitue une contribution à l étude et l implantation de l encodeur H.264/AVC. Durent l évolution des normes de compression vidéo, une réalité sure est vérifiée de plus en plus : avoir une bonne performance du processus de compression nécessite l élaboration d équipements beaucoup plus performants en termes de puissance de calcul, de flexibilité et de portabilité et ceci afin de répondre aux exigences des différents traitements et satisfaire au critÚre Temps Réel . Pour assurer un temps réel pour ce genre d applications, une solution reste possible est l utilisation des systÚmes sur puce (SoC) ou bien des systÚmes multiprocesseurs sur puce (MPSoC) implantés sur des plateformes reconfigurables à base de circuit FPGA. L objective de cette thÚse consiste à l étude et l implantation des algorithmes de traitement des signaux et images et en particulier la norme H.264/AVC, et cela dans le but d assurer un temps réel pour le cycle codage-décodage. Nous utilisons deux plateformes FPGA de Xilinx (ML501 et XUPV5). Dans la littérature, il existe déjà plusieurs implémentations du décodeur. Pour l encodeur, malgré les efforts énormes réalisés, il reste toujours du travail pour l optimisation des algorithmes et l extraction des parallélismes possibles surtout avec une variété de profils et de niveaux de la norme H.264/AVC.Dans un premier temps de cette thÚse, nous proposons une implantation matérielle d un contrÎleur mémoire spécialement pour l encodeur H.264/AVC. Ce contrÎleur est réalisé en ajoutant, au contrÎleur mémoire DDR2 des deux plateformes de Xilinx, une couche intelligente capable de calculer les adresses et récupérer les données nécessaires pour les différents modules de traitement de l encodeur. Ensuite, nous proposons des implantations matérielles (niveau RTL) des modules de traitement de l encodeur H.264. Sur ces implantations, nous allons exploiter les deux principes de parallélisme et de pipelining autorisé par l encodeur en vue de la grande dépendance inter-blocs. Nous avons ainsi proposé plusieurs améliorations et nouvelles techniques dans les modules de la chaine Intra et le filtre anti-blocs. A la fin de cette thÚse, nous utilisons les modules réalisés en matériels pour la l implantation Matérielle/logicielle de l encodeur H.264/AVC. Des résultats de synthÚse et de simulation, en utilisant les deux plateformes de Xilinx, sont montrés et comparés avec les autres implémentations existantesThis thesis has been carried out in joint supervision between the Badji Mokhtar University (LERICA Laboratory) and the University of Burgundy (LE2I laboratory, UMR CNRS 5158). It is a contribution to the study and implementation of the H.264/AVC encoder. The evolution in video coding standards have historically demanded stringent performances of the compression process, which imposes the development of platforms that perform much better in terms of computing power, flexibility and portability. Such demands are necessary to fulfill requirements of the different treatments and to meet "Real Time" processing constraints. In order to ensure real-time performances, a possible solution is to made use of systems on chip (SoC) or multiprocessor systems on chip (MPSoC) built on platforms based reconfigurable FPGAs. The objective of this thesis is the study and implementation of algorithms for signal and image processing (in particular the H.264/AVC standard); especial attention was given to provide real-time coding-decoding cycles. We use two FPGA platforms (ML501 and XUPV5 from Xilinx) to implement our architectures. In the literature, there are already several implementations of the decoder. For the encoder part, despite the enormous efforts made, work remains to optimize algorithms and extract the inherent parallelism of the architecture. This is especially true with a variety of profiles and levels of H.264/AVC. Initially, we proposed a hardware implementation of a memory controller specifically targeted to the H.264/AVC encoder. This controller is obtained by adding, to the DDR2 memory controller, an intelligent layer capable of calculating the addresses and to retrieve the necessary data for several of the processing modules of the encoder. Afterwards, we proposed hardware implementations (RTL) for the processing modules of the H.264 encoder. In these implementations, we made use of principles of parallelism and pipelining, taking into account the constraints imposed by the inter-block dependency in the encoder. We proposed several enhancements and new technologies in the channel Intra modules and the deblocking filter. At the end of this thesis, we use the modules implemented in hardware for implementing the H.264/AVC encoder in a hardware/software design. Synthesis and simulation results, using both platforms for Xilinx, are shown and compared with other existing implementationsDIJON-BU Doc.électronique (212319901) / SudocSudocFranceF

    Analyse de la performance des utilisateurs avec et sans défis visuels dans la localisation de sons rendus par une acoustique immersive de bas de gamme

    Get PDF
    Cette thĂšse porte sur la localisation de la position virtuelle de sources sonores utilisant des moyens de reproduction acoustique du type immersif de faible coĂ»t. L’étude compare la performance d’utilisateurs avec et sans dĂ©fis visuels. Des Ă©tudes de multiples sources montrent qu’un pourcentage important des personnes ayant des dĂ©fis visuels vivent avec des revenus annuels trĂšs bas. Ce constat a orientĂ© ce projet de recherche, afin que les technologies acoustiques utilisĂ©es dans les essais soient des technologies de reproduction acoustique de faible coĂ»t. Ceci, pour couvrir le contexte acoustique le plus probable chez les utilisateurs de cette technologie. La crĂ©ation de plusieurs jeux acoustiques immersifs dans le contexte acadĂ©mique a exposĂ© le besoin d’un modĂšle de perception capable d’orienter les concepteurs de scĂ©narios acoustiques par rapport aux Ă©chantillons sonores Ă  utiliser (la frĂ©quence du son et leur positionnement). Un modĂšle de convivialitĂ© pour l’utilisation d’échantillons sonores dans un contexte acoustique immersif de bas coĂ»t est dĂ©fini comme rĂ©sultat des constats expĂ©rimentaux. La littĂ©rature expose l’existence d’une capacitĂ© accrue pour dĂ©terminer la localisation d’objets et d’interlocuteurs par des personnes non voyantes. L’origine de cet accroissement de capacitĂ© semble ĂȘtre reliĂ© Ă  une utilisation plus efficace de l’information auditive ou Ă  une spĂ©cialisation d’une partie du cortex visuel pour traiter l’information sonore. La prĂ©sente expĂ©rience suggĂšre que, dans un contexte acoustique immersif de faible coĂ»t, les personnes avec et sans dĂ©fis visuels ont une performance similaire dans la localisation de la position virtuelle des sons produits. Les conclusions sont Ă©tablies Ă  partir du rĂ©sultat de l’analyse comparative de mĂ©triques objectives pour 55 participants (19 ayant des dĂ©fis visuels et 36 sans dĂ©fis visuels) rĂ©alisant une activitĂ© de jeu acoustique sans interface visuelle. L’analyse des actions de localisation des participants dans 10500 Ă©vĂšnements sonores, donne des rĂ©sultats conformes aux attentes et est Ă  la base des constats et du modĂšle de convivialitĂ©. Des stratĂ©gies de localisation de la position virtuelle du son ont Ă©tĂ© analysĂ©es et les conclusions sont prĂ©sentĂ©es. Un modĂšle de convivialitĂ© acoustique appliquĂ© au contexte est proposĂ©. Celui-ci est un graphique d’interprĂ©tation simple, destinĂ© aux concepteurs d’acoustique pour environnements immersifs
    corecore