36 research outputs found

    Compression et transmission d'images avec Ă©nergie minimale application aux capteurs sans fil

    Get PDF
    Un rĂ©seau de capteurs d'images sans fil (RCISF) est un rĂ©seau ad hoc formĂ© d'un ensemble de noeuds autonomes dotĂ©s chacun d'une petite camĂ©ra, communiquant entre eux sans liaison filaire et sans l'utilisation d'une infrastructure Ă©tablie, ni d'une gestion de rĂ©seau centralisĂ©e. Leur utilitĂ© semble majeure dans plusieurs domaines, notamment en mĂ©decine et en environnement. La conception d'une chaĂźne de compression et de transmission sans fil pour un RCISF pose de vĂ©ritables dĂ©fis. L'origine de ces derniers est liĂ©e principalement Ă  la limitation des ressources des capteurs (batterie faible , capacitĂ© de traitement et mĂ©moire limitĂ©es). L'objectif de cette thĂšse consiste Ă  explorer des stratĂ©gies permettant d'amĂ©liorer l'efficacitĂ© Ă©nergĂ©tique des RCISF, notamment lors de la compression et de la transmission des images. InĂ©luctablement, l'application des normes usuelles telles que JPEG ou JPEG2000 est Ă©ner- givore, et limite ainsi la longĂ©vitĂ© des RCISF. Cela nĂ©cessite leur adaptation aux contraintes imposĂ©es par les RCISF. Pour cela, nous avons analysĂ© en premier lieu, la faisabilitĂ© d'adapter JPEG au contexte oĂč les ressources Ă©nergĂ©tiques sont trĂšs limitĂ©es. Les travaux menĂ©s sur cet aspect nous permettent de proposer trois solutions. La premiĂšre solution est basĂ©e sur la propriĂ©tĂ© de compactage de l'Ă©nergie de la TransformĂ©e en Cosinus DiscrĂšte (TCD). Cette propriĂ©tĂ© permet d'Ă©liminer la redondance dans une image sans trop altĂ©rer sa qualitĂ©, tout en gagnant en Ă©nergie. La rĂ©duction de l'Ă©nergie par l'utilisation des rĂ©gions d'intĂ©rĂȘts reprĂ©sente la deuxiĂšme solution explorĂ©e dans cette thĂšse. Finalement, nous avons proposĂ© un schĂ©ma basĂ© sur la compression et la transmission progressive, permettant ainsi d'avoir une idĂ©e gĂ©nĂ©rale sur l'image cible sans envoyer son contenu entier. En outre, pour une transmission non Ă©nergivore, nous avons optĂ© pour la solution suivante. N'envoyer fiablement que les basses frĂ©quences et les rĂ©gions d'intĂ©rĂȘt d'une image. Les hautes frĂ©quences et les rĂ©gions de moindre intĂ©rĂȘt sont envoyĂ©es""infiablement"", car leur pertes n'altĂšrent que lĂ©gĂšrement la qualitĂ© de l'image. Pour cela, des modĂšles de priorisation ont Ă©tĂ© comparĂ©s puis adaptĂ©s Ă  nos besoins. En second lieu, nous avons Ă©tudiĂ© l'approche par ondelettes (wavelets ). Plus prĂ©cisĂ©ment, nous avons analysĂ© plusieurs filtres d'ondelettes et dĂ©terminĂ© les ondelettes les plus adĂ©quates pour assurer une faible consommation en Ă©nergie, tout en gardant une bonne qualitĂ© de l'image reconstruite Ă  la station de base. Pour estimer l'Ă©nergie consommĂ©e par un capteur durant chaque Ă©tape de la 'compression, un modĂšle mathĂ©matique est dĂ©veloppĂ© pour chaque transformĂ©e (TCD ou ondelette). Ces modĂšles, qui ne tiennent pas compte de la complexitĂ© de l'implĂ©mentation, sont basĂ©s sur le nombre d'opĂ©rations de base exĂ©cutĂ©es Ă  chaque Ă©tape de la compression

    Nouvelles mĂ©thodes de prĂ©diction inter-images pour la compression d’images et de vidĂ©os

    Get PDF
    Due to the large availability of video cameras and new social media practices, as well as the emergence of cloud services, images and videosconstitute today a significant amount of the total data that is transmitted over the internet. Video streaming applications account for more than 70% of the world internet bandwidth. Whereas billions of images are already stored in the cloud and millions are uploaded every day. The ever growing streaming and storage requirements of these media require the constant improvements of image and video coding tools. This thesis aims at exploring novel approaches for improving current inter-prediction methods. Such methods leverage redundancies between similar frames, and were originally developed in the context of video compression. In a first approach, novel global and local inter-prediction tools are associated to improve the efficiency of image sets compression schemes based on video codecs. By leveraging a global geometric and photometric compensation with a locally linear prediction, significant improvements can be obtained. A second approach is then proposed which introduces a region-based inter-prediction scheme. The proposed method is able to improve the coding performances compared to existing solutions by estimating and compensating geometric and photometric distortions on a semi-local level. This approach is then adapted and validated in the context of video compression. Bit-rate improvements are obtained, especially for sequences displaying complex real-world motions such as zooms and rotations. The last part of the thesis focuses on deep learning approaches for inter-prediction. Deep neural networks have shown striking results for a large number of computer vision tasks over the last years. Deep learning based methods proposed for frame interpolation applications are studied here in the context of video compression. Coding performance improvements over traditional motion estimation and compensation methods highlight the potential of these deep architectures.En raison de la grande disponibilitĂ© des dispositifs de capture vidĂ©o et des nouvelles pratiques liĂ©es aux rĂ©seaux sociaux, ainsi qu’à l’émergence desservices en ligne, les images et les vidĂ©os constituent aujourd’hui une partie importante de donnĂ©es transmises sur internet. Les applications de streaming vidĂ©o reprĂ©sentent ainsi plus de 70% de la bande passante totale de l’internet. Des milliards d’images sont dĂ©jĂ  stockĂ©es dans le cloud et des millions y sont tĂ©lĂ©chargĂ©s chaque jour. Les besoins toujours croissants en streaming et stockage nĂ©cessitent donc une amĂ©lioration constante des outils de compression d’image et de vidĂ©o. Cette thĂšse vise Ă  explorer des nouvelles approches pour amĂ©liorer les mĂ©thodes actuelles de prĂ©diction inter-images. De telles mĂ©thodes tirent parti des redondances entre images similaires, et ont Ă©tĂ© dĂ©veloppĂ©es Ă  l’origine dans le contexte de la vidĂ©o compression. Dans une premiĂšre partie, de nouveaux outils de prĂ©diction inter globaux et locaux sont associĂ©s pour amĂ©liorer l’efficacitĂ© des schĂ©mas de compression de bases de donnĂ©es d’image. En associant une compensation gĂ©omĂ©trique et photomĂ©trique globale avec une prĂ©diction linĂ©aire locale, des amĂ©liorations significatives peuvent ĂȘtre obtenues. Une seconde approche est ensuite proposĂ©e qui introduit un schĂ©ma deprĂ©diction inter par rĂ©gions. La mĂ©thode proposĂ©e est en mesure d’amĂ©liorer les performances de codage par rapport aux solutions existantes en estimant et en compensant les distorsions gĂ©omĂ©triques et photomĂ©triques Ă  une Ă©chelle semi locale. Cette approche est ensuite adaptĂ©e et validĂ©e dans le cadre de la compression vidĂ©o. Des amĂ©liorations en rĂ©duction de dĂ©bit sont obtenues, en particulier pour les sĂ©quences prĂ©sentant des mouvements complexes rĂ©els tels que des zooms et des rotations. La derniĂšre partie de la thĂšse se concentre sur l’étude des mĂ©thodes d’apprentissage en profondeur dans le cadre de la prĂ©diction inter. Ces derniĂšres annĂ©es, les rĂ©seaux de neurones profonds ont obtenu des rĂ©sultats impressionnants pour un grand nombre de tĂąches de vision par ordinateur. Les mĂ©thodes basĂ©es sur l’apprentissage en profondeur proposĂ©esĂ  l’origine pour de l’interpolation d’images sont Ă©tudiĂ©es ici dans le contexte de la compression vidĂ©o. Des amĂ©liorations en terme de performances de codage sont obtenues par rapport aux mĂ©thodes d’estimation et de compensation de mouvements traditionnelles. Ces rĂ©sultats mettent en Ă©vidence le fort potentiel de ces architectures profondes dans le domaine de la compression vidĂ©o

    Codage d'images avec et sans pertes à basse complexité et basé contenu

    Get PDF
    This doctoral research project aims at designing an improved solution of the still image codec called LAR (Locally Adaptive Resolution) for both compression performance and complexity. Several image compression standards have been well proposed and used in the multimedia applications, but the research does not stop the progress for the higher coding quality and/or lower coding consumption. JPEG was standardized twenty years ago, while it is still a widely used compression format today. With a better coding efficiency, the application of the JPEG 2000 is limited by its larger computation cost than the JPEG one. In 2008, the JPEG Committee announced a Call for Advanced Image Coding (AIC). This call aims to standardize potential technologies going beyond existing JPEG standards. The LAR codec was proposed as one response to this call. The LAR framework tends to associate the compression efficiency and the content-based representation. It supports both lossy and lossless coding under the same structure. However, at the beginning of this study, the LAR codec did not implement the rate-distortion-optimization (RDO). This shortage was detrimental for LAR during the AIC evaluation step. Thus, in this work, it is first to characterize the impact of the main parameters of the codec on the compression efficiency, next to construct the RDO models to configure parameters of LAR for achieving optimal or sub-optimal coding efficiencies. Further, based on the RDO models, a “quality constraint” method is introduced to encode the image at a given target MSE/PSNR. The accuracy of the proposed technique, estimated by the ratio between the error variance and the setpoint, is about 10%. Besides, the subjective quality measurement is taken into consideration and the RDO models are locally applied in the image rather than globally. The perceptual quality is improved with a significant gain measured by the objective quality metric SSIM (structural similarity). Aiming at a low complexity and efficient image codec, a new coding scheme is also proposed in lossless mode under the LAR framework. In this context, all the coding steps are changed for a better final compression ratio. A new classification module is also introduced to decrease the entropy of the prediction errors. Experiments show that this lossless codec achieves the equivalent compression ratio to JPEG 2000, while saving 76% of the time consumption in average in encoding and decoding.Ce projet de recherche doctoral vise Ă  proposer solution amĂ©liorĂ©e du codec de codage d’images LAR (Locally Adaptive Resolution), Ă  la fois d’un point de vue performances de compression et complexitĂ©. Plusieurs standards de compression d’images ont Ă©tĂ© proposĂ©s par le passĂ© et mis Ă  profit dans de nombreuses applications multimĂ©dia, mais la recherche continue dans ce domaine afin d’offrir de plus grande qualitĂ© de codage et/ou de plus faibles complexitĂ© de traitements. JPEG fut standardisĂ© il y a vingt ans, et il continue pourtant Ă  ĂȘtre le format de compression le plus utilisĂ© actuellement. Bien qu’avec de meilleures performances de compression, l’utilisation de JPEG 2000 reste limitĂ©e due Ă  sa complexitĂ© plus importe comparĂ©e Ă  JPEG. En 2008, le comitĂ© de standardisation JPEG a lancĂ© un appel Ă  proposition appelĂ© AIC (Advanced Image Coding). L’objectif Ă©tait de pouvoir standardiser de nouvelles technologies allant au-delĂ  des standards existants. Le codec LAR fut alors proposĂ© comme rĂ©ponse Ă  cet appel. Le systĂšme LAR tend Ă  associer une efficacitĂ© de compression et une reprĂ©sentation basĂ©e contenu. Il supporte le codage avec et sans pertes avec la mĂȘme structure. Cependant, au dĂ©but de cette Ă©tude, le codec LAR ne mettait pas en oeuvre de techniques d’optimisation dĂ©bit/distorsions (RDO), ce qui lui fut prĂ©judiciable lors de la phase d’évaluation d’AIC. Ainsi dans ce travail, il s’agit dans un premier temps de caractĂ©riser l’impact des principaux paramĂštres du codec sur l’efficacitĂ© de compression, sur la caractĂ©risation des relations existantes entre efficacitĂ© de codage, puis de construire des modĂšles RDO pour la configuration des paramĂštres afin d’obtenir une efficacitĂ© de codage proche de l’optimal. De plus, basĂ©e sur ces modĂšles RDO, une mĂ©thode de « contrĂŽle de qualitĂ© » est introduite qui permet de coder une image Ă  une cible MSE/PSNR donnĂ©e. La prĂ©cision de la technique proposĂ©e, estimĂ©e par le rapport entre la variance de l’erreur et la consigne, est d’environ 10%. En supplĂ©ment, la mesure de qualitĂ© subjective est prise en considĂ©ration et les modĂšles RDO sont appliquĂ©s localement dans l’image et non plus globalement. La qualitĂ© perceptuelle est visiblement amĂ©liorĂ©e, avec un gain significatif mesurĂ© par la mĂ©trique de qualitĂ© objective SSIM. Avec un double objectif d’efficacitĂ© de codage et de basse complexitĂ©, un nouveau schĂ©ma de codage LAR est Ă©galement proposĂ© dans le mode sans perte. Dans ce contexte, toutes les Ă©tapes de codage sont modifiĂ©es pour un meilleur taux de compression final. Un nouveau module de classification est Ă©galement introduit pour diminuer l’entropie des erreurs de prĂ©diction. Les expĂ©rimentations montrent que ce codec sans perte atteint des taux de compression Ă©quivalents Ă  ceux de JPEG 2000, tout en Ă©conomisant 76% du temps de codage et de dĂ©codage

    Discrete Wavelet Transforms

    Get PDF
    The discrete wavelet transform (DWT) algorithms have a firm position in processing of signals in several areas of research and industry. As DWT provides both octave-scale frequency and spatial timing of the analyzed signal, it is constantly used to solve and treat more and more advanced problems. The present book: Discrete Wavelet Transforms: Algorithms and Applications reviews the recent progress in discrete wavelet transform algorithms and applications. The book covers a wide range of methods (e.g. lifting, shift invariance, multi-scale analysis) for constructing DWTs. The book chapters are organized into four major parts. Part I describes the progress in hardware implementations of the DWT algorithms. Applications include multitone modulation for ADSL and equalization techniques, a scalable architecture for FPGA-implementation, lifting based algorithm for VLSI implementation, comparison between DWT and FFT based OFDM and modified SPIHT codec. Part II addresses image processing algorithms such as multiresolution approach for edge detection, low bit rate image compression, low complexity implementation of CQF wavelets and compression of multi-component images. Part III focuses watermaking DWT algorithms. Finally, Part IV describes shift invariant DWTs, DC lossless property, DWT based analysis and estimation of colored noise and an application of the wavelet Galerkin method. The chapters of the present book consist of both tutorial and highly advanced material. Therefore, the book is intended to be a reference text for graduate students and researchers to obtain state-of-the-art knowledge on specific applications

    Flexible Hardware Architectures for Retinal Image Analysis

    Get PDF
    RÉSUMÉ Des millions de personnes autour du monde sont touchĂ©es par le diabĂšte. Plusieurs complications oculaires telle que la rĂ©tinopathie diabĂ©tique sont causĂ©es par le diabĂšte, ce qui peut conduire Ă  une perte de vision irrĂ©versible ou mĂȘme la cĂ©citĂ© si elles ne sont pas traitĂ©es. Des examens oculaires complets et rĂ©guliers par les ophtalmologues sont nĂ©cessaires pour une dĂ©tection prĂ©coce des maladies et pour permettre leur traitement. Comme solution prĂ©ventive, un protocole de dĂ©pistage impliquant l'utilisation d'images numĂ©riques du fond de l'Ɠil a Ă©tĂ© adoptĂ©. Cela permet aux ophtalmologistes de surveiller les changements sur la rĂ©tine pour dĂ©tecter toute prĂ©sence d'une maladie oculaire. Cette solution a permis d'obtenir des examens rĂ©guliers, mĂȘme pour les populations des rĂ©gions Ă©loignĂ©es et dĂ©favorisĂ©es. Avec la grande quantitĂ© d'images rĂ©tiniennes obtenues, des techniques automatisĂ©es pour les traiter sont devenues indispensables. Les techniques automatisĂ©es de dĂ©tection des maladies des yeux ont Ă©tĂ© largement abordĂ©es par la communautĂ© scientifique. Les techniques dĂ©veloppĂ©es ont atteint un haut niveau de maturitĂ©, ce qui a permis entre autre le dĂ©ploiement de solutions en tĂ©lĂ©mĂ©decine. Dans cette thĂšse, nous abordons le problĂšme du traitement de volumes Ă©levĂ©s d'images rĂ©tiniennes dans un temps raisonnable dans un contexte de dĂ©pistage en tĂ©lĂ©mĂ©decine. Ceci est requis pour permettre l'utilisation pratique des techniques dĂ©veloppĂ©es dans le contexte clinique. Dans cette thĂšse, nous nous concentrons sur deux Ă©tapes du pipeline de traitement des images rĂ©tiniennes. La premiĂšre Ă©tape est l'Ă©valuation de la qualitĂ© de l'image rĂ©tinienne. La deuxiĂšme Ă©tape est la segmentation des vaisseaux sanguins rĂ©tiniens. L’évaluation de la qualitĂ© des images rĂ©tinienne aprĂšs acquisition est une tĂąche primordiale au bon fonctionnement de tout systĂšme de traitement automatique des images de la rĂ©tine. Le rĂŽle de cette Ă©tape est de classifier les images acquises selon leurs qualitĂ©s, et demander une nouvelle acquisition en cas d’image de mauvaise qualitĂ©. Plusieurs algorithmes pour Ă©valuer la qualitĂ© des images rĂ©tiniennes ont Ă©tĂ© proposĂ©s dans la littĂ©rature. Cependant, mĂȘme si l'accĂ©lĂ©ration de cette tĂąche est requise en particulier pour permettre la crĂ©ation de systĂšmes mobiles de capture d'images rĂ©tiniennes, ce sujet n'a pas encore Ă©tĂ© abordĂ© dans la littĂ©rature. Dans cette thĂšse, nous ciblons un algorithme qui calcule les caractĂ©ristiques des images pour permettre leur classification en mauvaise, moyenne ou bonne qualitĂ©. Nous avons identifiĂ© le calcul des caractĂ©ristiques de l'image comme une tĂąche rĂ©pĂ©titive qui nĂ©cessite une accĂ©lĂ©ration. Nous nous sommes intĂ©ressĂ©s plus particuliĂšrement Ă  l’accĂ©lĂ©ration de l’algorithme d’encodage Ă  longueur de sĂ©quence (Run-Length Matrix – RLM). Nous avons proposĂ© une premiĂšre implĂ©mentation complĂštement logicielle mise en Ɠuvre sous forme d’un systĂšme embarquĂ© basĂ© sur la technologie Zynq de Xilinx. Pour accĂ©lĂ©rer le calcul des caractĂ©ristiques, nous avons conçu un co-processeur capable de calculer les caractĂ©ristiques en parallĂšle implĂ©mentĂ© sur la logique programmable du FPGA Zynq. Nous avons obtenu une accĂ©lĂ©ration de 30,1 × pour la tĂąche de calcul des caractĂ©ristiques de l’algorithme RLM par rapport Ă  son implĂ©mentation logicielle sur la plateforme Zynq. La segmentation des vaisseaux sanguins rĂ©tiniens est une tĂąche clĂ© dans le pipeline du traitement des images de la rĂ©tine. Les vaisseaux sanguins et leurs caractĂ©ristiques sont de bons indicateurs de la santĂ© de la rĂ©tine. En outre, leur segmentation peut Ă©galement aider Ă  segmenter les lĂ©sions rouges, indicatrices de la rĂ©tinopathie diabĂ©tique. Plusieurs techniques de segmentation des vaisseaux sanguins rĂ©tiniens ont Ă©tĂ© proposĂ©es dans la littĂ©rature. Des architectures matĂ©rielles ont Ă©galement Ă©tĂ© proposĂ©es pour accĂ©lĂ©rer certaines de ces techniques. Les architectures existantes manquent de performances et de flexibilitĂ© de programmation, notamment pour les images de haute rĂ©solution. Dans cette thĂšse, nous nous sommes intĂ©ressĂ©s Ă  deux techniques de segmentation du rĂ©seau vasculaire rĂ©tinien, la technique du filtrage adaptĂ© et la technique des opĂ©rateurs de ligne. La technique de filtrage adaptĂ© a Ă©tĂ© ciblĂ©e principalement en raison de sa popularitĂ©. Pour cette technique, nous avons proposĂ© deux architectures diffĂ©rentes, une architecture matĂ©rielle personnalisĂ©e mise en Ɠuvre sur FPGA et une architecture basĂ©e sur un ASIP. L'architecture matĂ©rielle personnalisĂ©e a Ă©tĂ© optimisĂ©e en termes de surface et de dĂ©bit de traitement pour obtenir des performances supĂ©rieures par rapport aux implĂ©mentations existantes dans la littĂ©rature. Cette implĂ©mentation est plus efficace que toutes les implĂ©mentations existantes en termes de dĂ©bit. Pour l'architecture basĂ©e sur un processeur Ă  jeu d’instructions spĂ©cialisĂ© (Application-Specific Instruction-set Processor – ASIP), nous avons identifiĂ© deux goulets d'Ă©tranglement liĂ©s Ă  l'accĂšs aux donnĂ©es et Ă  la complexitĂ© des calculs de l'algorithme. Nous avons conçu des instructions spĂ©cifiques ajoutĂ©es au chemin de donnĂ©es du processeur. L'ASIP a Ă©tĂ© rendu 7.7 × plus rapide par rapport Ă  son architecture de base. La deuxiĂšme technique pour la segmentation des vaisseaux sanguins est l'algorithme dĂ©tecteur de ligne multi-Ă©chelle (Multi-Scale Ligne Detector – MSLD). L'algorithme MSLD est choisi en raison de ses performances et de son potentiel Ă  dĂ©tecter les petits vaisseaux sanguins. Cependant, l'algorithme fonctionne en multi-Ă©chelle, ce qui rend l’algorithme gourmand en mĂ©moire. Pour rĂ©soudre ce problĂšme et permettre l'accĂ©lĂ©ration de son exĂ©cution, nous avons proposĂ© un algorithme efficace en terme de mĂ©moire, conçu et implĂ©mentĂ© sur FPGA. L'architecture proposĂ©e a rĂ©duit de façon drastique les exigences de l’algorithme en terme de mĂ©moire en rĂ©utilisant les calculs et la co-conception logicielle/matĂ©rielle. Les deux architectures matĂ©rielles proposĂ©es pour la segmentation du rĂ©seau vasculaire rĂ©tinien ont Ă©tĂ© rendues flexibles pour pouvoir traiter des images de basse et de haute rĂ©solution. Ceci a Ă©tĂ© rĂ©alisĂ© par le dĂ©veloppement d'un compilateur spĂ©cifique capable de gĂ©nĂ©rer une description HDL de bas niveau de l'algorithme Ă  partir d'un ensemble de paramĂštres. Le compilateur nous a permis d’optimiser les performances et le temps de dĂ©veloppement. Dans cette thĂšse, nous avons introduit deux architectures qui sont, au meilleur de nos connaissances, les seules capables de traiter des images Ă  la fois de basse et de haute rĂ©solution.----------ABSTRACT Millions of people all around the world are affected by diabetes. Several ocular complications such as diabetic retinopathy are caused by diabetes, which can lead to irreversible vision loss or even blindness if not treated. Regular comprehensive eye exams by eye doctors are required to detect the diseases at earlier stages and permit their treatment. As a preventing solution, a screening protocol involving the use of digital fundus images was adopted. This allows eye doctors to monitor changes in the retina to detect any presence of eye disease. This solution made regular examinations widely available, even to populations in remote and underserved areas. With the resulting large amount of retinal images, automated techniques to process them are required. Automated eye detection techniques are largely addressed by the research community, and now they reached a high level of maturity, which allows the deployment of telemedicine solutions. In this thesis, we are addressing the problem of processing a high volume of retinal images in a reasonable time. This is mandatory to allow the practical use of the developed techniques in a clinical context. In this thesis, we focus on two steps of the retinal image pipeline. The first step is the retinal image quality assessment. The second step is the retinal blood vessel segmentation. The evaluation of the quality of the retinal images after acquisition is a primary task for the proper functioning of any automated retinal image processing system. The role of this step is to classify the acquired images according to their quality, which will allow an automated system to request a new acquisition in case of poor quality image. Several algorithms to evaluate the quality of retinal images were proposed in the literature. However, even if the acceleration of this task is required, especially to allow the creation of mobile systems for capturing retinal images, this task has not yet been addressed in the literature. In this thesis, we target an algorithm that computes image features to allow their classification to bad, medium or good quality. We identified the computation of image features as a repetitive task that necessitates acceleration. We were particularly interested in accelerating the Run-Length Matrix (RLM) algorithm. We proposed a first fully software implementation in the form of an embedded system based on Xilinx's Zynq technology. To accelerate the features computation, we designed a co-processor able to compute the features in parallel, implemented on the programmable logic of the Zynq FPGA. We achieved an acceleration of 30.1× over its software implementation for the features computation part of the RLM algorithm. Retinal blood vessel segmentation is a key task in the pipeline of retinal image processing. Blood vessels and their characteristics are good indicators of retina health. In addition, their segmentation can also help to segment the red lesions, indicators of diabetic retinopathy. Several techniques have been proposed in the literature to segment retinal blood vessels. Hardware architectures have also been proposed to accelerate blood vessel segmentation. The existing architectures lack in terms of performance and programming flexibility, especially for high resolution images. In this thesis, we targeted two techniques, matched filtering and line operators. The matched filtering technique was targeted mainly because of its popularity. For this technique, we proposed two different architectures, a custom hardware architecture implemented on FPGA, and an Application Specific Instruction-set Processor (ASIP) based architecture. The custom hardware architecture area and timing were optimized to achieve higher performances in comparison to existing implementations. Our custom hardware implementation outperforms all existing implementations in terms of throughput. For the ASIP based architecture, we identified two bottlenecks related to data access and computation intensity of the algorithm. We designed two specific instructions added to the processor datapath. The ASIP was made 7.7× more efficient in terms of execution time compared to its basic architecture. The second technique for blood vessel segmentation is the Multi-Scale Line Detector (MSLD) algorithm. The MSLD algorithm is selected because of its performance and its potential to detect small blood vessels. However, the algorithm works at multiple scales which makes it memory intensive. To solve this problem and allow the acceleration of its execution, we proposed a memory-efficient algorithm designed and implemented on FPGA. The proposed architecture reduces drastically the memory requirements of the algorithm by reusing the computations and SW/HW co-design. The two hardware architectures proposed for retinal blood vessel segmentation were made flexible to be able to process low and high resolution images. This was achieved by the development of a specific compiler able to generate low-level HDL descriptions of the algorithm from a set of the algorithm parameters. The compiler enabled us to optimize performance and development time. In this thesis, we introduce two novel architectures which are, to the best of our knowledge, the only ones able to process both low and high resolution images

    Modélisation du comportement mécanique de la neige à partir d'images microtomographiques

    Get PDF
    Characterizing the complex microstructure of snow and its mechanics is a major challenge for avalanche forecasting and hazard mapping. While the effect of environmental conditions on the snow metamorphism, which leads to numerous snow types, is fairly known, the relation between snow microstructure and mechanical properties is poorly understood because of the very fragile nature of snow. In order to decipher this relation for dry snow, this thesis presents a modeling approach of snow mechanics based on the three-dimensional microstructure of snow captured by X-ray microtomography and the properties of ice. First, in order to automatically process the microtomographic data, we take advantage of the minimization of the snow surface energy through metamorphism to efficiently binary segment grayscale images. Second, assuming an elastic brittle behavior of the ice matrix, the tensile strength of snow is modeled via a finite element approach. The model reveals an apparent pseudo-plastic behavior caused by damage, and the highly heterogenous stress distribution in the ice matrix. Third, we develop a discrete element model, accounting for grain-rearrangements and the creation/failure of inter-granular contacts. The grains, geometric input of the model, are detected in the microstructure with mechanically-relevant criteria and described as rigid clumps of spheres. The model evidences that the compression behavior of snow is mainly controlled by density but that the first stage of deformation is also sensible to the snow type. Last, the inter-granular bonds, recognized to be critical for the mechanical properties, are characterized through a new microstructural indicator, which effectively highly correlates with the simulated mechanical and physical properties.CaractĂ©riser les propriĂ©tĂ©s mĂ©caniques de la neige est un dĂ©fi majeur pour la prĂ©vision et la prĂ©dĂ©termination du risque d’avalanche. Du fait du grand nombre de types de neige et de la difficultĂ© Ă  effectuer des mesures sur ce matĂ©riau trĂšs fragile, la comprĂ©hension de la relation entre la microstructure de la neige et ses propriĂ©tĂ©s mĂ©caniques est encore incomplĂšte. Cette thĂšse aborde ce problĂšme par le biais d’une approche de modĂ©lisation mĂ©canique basĂ©e sur la microstructure tridimensionnelle de neige obtenue par microtomographie aux rayons X. Tout d’abord, afin d’automatiser et amĂ©liorer la segmentation des images microtomographiques, un nouvel algorithme tirant profit de la minimisation de l’énergie de surface de la neige a Ă©tĂ© dĂ©veloppĂ© et Ă©valuĂ©. L’image air-glace est ensuite utilisĂ©e comme entrĂ©e gĂ©omĂ©trique d’un modĂšle Ă©lĂ©ments finis oĂč la glace est supposĂ©e Ă©lastique fragile. Ce modĂšle permet de reproduire le comportement fragile en traction et rĂ©vĂšle le comportement pseudoplastique apparent causĂ© par l’endommagement microscopique, ainsi que la forte hĂ©tĂ©rogĂ©nĂ©itĂ© des contraintes dans la matrice de glace. Pour reproduire les grandes dĂ©formations impliquant le rĂ©-arrangement de grains, un modĂšle par Ă©lĂ©ments discrets a ensuite Ă©tĂ© dĂ©veloppĂ©. Les grains sont identifiĂ©s dans la microstructure en utilisant des critĂšres gĂ©omĂ©triques dont la pertinence mĂ©canique a Ă©tĂ© dĂ©montrĂ©e, et dĂ©crits dans le modĂšle par des blocs rigides de sphĂšres. Le comportement simulĂ© en compression est dominĂ© par le rĂŽle de la densitĂ© mais rĂ©vĂšle Ă©galement des diffĂ©rences liĂ©es au type de neige. Enfin, pour distinguer le degrĂ© de cohĂ©sion entre les types de neige, un indicateur microstructurel a Ă©tĂ© dĂ©veloppĂ© et s’est avĂ©rĂ© ĂȘtre fortement corrĂ©lĂ© aux propriĂ©tĂ©s mĂ©caniques et physiques du matĂ©riau

    Contribution à l'analyse de la dynamique des écritures anciennes pour l'aide à l'expertise paléographique

    Get PDF
    Mes travaux de thÚse s inscrivent dans le cadre du projet ANR GRAPHEM1 (Graphemebased Retrieval and Analysis for PaleograpHic Expertise of Middle Age Manuscripts). Ilsprésentent une contribution méthodologique applicable à l'analyse automatique des écrituresanciennes pour assister les experts en paléographie dans le délicat travail d étude et dedéchiffrage des écritures.L objectif principal est de contribuer à une instrumetation du corpus des manuscritsmédiévaux détenus par l Institut de Recherche en Histoire des Textes (IRHT Paris) en aidantles paléographes spécialisés dans ce domaine dans leur travail de compréhension de l évolutiondes formes de l écriture par la mise en place de méthodes efficaces d accÚs au contenu desmanuscrits reposant sur une analyse fine des formes décrites sous la formes de petits fragments(les graphÚmes). Dans mes travaux de doctorats, j ai choisi d étudier la dynamique del élément le plus basique de l écriture appelé le ductus2 et qui d aprÚs les paléographes apportebeaucoup d informations sur le style d écriture et l époque d élaboration du manuscrit.Mes contributions majeures se situent à deux niveaux : une premiÚre étape de prétraitementdes images fortement dégradées assurant une décomposition optimale des formes en graphÚmescontenant l information du ductus. Pour cette étape de décomposition des manuscrits, nousavons procédé à la mise en place d une méthodologie complÚte de suivi de traits à partir del extraction d un squelette obtenu à partir de procédures de rehaussement de contraste et dediffusion de gradients. Le suivi complet du tracé a été obtenu à partir de l application des rÚglesfondamentales d exécution des traits d écriture, enseignées aux copistes du Moyen Age. Il s agitd information de dynamique de formation des traits portant essentiellement sur des indicationsde directions privilégiées.Dans une seconde étape, nous avons cherché à caractériser ces graphÚmes par desdescripteurs de formes visuelles compréhensibles à la fois par les paléographes et lesinformaticiens et garantissant une représentation la plus complÚte possible de l écriture d unpoint de vue géométrique et morphologique. A partir de cette caractérisation, nous avonsproposé une approche de clustering assurant un regroupement des graphÚmes en classeshomogÚnes par l utilisation d un algorithme de classification non-supervisé basée sur lacoloration de graphe. Le résultat du clustering des graphÚmes a conduit à la formation dedictionnaires de formes caractérisant de maniÚre individuelle et discriminante chaque manuscrittraité. Nous avons également étudié la puissance discriminatoire de ces descripteurs afin d obtenir la meilleure représentation d un manuscrit en dictionnaire de formes. Cette étude a étéfaite en exploitant les algorithmes génétiques par leur capacité à produire de bonne sélection decaractéristiques.L ensemble de ces contributions a été testé à partir d une application CBIR sur trois bases demanuscrits dont deux médiévales (manuscrits de la base d Oxford et manuscrits de l IRHT, baseprincipale du projet), et une base comprenant de manuscrits contemporains utilisée lors de lacompétition d identification de scripteurs d ICDAR 2011. L exploitation de notre méthode dedescription et de classification a été faite sur une base contemporaine afin de positionner notrecontribution par rapport aux autres travaux relevant du domaine de l identification d écritures etétudier son pouvoir de généralisation à d autres types de documents. Les résultats trÚsencourageants que nous avons obtenus sur les bases médiévales et la base contemporaine, ontmontré la robustesse de notre approche aux variations de formes et de styles et son caractÚrerésolument généralisable à tout type de documents écrits.My thesis work is part of the ANR GRAPHEM Project (Grapheme based Retrieval andAnalysis for Expertise paleographic Manuscripts of Middle Age). It represents a methodologicalcontribution applicable to the automatic analysis of ancient writings to assist the experts inpaleography in the delicate work of the studying and deciphering the writing.The main objective is to contribute to an instrumentation of the corpus of medievalmanuscripts held by Institut de Recherche en Histoire de Textes (IRHT-Paris), by helping thepaleographers specialized in this field in their work of understanding the evolution of forms inthe writing, with the establishment of effective methods to access the contents of manuscriptsbased on a fine analysis of the forms described in the form of small fragments (graphemes). Inmy PhD work, I chose to study the dynamic of the most basic element of the writing called theductus and which according to the paleographers, brings a lot of information on the style ofwriting and the era of the elaboration of the manuscript.My major contribution is situated at two levels: a first step of preprocessing of severelydegraded images to ensure an optimal decomposition of the forms into graphemes containingthe ductus information. For this decomposition step of manuscripts, we have proceeded to theestablishment of a complete methodology for the tracings of strokes by the extraction of theskeleton obtained from the contrast enhancement and the diffusion of the gradient procedures.The complete tracking of the strokes was obtained from the application of fundamentalexecution rules of the strokes taught to the scribes of the Middle Ages. It is related to thedynamic information of the formation of strokes focusing essentially on indications of theprivileged directions.In a second step, we have tried to characterize the graphemes by visual shape descriptorsunderstandable by both the computer scientists and the paleographers and thus unsuring themost complete possible representation of the wrting from a geometrical and morphological pointof view. From this characterization, we have have proposed a clustering approach insuring agrouping of graphemes into homogeneous classes by using a non-supervised classificationalgorithm based on the graph coloring. The result of the clustering of graphemes led to theformation of a codebook characterizing in an individual and discriminating way each processedmanuscript. We have also studied the discriminating power of the descriptors in order to obtaina better representation of a manuscript into a codebook. This study was done by exploiting thegenetic algorithms by their ability to produce a good feature selection.The set of the contributions was tested from a CBIR application on three databases ofmanuscripts including two medieval databases (manuscripts from the Oxford and IRHTdatabases), and database of containing contemporary manuscripts used in the writersidentification contest of ICDAR 2011. The exploitation of our description and classificationmethod was applied on a cotemporary database in order to position our contribution withrespect to other relevant works in the writrings identification domain and study itsgeneralization power to other types of manuscripts. The very encouraging results that weobtained on the medieval and contemporary databases, showed the robustness of our approachto the variations of the shapes and styles and its resolutely generalized character to all types ofhandwritten documents.PARIS5-Bibliotheque electronique (751069902) / SudocSudocFranceF

    Mobile Robots Navigation

    Get PDF
    Mobile robots navigation includes different interrelated activities: (i) perception, as obtaining and interpreting sensory information; (ii) exploration, as the strategy that guides the robot to select the next direction to go; (iii) mapping, involving the construction of a spatial representation by using the sensory information perceived; (iv) localization, as the strategy to estimate the robot position within the spatial map; (v) path planning, as the strategy to find a path towards a goal location being optimal or not; and (vi) path execution, where motor actions are determined and adapted to environmental changes. The book addresses those activities by integrating results from the research work of several authors all over the world. Research cases are documented in 32 chapters organized within 7 categories next described

    Lysosome-related organelles: an investigation into clinical disorders of endothelial cells and platelets

    Get PDF
    Lysosome-related organelles (LROs) are a heterogeneous group of organelles that have important functions in a number of specialised cell types. LROs, despite their distinct features and morphology, have been grouped together due to the observation that they are simultaneously functionally perturbed by single mutations in a number of genetic disorders, yet as a group they are still poorly understood. Firstly, it was investigated whether the genes that are important for the formation/maturation of other LROs can also affect Weibel-Palade bodies (WPBs) an endothelial LRO that is critical to haemostasis and inflammation. In the genetic disorder Hermansky Pudlak syndrome (HPS) a number of LROs are affected, but the effect of these mutations on WPBs is not yet established. It was investigated whether these genes are indeed important for the biogenesis and function of WPBs, potentially revealing a new aspect of the disease phenotype. siRNA ablation in human endothelial cells of genes identified as involved in LRO biogenesis proved to give inconclusive results as to their importance in WPB formation and function. Secondly, the understanding of LRO-related genetic disorders would be aided by an improvement in diagnostics. The diagnosis of platelet storage disorders (PSDs) is currently limited to the observation of symptoms (e.g. a bleeding disorder or albinism) that are often shared with other, more common diseases. Most HPS patients are initially misdiagnosed and many see 4 to 6 specialists before being correctly identified. I investigated whether Super Resolution Microscopy, allowing images to be taken with a higher resolution than the diffraction limit (<200 nm), has the potential for improving the imaging of platelet granules and thereby the diagnosis and characterisation of LRO-related disorders. The use of structured illumination microscopy, coupled with automated image analysis bioinformatics allowed for a highly efficient differentiation between control and patient platelets
    corecore