67 research outputs found
Synthèse précise d'images fractales
Cette communication a pour but de présenter des méthodes de synthèse d'images fractales de type mouvement brownien fractionnaire. Ce travail est centré sur l'extension en 2D de deux méthodes précises dans le cas 1D. La première est basée sur une décomposition de Cholesky de la matrice de covariance des incréments et la deuxième sur la fonction de Weierstrass-Mandelbrot. Leur qualité est évaluée par trois tests statistiques de conformité au modèle du mouvement brownien fractionnaire. Seule l'extension de la fonction de Weierstrass-Mandelbrot est précise pour les valeurs de H testées
Analysis methods for fractional brownian motion: theory and comparative results
In this paper, several analysis methods for fractional Brownian motion are studied using reference test signals
generated by the Cholesky procedure. Several sets of 100 signals having sample size ranging from N = 32 to 1024
by power of 2 are generated for H = 0.1 to 0.9 by steps of 0.1. Analysis techniques of the H parameter among the
most well known in signal processing are studied. They are grouped in four categories: frequency based methods,
geometrical methods, time methods, and multi-resolution methods. Quality of these estimators is assessed in terms
of bias and variance. The variance is compared to the Cramer-Rao lower bound (CRLB). Statistical tests show that
only the maximum likelihood estimator (MLE) is efficient (unbiased and reaches the CRLB) for every H and N tested.
This experimental result about the efficiency of MLE extends that demonstrated by Dahlhaus only in the asymptotical case [1]. But MLE has a high computer burden in case of signals having a lot of samples. The Whittle
approximation in the frequency domain of the MLE allows to get ride of these limitations, this technique being
asymptotically efficient. Finally, results show that MLE approach can be used to measure the H parameter on signals
embedded in a white noise.Cet article a pour objectif de comparer les performances des différents estimateurs du paramètre H du mouvement brownien fractionnaire (fBm) sur des signaux théoriquement exacts synthétisés par la méthode de Cholesky. Des ensembles de 100 signaux de taille N = 32 à 1024 par puissance de 2 sont générés pour des valeurs du paramètre H variant de 0.1 à 0.9 par pas de 0.1. Les principales méthodes d'estimation ont été regroupées en quatre classes : les méthodes géométriques, les méthodes temporelles, les méthodes fréquentielles, et enfin les méthodes basées sur une décomposition multi-échelles. Chaque technique a été évaluée en termes de biais et de variance, cette dernière étant comparée à la borne de Cramer-Rao (BCR). Des tests statistiques montrent que seul l'estimateur par maximum de vraisemblance (EMV) est efficace (non biaisé et atteignant la BCR) pour toutes les valeurs de H et de N testées. Ce résultat expérimental complète les résultats théoriques d'efficacité de l'EMV démontrés par Dahlhaus uniquement dans le cas asymptotique [1]. D'un point de vue pratique, l'implémentation de l'EMV devient d'un coût calculatoire important pour des signaux de grande longueur. L'approche de Whittle du maximum de vraisemblance dans le domaine fréquentiel permet de lever ces limitations, cette technique étant asymptotiquement efficace. Enfin, des résultats montrent que l'approche EMV permet de traiter le cas des signaux fBm pollués par un bruit
Apprendre à gérer des collections patrimoniales en bibliothèque
Vous venez d'être nommé-e responsable de la collection patrimoniale d'une bibliothèque mais vous n'êtes pas spécialiste ou vos connaissances sont lointaines. D'où viennent ces vieux livres qui dorment dans la réserve ? Qu'en faire ? A-t-on le droit de s'en débarrasser s'ils paraissent ne servir à personne ? Y en a-t-il qui sont rares et qu'il faudrait mettre en valeur ? Quelques-uns sont catalogués mais c'est loin d'être le cas de tous, comment faire ? Et puis il y a des gravures dans des portefeuilles, des photographies anciennes ici et là . Comment savoir si elles ont quelque intérêt ? Dans un coin des magasins, des moisissures sont brusquement apparues et semblent contaminer peu à peu les ouvrages. Comment s'en débarrasser ? Qui prévenir ? Si vous vous posez parfois ces délicates questions, ce manuel est pour vous. (Dominique Coq, responsable scientifique du volume) Éclairé par des retours d'expériences de spécialistes, ce manuel réunit un ensemble raisonné d'informations de base, qui présente la marche à suivre pour appréhender, traiter, signaler et valoriser ces fonds patrimoniaux ; il permet d'en comprendre l'environnement juridique, administratif et documentaire. Un document indispensable pour les professionnels peu formés dans le domaine, confrontés pour la première fois à une collection patrimoniale, ou qui s'y destinent, et désireux d'acquérir les rudiments nécessaires pour la gérer
Extension de la méthode de relaxation à un ensemble d'images multi-sources
Le traitement global de différentes images de la même scène obtenues par des capteurs différents demande une approche particulière. En effet, l'exploitation optimale de toutes les informations nécessite un traitement simultané sur l'ensemble des images. Nous proposons ici une méthode de relaxation multi-images, extension de la méthode de relaxation, pour segmenter un ensemble de N images issues de la même scène, ces images ayant la particularité d'être complémentaires, c'est à dire superposables comme un puzzle. L'analyse par composantes spectrales d'un objet en microscopie électronique à balayage fournit des images de ce type. La méthode de relaxation multi-images est tout d'abord évaluée sur des images synthétiques, puis appliquée à des coupes pétrographiques permettant de déterminer l'état des pierres des monuments. Les résultats montrent que la prise en compte de l'information inter-images permet de réduire sensiblement le taux d'erreur de classification
Partage de ressources dans l'implantation de Rijndael basé sur la décomposition de la fonction InvMixColumn
Dans cette publication nous présentons une nouvelle approche d'implantation de fonctions MixColumn et InvMixColumn qui constituent la base de l'algorithme de chiffrement Rijndael, le nouveau standard AES (Advanced Encryption Standard). Nous présentons tout d'abord une nouvelle méthode et la nouvelle approche de catégorisation de la décomposition de la fonction InvMixColumn. Ensuite, nous proposons six architectures basées sur la décomposition d'InvMixColumn permettant le partage de ressources matérielles aux multiples niveaux. Nous démontrons que la nouvelle architecture basée sur la décomposition série d'InvMixColumn avec partage de ressources au niveau d'octets est la solution la plus efficace au niveau de la surface utilisée
Traitement de trois images M.E.B. issues de la mĂŞme scene : une aide Ă l'expertise de monuments historiques
This paper describes a three complementary images processing method. These three scanning electron microscope images are taken from a petrographic slice of stone used to build historical monuments. The goal is to separate two classes of particles (calcareous and siliceous) in the stone to improve image interpretation. A specific process is developed: a first threshold on the good quality image allows the separation between particles and porosity. The complementary of the three images gives the other thresholds. Primary results on components percentages and geometrical shape are presented. They allow a better knowledge of the analysed stone.Cet article décrit une méthode de traitement de trois images, issues de la même scène, obtenues à partir d'un microscope électronique à balayage (M.E.B.). Ces trois images sont complémentaires comme l'est un puzzle. L'échantillon analysé est une coupe pétrographique d'une pierre utilisée pour la construction de monuments historiques. Le but de l'étude est d'extraire deux classes de particules (calcaire et siliceuse) et de visualiser la porosité de la pierre afin de réaliser une aide à l'expertise. Une stratégie adaptée à la qualité des images est mise en place. Un premier seuil sur l'image de bonne qualité est déterminé et permet de séparer la porosité des constituants. Les deux autres seuils sont obtenus en utilisant la complémentarité des trois images. La segmentation ainsi obtenue permet de calculer le pourcentage des composants et d'analyser l'aspect géométrique des particules ; l'interprétation de ces premiers résultats permet de mieux apprécier l'état de la pierre
Rapport de mission en Colombie et au Mexique du 10/01/91 au 29/01/91. Etude des procédés post-récolte en arabicaculture
But de la mission : étude en Colombie et au Mexique des innovations en matériels et en technologie en particulier pour le dépulpage, le lavage et le gradage, susceptibles d'être adaptées aux conditions du Burundi. Présentation de la Colombie (2ème producteur mondial, 780 000 t pour la campagne 1989/90) et du Mexique (4ème producteur mondial, 309 200 t en 1989/90); organisation de leur filière café et de la technologie du café par voie humide (visites de plantations, de centres de traitement ou de recherche). Etude des réalisations concernant l'utilisation des déchets produits par les stations (pulpes) et le recyclage des eaux de lavage afin d'éviter la pollution importante dans les zones de grande production. Les principales utilisations des pulpes sont le compostage, l'élevage de lombrics, la culture de champignons comestibles (pleurotes). Au Mexique il existe actuellement deux installations de traitement des eaux qui pratiquent, l'une le lagunage aérobie (INMECAFE) et l'autre la digestion anaérobie (La Bola de Oro). En Colombie la station pilote de traitement des eaux usées est au CENICAFE. Actuellement la Colombie s'oriente vers la démucilagination mécanique et le dépulpage à se
One Day in Twitter: Topic Detection Via Joint Complexity
International audienceIn this paper we introduce a novel method to perform topic detection in Twitter based on the recent and novel technique of Joint Complexity. Instead of relying on words as most other existing methods which use bag-of-words or n-gram techniques, Joint Complexity relies on String Complexity which is defined as the cardinality of a set of all distinct factors, subsequences of characters, of a given string. Each short sequence of text is decomposed in linear time into a memory efficient structure called Suffix Tree and by overlapping two trees, in linear or sublinear average time, we obtain the Joint Complexity defined as the cardinality of factors that are common in both trees. The method has been extensively tested for Markov sources of any order for a finite alphabet and gave good approximation for text generation and language discrimination. One key take-away from this approach is that it is language-agnostic since we can detect similarities between two texts in any loosely character-based language. Therefore, there is no need to build any specific dictionary or stemming method. The proposed method can also be used to capture a change of topic within a conversation, as well as the style of a specific writer in a text. In this paper we exploit a dataset collected by using the Twitter streaming API for one full day, and we extract a significant number of topics for every timeslot
- …