12 research outputs found

    Creating a strong statistical machine translation system by combining different decoders

    Get PDF
    Machine translation is a very important field in Natural Language Processing. The need for machine translation arises due to the increasing amount of data available online. Most of our data now is digital and this is expected to increase over time. Since human manual translation takes a lot of time and effort, machine translation is needed to cover all of the languages available. A lot of research has been done to make machine translation faster and more reliable between different language pairs. Machine translation is now being coupled with deep learning and neural networks. New topics in machine translation are being studied and tested like applying neural machine translation as a replacement to the classical statistical machine translation. In this thesis, we also study the effect of data-preprocessing and decoder type on translation output. We then demonstrate two ways to enhance translation from English to Arabic. The first approach uses a two-decoder system; the first decoder translates from English to Arabic and the second is a post-processing decoder that retranslates the first Arabic output to Arabic again to fix some of the translation errors. We then study the results of different kinds of decoders and their contributions to the test set. The results of this study lead to the second approach which combines different decoders to create a stronger one. The second approach uses a classifier to categorize the English sentences based on their structure. The output of the classifier is the decoder that is suited best to translate the English sentence. Both approaches increased the BLEU score albeit with different ranges. The classifier showed an increase of ~0.1 BLEU points while the post-processing decoder showed an increase of between ~0.3~11 BLEU points on two different test sets. Eventually we compare our results to Google translate to know how well we are doing in comparison to a well-known translator. Our best translation machine system scored 5 absolute points compared to Google translate in ISI corpus test set and we were 9 absolute points lower in the case of the UN corpus test set

    Consensus ou fusion de segmentation pour quelques applications de détection ou de classification en imagerie

    Full text link
    Récemment, des vraies mesures de distances, au sens d’un certain critère (et possédant de bonnes propriétés asymptotiques) ont été introduites entre des résultats de partitionnement (clustering) de donnés, quelquefois indexées spatialement comme le sont les images segmentées. À partir de ces métriques, le principe de segmentation moyenne (ou consensus) a été proposée en traitement d’images, comme étant la solution d’un problème d’optimisation et une façon simple et efficace d’améliorer le résultat final de segmentation ou de classification obtenues en moyennant (ou fusionnant) différentes segmentations de la même scène estimée grossièrement à partir de plusieurs algorithmes de segmentation simples (ou identiques mais utilisant différents paramètres internes). Ce principe qui peut se concevoir comme un débruitage de données d’abstraction élevée, s’est avéré récemment une alternative efficace et très parallélisable, comparativement aux méthodes utilisant des modèles de segmentation toujours plus complexes et plus coûteux en temps de calcul. Le principe de distance entre segmentations et de moyennage ou fusion de segmentations peut être exploité, directement ou facilement adapté, par tous les algorithmes ou les méthodes utilisées en imagerie numérique où les données peuvent en fait se substituer à des images segmentées. Cette thèse a pour but de démontrer cette assertion et de présenter différentes applications originales dans des domaines comme la visualisation et l’indexation dans les grandes bases d’images au sens du contenu segmenté de chaque image, et non plus au sens habituel de la couleur et de la texture, le traitement d’images pour améliorer sensiblement et facilement la performance des méthodes de détection du mouvement dans une séquence d’images ou finalement en analyse et classification d’images médicales avec une application permettant la détection automatique et la quantification de la maladie d’Alzheimer à partir d’images par résonance magnétique du cerveau.Recently, some true metrics in a criterion sense (with good asymptotic properties) were introduced between data partitions (or clusterings) even for data spatially ordered such as image segmentations. From these metrics, the notion of average clustering (or consensus segmentation) was then proposed in image processing as the solution of an optimization problem and a simple and effective way to improve the final result of segmentation or classification obtained by averaging (or fusing) different segmentations of the same scene which are roughly estimated from several simple segmentation models (or obtained with the same model but with different internal parameters). This principle, which can be conceived as a denoising of high abstraction data, has recently proved to be an effective and very parallelizable alternative, compared to methods using ever more complex and time-consuming segmentation models. The principle of distance between segmentations, and averaging of segmentations, in a criterion sense, can be exploited, directly or easily adapted, by all the algorithms or methods used in digital imaging where data can in fact be substituted to segmented images. This thesis proposal aims at demonstrating this assertion and to present different original applications in various fields in digital imagery such as the visualization and the indexation in the image databases, in the sense of the segmented contents of each image, and no longer in the common color and texture sense, or in image processing in order to sensibly and easily improve the detection of movement in the image sequence or finally in analysis and classification in medical imaging with an application allowing the automatic detection and quantification of Alzheimer’s disease

    Modélisation, Analyse, Représentation des Images Numériques Approche combinatoire de l’imagerie

    Get PDF
    My research are focused on combinatorial image processing. My approach is to propose mathematical models to abstract physical reality. This abstraction allows to define new techniques leading to original solutions for some problems. In this context, I propose a topological model of image, regions segmentation based on statistical criteria and combinatorial algorithms, and a bound representation based on combinatorial maps.Mes travaux de recherche sont basés sur une approche combinatoire et discrète de l’imagerie. Ma démarche est de proposer des définitions de modèles mathématiques fournissant une abstraction de la réalité physique, cette abstraction permettant de définir des nouvelles techniques amenant des solutions originales à des problèmes posés. Dans ce cadre, je me suis plus particulièrement intéressé à la définition d’un modèle formel d’image, à la segmentation en régions par des techniques algorithmiques et statistiques, et à la structuration du résultat à l’aide d’une représentation combinatoire

    Étude de contraintes spatiales bas niveau appliquées à la vision par ordinateur

    Full text link
    Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal

    Contributions à la segmentation d'image : phase locale et modèles statistiques

    Get PDF
    Ce document presente une synthèse de mes travaux apres these, principalement sur la problematique de la segmentation d’images

    Détection automatique de cibles dans des fonds complexes. Pour des images ou séquences d'images

    Get PDF
    During this PHD, we developped an detection algorithm. Our principal objective was to detect small targets in a complex background like clouds for example.For this, we used the spatial covariate structure of the real images.First, we developped a collection of models for this covariate structure. Then, we selected a special model in the previous collection. Once the model selected, we applied the likelihood ratio test to detect the potential targets.We finally studied the performances of our algorithm by testing it on simulated and real images.L'objectif principal de ces travaux de thèse a été la mise en place d'un algorithme de détection de cibles sous-résolues pour des images infra-rouges de ciel.Pour cela, nous avons d'abord cherché à modéliser les images réelles dont nous disposions. Après une étude de ces images, nous avons proposé plusieurs modèles gaussiens prenant en compte la covariance spatiale. Dans ces modèles, nous avons supposé que les images pouvaient être segmentées en zones stationnaires. Dans chaque zone, nous avons supposé une structure forte sur la matrice de covariance (comme les modèles auto-régressifs en deux dimensions par exemple).Il a ensuite fallu choisir entre ces modèles. Pour cela, nous avons appliqué une méthode de sélection de modèles par critère de vraisemblance pénalisée introduite par Birgé et Massart. Nous avons obtenu comme résultats théoriques une inégalité oracle qui a permis de démontrer les propriétés statistiques du modèle choisi. Une fois le modèle sélectionné, nous avons pu bâtir un test de détection. Nous nous sommes inspirés de la théorie de Neyman-Pearson et du test du rapport de vraisemblance généralisé. Notre contrainte principale a été le respect du taux de fausses alarmes par image. Pour le garantir, nous avons appris le comportement du test sur les images réelles pour en déduire le seuil à appliquer.~~Nous avons ensuite remarqué que le comportement de ce test variait fortement selon la texture de l'image : image de ciel bleu uniforme, image de nuage très texturé, etc. Après avoir caractérisé les différentes textures rencontrées avec les coefficients de scattering de Stéphane Mallat, nous avons décidé de classer ces textures. Le seuil appliqué lors de la détection a alors été adapté à la texture locale du fond. Nous avons finalement mesuré les performances de cet algorithme sur des images réelles et nous les avons comparées à d'autres méthodes de détection.Mots-clés: Détection, Covariance spatiale, Sélection de modèles, Apprentissage, Classification non supervisée

    Reconstruction 3D à partir de paires stéréoscopiques en conditions dégradées

    Get PDF
    Stereo reconstruction serves many outdoor applications, and thus sometimes faces foggy weather. The quality of the reconstruction by state of the art algorithms is then degraded as contrast is reduced with the distance because of scattering. However, as shown by defogging algorithms from a single image, fog provides an extra depth cue in the grey level of far away objects. Our idea is thus to take advantage of both stereo and atmospheric veil depth cues to achieve better stereo reconstructions in foggy weather. To our knowledge, this subject has never been investigated earlier by the computer vision community. We thus propose a Markov Random Field model of the stereo reconstruction and defogging problem which can be optimized iteratively using the ±-expansion algorithm. Outputs are a dense disparity map and an image where contrast is restored. The proposed model is evaluated on synthetic images. This evaluation shows that the proposed method achieves very good results on both stereo reconstruction and defogging compared to standard stereo reconstruction and single image defogging.Nous nous sommes intéressés au problème de la reconstruction 3D à partir de paires stéréoscopiques en présence de brouillard. De nombreux algorithmes existent pour effectuer la reconstruction stéréoscopique, mais peu sont adaptés aux conditions dégradées et en particulier, au brouillard. De ce fait, ils produisent des résultats incorrects à partir d'une certaine distance. L'une des principales causes de cette limitation est la diminution du contraste avec la distance due au brouillard. La restauration du contraste dans une image en présence de brouillard connaît un intérêt croissant en traitement d'image ces dernières années, en particulier pour des applications destinées aux aides à la conduite. De nombreux algorithmes ont été proposés et permettent d'apporter des solutions approchées à ce problème. Un grand nombre d'entre eux sont fondés sur la loi de Koschmieder qui permet de faire le lien entre l'intensité de l'image, l'intensité originale de la scène et la profondeur. L'un des problèmes de la restauration du contraste monoculaire est l'ambiguïté entre l'épaisseur du voile atmosphérique liée à la profondeur et la couleur plus ou moins claire de la scène, qui fait que ce problème est mal posé. Des contraintes arbitraires doivent donc être ajoutées et cela fait que la solution est approchée. Souvent, la profondeur estimée est très différente de la profondeur exacte de la scène, en particulier à courte distance où le voile est faible.. A partir de ce constat, la complémentarité de la reconstruction stéréo et de la restauration apparaît et un algorithme de reconstruction et de restauration simultanées a été proposé pour la première fois. Pour cela, nous proposons une approche probabiliste fondée sur les champs de Markov. Le modèle proposé permet, grâce à l'indice de profondeur de la stéréovision, de restaurer le contraste avec précision à courte distance. De plus, les images restaurées facilitent la reconstruction à longue distance. Une évaluation qualitative de l'algorithme proposé montre une amélioration significative de la qualité de la carte de profondeur générée par rapport aux algorithmes classiques ne prenant pas en compte le brouillard. L'évaluation montre aussi que les restaurations obtenues sont de qualité proche de celles de l'état de l'art

    Dictionary of Invertebrate Zoology

    Get PDF
    An exhaustive dictionary of over 13,000 terms relating to invertebrate zoology, including etymologies, word derivations and taxonomic classification. Entries cover parasitology, nematology, marine invertebrates, insects, and anatomy, biology, and reproductive processes for the following phyla: Acanthocephala Annelida Arthropoda Brachiopoda Bryozoa Chaetognatha Cnidaria Ctenophora Echinodermata Echiura Entoprocta Gastrotricha Gnathostomulida Kinorhyncha Loricifera Mesozoa Mollusca Nemata Nematomorpha Nemertea Onychophora Pentastoma Phoronida Placozoa Platyhelminthes Pogonophora Porifera Priapula Rotifera Sipuncula Tardigrada.https://digitalcommons.unl.edu/zeabook/1061/thumbnail.jp
    corecore