275 research outputs found

    Environnement logiciel d'exploitation des images satellitaires pour faciliter la gestion des catastrophes majeures

    Get PDF
    Cette étude qui porte sur l’évaluation de plusieurs systèmes d’information géographique ainsi que de différents logiciels de traitement d’images vise à déterminer le type d’environnement logiciel nécessaire pour faciliter la manipulation et le traitement des images satellitaires de très haute résolution. Ceci est fait dans le but d’obtenir une plateforme de développement d’algorithmes utiles aux photo-interprètes. Pour ce faire, une étude des différents satellites captant des images de la Terre est d’abord effectuée. Ensuite, les algorithmes nécessaires au traitement de ces images sont présentés. La Charte régissant la gestion des catastrophes majeures est aussi décrite. Les logiciels à évaluer sont présentés et les critères d’évaluation sont décrits. Les résultats de l’évaluation sont ensuite donnés et un choix de logiciel est présenté. Le logiciel sélectionné est décrit plus en détail et des améliorations sont apportées. Finalement, un exemple typique de problème de télédétection relié aux catastrophes majeures est donné en utilisant le logiciel choisi pour le résoudre. Le tout s’inscrit dans un projet plus grand visant à simplifier la tâche du photo-interprète qui prépare les cartes des zones touchées par des catastrophes naturelles de grande envergure

    Texture classification of fabric defects using machine learning

    Get PDF
    In this paper, a novel algorithm for automatic fabric defect classification was proposed, based on the combination of a texture analysis method and a support vector machine SVM. Three texture methods were used and compared, GLCM, LBP, and LPQ. They were combined with SVM’s classifier. The system has been tested using TILDA database. A comparative study of the performance and the running time of the three methods was carried out. The obtained results are interesting and show that LBP is the best method for recognition and classification and it proves that the SVM is a suitable classifier for such problems. We demonstrate that some defects are easier to classify than others

    Les logiciels et l'enseignement de la statistique dans les départements " Statistique et Informatique Décisionnelle " (STID) des IUT

    Get PDF
    International audienceCet article fait le point sur les logiciels de statistique enseignés et utilisés dans les départements " STatistique et Informatique Décisionnelle " (STID) des Instituts Universitaires de Technologie (IUT). Quelles sont les raisons qui ont poussé les départements à choisir tel logiciel plutôt qu'un autre ? Pourquoi tel logiciel est-il apparu incontournable ? Quelle politique des départements visà- vis des logiciels gratuits ? Quelles sont les qualités et défauts des logiciels choisis ? Quelles pratiques pédagogiques pour l'enseignement de ces logiciels ? Quel ressenti des étudiants et des enseignants ? Quelle relation avec les éditeurs ? Quelle évolution à court terme ? Pour essayer de répondre à ces questions, une enquête a été conduite auprès des enseignants des départements, avec un responsable par logiciel (les personnes citées sous le titre de l'article). Dans chaque département, une ou plusieurs personnes se sont chargées de répondre pour leur département aux divers questionnaires (cf. la liste des remerciements). Le questionnaire de base a été proposé par Sylvie Viguier-Pla. La coordination de l'enquête, la synthèse des contributions et la rédaction finale ont été réalisées par Jean-François Petiot et Gérard Grégoire

    Apprentissage profond multimodal appliqué à l'usinage

    Get PDF
    Les techniques axées sur les données ont offert à la technologie de fabrication intelligente des opportunités sans précédent pour assurer la transition vers une productivité basée sur l'industrie 4.0. L'apprentissage automatique et l'apprentissage profond occupent une place cruciale dans le développement de systèmes intelligents pour l'analyse descriptive, diagnostique et prédictive des machines-outils et la surveillance d’état des systèmes de fabrication industrielle. De nombreuses techniques d'apprentissage profond ont été testées sur les problèmes de surveillance d’état des machines-outils, de la détection du broutement, du diagnostic de défauts, de la sélection optimale des paramètres de coupe, etc. Une étude bibliométrique est proposée pour à retracer les techniques de détection du broutement, depuis les méthodes de traitement du signal temps-fréquence, la décomposition jusqu'à la combinaison avec des modèles d'apprentissage automatique ou d'apprentissage profond. Une analyse cartographique a été réalisée afin d’identifier les limites de ces différentes techniques et de proposer des axes de recherche pour détecter le broutement dans les processus d'usinage. Les données ont été collectées à partir du web of science (WoS 2022) en exploitant des requêtes particulières sur la détection du broutement. La plupart des documents recueillis présentent la détection du broutement à l'aide de techniques de transformation ou de décomposition. Ce travail a permis de détecter les articles les plus significatifs, les auteurs les plus cités, la collaboration entre auteurs, les pays, continents et revues les plus productifs, le partenariat entre pays, les mots-clés des auteurs et les tendances de la recherche sur la détection du broutement. Cette thèse à pour objective de proposer dans un premier temps, une méthode de prédiction du choix des paramètres de coupe en exploitant l’apprentissage profond multimodal. L'apprentissage profond multimodal a été utilisé pour associer un choix de conditions de coupe (outil, vitesse de coupe, profondeur de coupe et vitesse d'avance par dents) avec un état de surface, en considérant la rugosité arithmétique moyenne (Ra) et une photo de la pièce. Nous avons construit un modèle de fusion multimodale tardive avec deux réseaux de neurones profonds, un réseau de neurones convolutif (CNN) pour traiter les données images et un réseau de neurones récurrent avec des couches de mémoire à long terme (LSTM) pour les données numériques. Cette méthode permet d’intégrer les informations provenant de deux modalités (fusion multimodale) afin à terme d'assurer la qualité de surface dans les processus d'usinage. Les difficultés rencontrées lors de l’élaboration de cette méthode nous ont orientés vers une approche unimodale pour détecter le broutement d’usinage. Par la suite nous présentons une approche basée sur des compétences mécaniques pour d’abord identifier les traitements optimaux des signaux puis l'apprentissage profond (apprentissage par transfert) pour détecter automatiquement le phénomène de broutement en usinage. Ce travail a mis l’accent sur l’utilisation de données collectées dans les conditions industrielles contrairement à la majorité des travaux basés sur les données qui utilisent les données laboratoire. Cette méthode arrive à avoir de bonnes performances malgré le fait qu’elle ne donne aucune indication au réseau de neurones sur l'amplitude du signal, la vitesse de rotation

    Contextualisation d'un détecteur de piétons (application à la surveillance d'espaces publics)

    Get PDF
    La démocratisation de la vidéosurveillance intelligente nécessite le développement d outils automatiques et temps réel d analyse vidéo. Parmi ceux-ci, la détection de piétons joue un rôle majeur car de nombreux systèmes reposent sur cette technologie. Les approches classiques de détection de piétons utilisent la reconnaissance de formes et l apprentissage statistique. Elles souffrent donc d une dégradation des performances quand l apparence des piétons ou des éléments de la scène est trop différente de celle étudiée lors de l apprentissage. Pour y remédier, une solution appelée contextualisation du détecteur est étudiée lorsque la caméra est fixe. L idée est d enrichir le système à l aide d informations provenant de la scène afin de l adapter aux situations qu il risque de fréquemment rencontrer. Ce travail a été réalisé en deux temps. Tout d abord, l architecture d un détecteur et les différents outils utiles à sa construction sont présentés dans un état de l art. Puis la problématique de la contextualisation est abordée au travers de diverses expériences validant ou non les pistes d amélioration envisagées. L objectif est d identifier toutes les briques du système pouvant bénéficier de cet apport afin de contextualiser complètement le détecteur. Pour faciliter l exploitation d un tel système, la contextualisation a été entièrement automatisée et s appuie sur des algorithmes d apprentissage semi-supervisé. Une première phase consiste à collecter le maximum d informations sur la scène. Différents oracles sont proposés afin d extraire l apparence des piétons et des éléments du fond pour former une base d apprentissage dite contextualisée. La géométrie de la scène, influant sur la taille et l orientation des piétons, peut ensuite être analysée pour définir des régions, dans lesquelles les piétons, tout comme le fond, restent visuellement proches. Dans la deuxième phase, toutes ces connaissances sont intégrées dans le détecteur. Pour chaque région, un classifieur est construit à l aide de la base contextualisée et fonctionne indépendamment des autres. Ainsi chaque classifieur est entraîné avec des données ayant la même apparence que les piétons qu il devra détecter. Cela simplifie le problème de l apprentissage et augmente significativement les performances du système.With the rise of videosurveillance systems comes a logical need for automatic and real-time processes to analyze the huge amount of generated data. Among these tools, pedestrian detection algorithms are essential, because in videosurveillance locating people is often the first step leading to more complex behavioral analyses. Classical pedestrian detection approaches are based on machine learning and pattern recognition algorithms. Thus they generally underperform when the pedestrians appearance observed by a camera tends to differ too much from the one in the generic training dataset. This thesis studies the concept of the contextualization of such a detector. This consists in introducing scene information into a generic pedestrian detector. The main objective is to adapt it to the most frequent situations and so to improve its overall performances. The key hypothesis made here is that the camera is static, which is common in videosurveillance scenarios.This work is split into two parts. First a state of the art introduces the architecture of a pedestrian detector and the different algorithms involved in its building. Then the problem of the contextualization is tackled and a series of experiments validates or not the explored leads. The goal is to identify every part of the detector which can benefit from the approach in order to fully contextualize it. To make the contextualization process easier, our method is completely automatic and is based on semi-supervised learning methods. First of all, data coming from the scene are gathered. We propose different oracles to detect some pedestrians in order to catch their appearance and to form a contextualized training dataset. Then, we analyze the scene geometry, which influences the size and the orientation of the pedestrians and we divide the scene into different regions. In each region, pedestrians as well as background elements share a similar appearance.In the second step, all this information is used to build the final detector which is composed of several classifiers, one by region. Each classifier independently scans its dedicated piece of image. Thus, it is only trained with a region-specific contextualized dataset, containing less appearance variability than a global one. Consequently, the training stage is easier and the overall detection results on the scene are improved.CLERMONT FD-Bib.électronique (631139902) / SudocSudocFranceF

    Une approche bio-informatique intégrée pour l'identification des cibles ARN de l'endoribonucléase III chez la levure

    Get PDF
    Les endoribonucléases III sont conservées chez tous les eucaryotes. Ils jouent un rôle important dans le cycle de vie des acides ribonucléiques (ARN) que ce soit au niveau de leur maturation, leur régulation ou leur dégradation. Cependant, seul un petit nombre d'ARN ciblés par les ribonucléases (RNases) III sont connus et les motifs reconnus par l'enzyme sont encore mal caractérisés. Actuellement, la découverte de nouvelles cibles repose principalement sur la validation in vitro de gènes individuels. Il est important d'avoir une vue d'ensemble des cibles des RNases III pour comprendre le rôle de la dégradation spécifique des ARN dans le métabolisme cellulaire. Ainsi, cette thèse a comme objectif de développer des approches haut débit pour permettre une identification plus rapide des cibles tout en minimisant l'utilisation des ressources expérimentales. Elle présente l'utilisation combinée d'approches bio-informatiques, d'étude génétique de l'expression et de traitement in vitro dans le but d'avoir un portrait global des cibles de l'endoribonucléase III. Elle a aussi comme but d'identifier les motifs d'ARN non codants qui guident la reconnaissance par l'endoribonucléase III. Les principaux accomplissements de cette recherche sont : le développement de nouveaux algorithmes de prédiction des cibles de la RNase III, la détection de deux nouvelles classes de transcrits dont l'expression est dépendante de la RNase III, l'identification de quelques centaines de nouvelles cibles de la RNase III, la production d'un catalogue plus complet des motifs coupés par la RNase III et l'identification de nouvelles catégories de motifs coupées par la RNase III. Le tout procure un portrait global de l'impact de la RNase III sur le transcriptome et le cycle de vie des ARN. De plus, ce travail montre comment une approche intégrée incluant la recherche in silico, in vivo et in vitro permet de mieux comprendre le rôle d'un enzyme dans la cellule et comment chaque approche peut pallier les déficiences des autres approches et fournir globalement des résultats plus complets

    Systèmes de compréhension et de traduction de la parole (vers une approche unifiée dans le cadre de la portabilité multilingue des systèmes de dialogue)

    Get PDF
    La généralisation de l usage des systèmes de dialogue homme-machine accroît la nécessité du développement rapide des différents composants de ces systèmes. Les systèmes de dialogue peuvent être conçus pour différents domaines d application et dans des langues différentes. La nécessité d une production rapide pour de nouvelles langues reste un problème ouvert et crucial auquel il est nécessaire d apporter des solutions efficaces.Nos travaux s intéressent particulièrement au module de compréhension de la parole et proposent des approches pour la portabilité rapide peu coûteuse de ce module.Les méthodes statistiques ont montré de bonnes performances pour concevoir les modules de compréhension de la parole pour l étiquetage sémantique de tours de dialogue.Cependant ces méthodes nécessitent de larges corpus pour être apprises. La collecte de ces corpus est aussi coûteuse en temps et en expertise humaine.Dans cette thèse, nous proposons plusieurs approches pour porter un système de compréhension d une langue vers une autre en utilisant les techniques de la traduction automatique. Les premiers travaux consistent à appliquer la traduction automatique à plusieurs niveaux du processus de portabilité du système de compréhension afin de réduire le coût lié à production de nouvelles données d apprentissage. Les résultats expérimentaux montrent que l utilisation de la traduction automatique permet d obtenir des systèmes performant avec un minimum de contribution humaine.Cette thèse traite donc à la fois de la traduction automatique et de la compréhension de la parole. Nous avons effectué une comparaison approfondie entre les méthodes utilisées pour chacune des tâches et nous avons proposé un décodage conjoint basé sur une méthode discriminante qui à la fois traduit une phrase et lui attribue ses étiquettes sémantiques. Ce décodage est obtenu par une approche à base de graphe qui permet de composer un graphe de traduction avec un graphe de compréhension. Cette représentation peut être généralisée pour permettre des transmissions d informations riches entre les composants du système de dialogueThe generalisation of human-machine dialogue system increases the need for a rapid development of the various components of these systems. Dialogue systems can be designed for different applications and in different languages. The need for a fast production of systems for new languages is still an open and crucial issue which requires effective solutions. Our work is particularly interested in speech understanding module and propose approaches for language portability of this module. The statistical methods showed good performance to design modules for speech understanding. However, these methods require large corpora to be trained. The collection of these corpora is expensive in time and human expertise. In this thesis, we propose several approaches to port an understanding system from one language to another using machine translation techniques. The experimental results show that the use of machine translation allows to produce efficient systems with minimal human effort. This thesis addresses both machine translation and speech understanding domain. We conducted a comparison between the methods used for each task and we have proposed a joint decoding between translation and understanding based on a discriminant method. This decoding is achieved by a graph-based approach which allows to compose a translation graph with an understanding graph. This representation can be generalized to allow a rich transmission of information between the components of the dialogue systemAVIGNON-Bib. numérique (840079901) / SudocSudocFranceF
    corecore