1,099 research outputs found

    Estimation d'incertitude de segmentation cardiaque par apprentissage profond

    Get PDF
    L'imagerie cardiaque est l'une des meilleures méthodes pour analyser la fonction cardiaque et diagnostiquer de nombreuses pathologies. Afin de visualiser le coeur, l'imagerie par résonance magnétique, la tomodensitométrie et l'échocardiographie sont, entres autres utilisées. L'analyse de la fonction cardiaque repose en grande partie sur l'extraction de métriques cliniques telles que le volume et le débit cardiaque. Cependant, l'extraction de ces métriques est une tâche longue et fastidieuse qui requiert la segmentation (ou délimitation) des parois cardiaques. En raison de la lourdeur associée à la tâche de segmentation manuelle et des avancées technologiques récentes, un intérêt accru envers les techniques de segmentation automatique est s'est imposé dans les dernières années. En effet, les progrès de l'intelligence artificielle (IA), propulsés par la disponibilité de grandes bases de données et des nouvelles technologies de calculs, offrent une réelle possibilité de développer des algorithmes de segmentation à la fois automatiques, rapides et fiables. Des algorithmes d'IA proposés dans les dernières années, les réseaux de neurones sont les plus prometteurs. Il a notamment été démontré que les réseaux de neurones profonds atteignent des performances similaires à celle des experts humains sur des bases de données d'IRM et d'ultrason cardiaque. Cependant, malgré d'excellentes performances en moyenne, les réseaux de neurones sont propices aux erreurs lorsqu'ils sont utilisés sur des données qui diffèrent de celles utilisées en entrainement. Les erreurs peuvent parfois être aberrantes ce qui mine la confiance des cliniciens utilisant ces outils. Pour cette raison, des techniques d'estimation d'incertitudes sont primordiales pour la mise en service clinique de ces techniques. Plusieurs méthodes sont basées sur l'interprétation probabiliste des réseaux de neurones. Cependant, ces méthodes n'offrent aucune garantie quant à la détection des régions incertaines des segmentations. Afin de régler ces problèmes, ce document présentera une méthode basée sur l'apprentissage de formes cardiaques dans un espace latent. Cette méthode ne tient pas compte de la formulation probabiliste des réseaux de neurones, mais se base plutôt sur sur la distribution implicite de formes cardiaques présentent dans les bases de données d'entrainement. Ceci permet d'offrir une certaine garantie de détection d'erreurs si la prédiction s'éloigne trop des données d'entrainement. Cette méthode a démontré des performances supérieures aux méthodes issues de l'état de l'art sur des données ultrasonores cardiaque et de rayons X des poumons

    Apprentissage profond multimodal appliqué à l'usinage

    Get PDF
    Les techniques axées sur les données ont offert à la technologie de fabrication intelligente des opportunités sans précédent pour assurer la transition vers une productivité basée sur l'industrie 4.0. L'apprentissage automatique et l'apprentissage profond occupent une place cruciale dans le développement de systèmes intelligents pour l'analyse descriptive, diagnostique et prédictive des machines-outils et la surveillance d’état des systèmes de fabrication industrielle. De nombreuses techniques d'apprentissage profond ont été testées sur les problèmes de surveillance d’état des machines-outils, de la détection du broutement, du diagnostic de défauts, de la sélection optimale des paramètres de coupe, etc. Une étude bibliométrique est proposée pour à retracer les techniques de détection du broutement, depuis les méthodes de traitement du signal temps-fréquence, la décomposition jusqu'à la combinaison avec des modèles d'apprentissage automatique ou d'apprentissage profond. Une analyse cartographique a été réalisée afin d’identifier les limites de ces différentes techniques et de proposer des axes de recherche pour détecter le broutement dans les processus d'usinage. Les données ont été collectées à partir du web of science (WoS 2022) en exploitant des requêtes particulières sur la détection du broutement. La plupart des documents recueillis présentent la détection du broutement à l'aide de techniques de transformation ou de décomposition. Ce travail a permis de détecter les articles les plus significatifs, les auteurs les plus cités, la collaboration entre auteurs, les pays, continents et revues les plus productifs, le partenariat entre pays, les mots-clés des auteurs et les tendances de la recherche sur la détection du broutement. Cette thèse à pour objective de proposer dans un premier temps, une méthode de prédiction du choix des paramètres de coupe en exploitant l’apprentissage profond multimodal. L'apprentissage profond multimodal a été utilisé pour associer un choix de conditions de coupe (outil, vitesse de coupe, profondeur de coupe et vitesse d'avance par dents) avec un état de surface, en considérant la rugosité arithmétique moyenne (Ra) et une photo de la pièce. Nous avons construit un modèle de fusion multimodale tardive avec deux réseaux de neurones profonds, un réseau de neurones convolutif (CNN) pour traiter les données images et un réseau de neurones récurrent avec des couches de mémoire à long terme (LSTM) pour les données numériques. Cette méthode permet d’intégrer les informations provenant de deux modalités (fusion multimodale) afin à terme d'assurer la qualité de surface dans les processus d'usinage. Les difficultés rencontrées lors de l’élaboration de cette méthode nous ont orientés vers une approche unimodale pour détecter le broutement d’usinage. Par la suite nous présentons une approche basée sur des compétences mécaniques pour d’abord identifier les traitements optimaux des signaux puis l'apprentissage profond (apprentissage par transfert) pour détecter automatiquement le phénomène de broutement en usinage. Ce travail a mis l’accent sur l’utilisation de données collectées dans les conditions industrielles contrairement à la majorité des travaux basés sur les données qui utilisent les données laboratoire. Cette méthode arrive à avoir de bonnes performances malgré le fait qu’elle ne donne aucune indication au réseau de neurones sur l'amplitude du signal, la vitesse de rotation

    Apprentissage profond pour vision stéréoscopique multispectrale

    Get PDF
    RÉSUMÉ: Ce mémoire présente des méthodes pour estimer les disparités des humains, soit le déplacement entre les pixels des silhouettes humaines, entre des images visibles (RGB) et infrarouges (LWIR). Le but est que, pour chaque pixel dans l’image de gauche, on soit capable de trouver le pixel correspondant dans l’image de droite. Ceci permet de mettre en correspondance les objets d’intérêts d’une scène et peut être utile dans des applications de vidéosurveillance ou de voitures autonomes. Différents facteurs rendent cette tâche plutôt difficile. En plus des difficultés reliées à la nature stéréo du problème, il y a aussi la difficulté de travailler avec deux spectres différents qui n’ont pas beaucoup d’information en commun. Ceci cause beaucoup de problèmes lorsqu’il est temps d’établir des correspondances entre les images. Les méthodes de la littérature se basent sur des descripteurs classiques, mais nous croyons qu’il est possible d’obtenir des méthodes plus performantes si on utilise des réseaux de neurones convolutifs.----------ABSTRACT:This thesis presents new methods to do disparity estimation for human subjects, defined as the distance between pixels on the human silhouettes, between images from the visible (RGB) and infrared domains (LWIR). The goal of disparity estimation is, for each pixel in the left image, to find the corresponding pixel in the right image. This allows the correspondence of objects of interest, which can be useful in applications such as video surveillance and autonomous vehicles. Many factors make this task difficult. It has difficulties related to the stereo aspect of the problem, as well as having to establish correspondences between images from different domains, which is hard since there is not much common information between those. Methods in the literature are based on handcrafted feature descriptors, but we believe that it is possible to obtain better methods if we use convolutional neural networks

    Développement d’un système intelligent de reconnaissance automatisée pour la caractérisation des états de surface de la chaussée en temps réel par une approche multicapteurs

    Get PDF
    Le rôle d’un service dédié à l’analyse de la météo routière est d’émettre des prévisions et des avertissements aux usagers quant à l’état de la chaussée, permettant ainsi d’anticiper les conditions de circulations dangereuses, notamment en période hivernale. Il est donc important de définir l’état de chaussée en tout temps. L’objectif de ce projet est donc de développer un système de détection multicapteurs automatisée pour la caractérisation en temps réel des états de surface de la chaussée (neige, glace, humide, sec). Ce mémoire se focalise donc sur le développement d’une méthode de fusion de données images et sons par apprentissage profond basée sur la théorie de Dempster-Shafer. Les mesures directes pour l’acquisition des données qui ont servi à l’entrainement du modèle de fusion ont été effectuées à l’aide de deux capteurs à faible coût disponibles dans le commerce. Le premier capteur est une caméra pour enregistrer des vidéos de la surface de la route. Le second capteur est un microphone pour enregistrer le bruit de l’interaction pneu-chaussée qui caractérise chaque état de surface. La finalité de ce système est de pouvoir fonctionner sur un nano-ordinateur pour l’acquisition, le traitement et la diffusion de l’information en temps réel afin d’avertir les services d’entretien routier ainsi que les usagers de la route. De façon précise, le système se présente comme suit :1) une architecture d’apprentissage profond classifiant chaque état de surface à partir des images issues de la vidéo sous forme de probabilités ; 2) une architecture d’apprentissage profond classifiant chaque état de surface à partir du son sous forme de probabilités ; 3) les probabilités issues de chaque architecture ont été ensuite introduites dans le modèle de fusion pour obtenir la décision finale. Afin que le système soit léger et moins coûteux, il a été développé à partir d’architectures alliant légèreté et précision à savoir Squeeznet pour les images et M5 pour le son. Lors de la validation, le système a démontré une bonne performance pour la détection des états surface avec notamment 87,9 % pour la glace noire et 97 % pour la neige fondante

    La reconnaissance d'intention par apprentissage profond Ă  l'aide de connaissances symboliques

    Get PDF
    Pouvoir inférer l'intention de personnes que l'on observe ou avec lesquelles on interagit, ou de personnages d'histoires qu’on lit ou l'on nous raconte est possiblement un des constituants les plus remarquables de l'intelligence humaine. Cette capacité cognitive, connue entre autres sous l'appellation reconnaissance d'intention, demeure pourtant un problème irrésolu en intelligence artificielle. Celle-ci profiterait grandement de cette habileté à travers de nombreuses applications, telles que des dialogueurs virtuels plus fluides, des véhicules autonomes qui anticipent mieux les mouvements des usagers de la route, et des maisons autonomes à l'écoute de leurs occupants. L'apprentissage profond a récemment fait des percées éminentes en vision de l'ordinateur et en traitement du langage naturel. Il existe pourtant très peu d'applications au problème de reconnaissance d'intention, hormis à certains problèmes reliés comme la reconnaissance d'actions et d'activités, qui n'impliquent pas de longues séquences d'interaction planifiées pour atteindre un but. Une grande partie de la recherche de ce côté utilise des méthodes symboliques, qui sont basées essentiellement sur des connaissances d'experts humains. Or, ces méthodes sont incapables de s'adapter lorsque ces connaissances sont erronées, ce qui est un des freins majeurs à leur application sur des domaines réels. Ce mémoire vise dans un premier temps à étudier le potentiel de l'apprentissage profond pour la reconnaissance d'intention de manière expérimentale en comparaison avec des méthodes basées sur les coûts qui font partie de l'état de l'art symbolique. Dans un deuxième temps, il présente une manière de permettre aux réseaux de neurones d'améliorer leur capacité de généralisation grâce à des caractéristiques générées par des planificateurs symboliques lui offrant une conception des futurs potentiels de l'agent observé. Cela sera fait par l'introduction de deux articles scientifiques, dont le premier a été publié à PAIR, un événement concomitant à AAAI reconnu pour ses recherches sur la reconnaissance de plan, d'activités et d'intention, et dont le deuxième vient d'être soumis à AAAI, une conférence renommée en intelligence artificielle

    Détection automatique de la présence de la reine d'abeilles sur un cadre de ruche

    Get PDF
    RÉSUMÉ: La présence de la reine au sein d'une colonie d'abeilles joue un rôle vital. Il est important de savoir si la reine est présente dans la colonie, mais aussi de pouvoir la localiser précisément. Cette tâche est ardue pour l'apiculteur et son efficacité dépend grandement de son acuité visuelle. L'objectif de ce mémoire est d'automatiser la détection de la reine en utilisant une image d'un cadre de ruche d'abeilles. Nous proposons et comparons deux modèles de classification qui pourront distinguer une image contenant une reine d'une image ne contenant pas de reine. La première méthode utilise une technique de classification classique : les machines à vecteurs de support. La deuxième méthode fait intervenir l'apprentissage profond :les réseaux de neurones à convolution. Nous avons obtenu des résultats prometteurs pour les deux méthodes, mais la méthode avec un réseau de neurones à convolution (90:12%) a offert de meilleurs résultats que la méthode classique (84:05%). Notre équipe prévoit de pour suivre les recherches et d'améliorer ces résultats. Nous voulons intégrer le meilleur modèle dans une application mobile qui permettra à l'apiculteur de prendre une photo d'un cadre et d'avoir la confirmation de la présence ou de l'absence de la reine

    Techniques d'analyse de contenu appliquées à l'imagerie spatiale

    Get PDF
    Depuis les années 1970, la télédétection a permis d’améliorer l’analyse de la surface de la Terre grâce aux images satellites produites sous format numérique. En comparaison avec les images aéroportées, les images satellites apportent plus d’information car elles ont une couverture spatiale plus importante et une période de revisite courte. L’essor de la télédétection a été accompagné de l’émergence des technologies de traitement qui ont permis aux utilisateurs de la communauté d’analyser les images satellites avec l’aide de chaînes de traitement de plus en plus automatiques. Depuis les années 1970, les différentes missions d’observation de la Terre ont permis d’accumuler une quantité d’information importante dans le temps. Ceci est dû notamment à l’amélioration du temps de revisite des satellites pour une même région, au raffinement de la résolution spatiale et à l’augmentation de la fauchée (couverture spatiale d’une acquisition). La télédétection, autrefois cantonnée à l’étude d’une seule image, s’est progressivement tournée et se tourne de plus en plus vers l’analyse de longues séries d’images multispectrales acquises à différentes dates. Le flux annuel d’images satellite est supposé atteindre plusieurs Péta octets prochainement. La disponibilité d’une si grande quantité de données représente un atout pour développer de chaines de traitement avancées. Les techniques d’apprentissage automatique beaucoup utilisées en télédétection se sont beaucoup améliorées. Les performances de robustesse des approches classiques d’apprentissage automatique étaient souvent limitées par la quantité de données disponibles. Des nouvelles techniques ont été développées pour utiliser efficacement ce nouveau flux important de données. Cependant, la quantité de données et la complexité des algorithmes mis en place nécessitent une grande puissance de calcul pour ces nouvelles chaînes de traitement. En parallèle, la puissance de calcul accessible pour le traitement d’images s’est aussi accrue. Les GPUs («Graphic Processing Unit ») sont de plus en plus utilisés et l’utilisation de cloud public ou privé est de plus en plus répandue. Désormais, pour le traitement d’images, toute la puissance nécessaire pour les chaînes de traitements automatiques est disponible à coût raisonnable. La conception des nouvelles chaînes de traitement doit prendre en compte ce nouveau facteur. En télédétection, l’augmentation du volume de données à exploiter est devenue une problématique due à la contrainte de la puissance de calcul nécessaire pour l’analyse. Les algorithmes de télédétection traditionnels ont été conçus pour des données pouvant être stockées en mémoire interne tout au long des traitements. Cette condition est de moins en moins respectée avec la quantité d’images et leur résolution. Les algorithmes de télédétection traditionnels nécessitent d’être revus et adaptés pour le traitement de données à grande échelle. Ce besoin n’est pas propre à la télédétection et se retrouve dans d’autres secteurs comme le web, la médecine, la reconnaissance vocale,… qui ont déjà résolu une partie de ces problèmes. Une partie des techniques et technologies développées par les autres domaines doivent encore être adaptées pour être appliquée aux images satellites. Cette thèse se focalise sur les algorithmes de télédétection pour le traitement de volumes de données massifs. En particulier, un premier algorithme existant d’apprentissage automatique est étudié et adapté pour une implantation distribuée. L’objectif de l’implantation est le passage à l’échelle c’est-à-dire que l’algorithme puisse traiter une grande quantité de données moyennant une puissance de calcul adapté. Enfin, la deuxième méthodologie proposée est basée sur des algorithmes récents d’apprentissage automatique les réseaux de neurones convolutionnels et propose une méthodologie pour les appliquer à nos cas d’utilisation sur des images satellites

    Intégration d’un module d’apprentissage profond dans l’architecture logicielle d’un SIG Web

    Get PDF
    Depuis plusieurs années, l’intelligence artificielle connaît une très forte croissance de popularité aussi bien dans le milieu de la recherche scientifique qu’auprès de grandes compagnies des technologies de l’information. L'apprentissage profond, qui est un domaine de l'intelligence artificielle, s’invite aujourd’hui dans de nombreux domaines tels que les moteurs de recherche sur le Web, les assistants virtuels, la reconnaissance d’images ou encore les voitures autonomes. La majorité des algorithmes d’apprentissage profond sont basés sur des réseaux de neurones artificiels. Ceux-ci sont composés de neurones interconnectés organisés en couches successives. Depuis quelques dizaines d’années, les réseaux de neurones sont utilisés en géomatique. Particulièrement en télédétection le potentiel de reconnaissance d’images est exploité, notamment, à des fins de classification d’images ou de reconnaissance de cibles. Néanmoins, l'apprentissage profond n'est pas encore disponible dans les outils de géomatique les plus courants rendant ainsi l’accès à cette technologie plus difficile pour la communauté des géomaticiens. Dans cet essai un module d'apprentissage profond pour la classification d'images à très haute résolution a été intégré à un SIG sur le Web. La solution développée utilise une librairie de programmation dans le langage Python pour la création de réseaux de neurones artificiels. L’interface utilisateur permet de classifier des images géoréférencées sans connaissance en apprentissage profond ou en programmation de manière intuitive. L’application étant développée avec des outils de programmation libres et ouverts, il serait possible de la modifier pour l’adapter à une autre problématique spécifique

    Caractérisation de trottoirs : extraction automatique d’entités géographiques sur des images panoramiques urbaines par réseaux de neurones convolutifs

    Get PDF
    L’état des trottoirs a un impact déterminant sur la mobilité des personnes à mobilité réduite, leur participation à la vie sociale et leur état de santé physique. Un suivi automatisé de ces trottoirs, à l’instar de celui qui est actuellement développé pour le réseau routier dans plusieurs grandes villes, permettrait d’alléger les coûts liés aux relevés manuels à des fins d’entretien régulier. Le présent projet vise à bonifier les facteurs pris en compte par un outil de planification de trajets afin qu’il réponde mieux aux besoins de mobilité de ce type d’usagers. Depuis l’avènement des réseaux de neurones convolutifs (CNN) en reconnaissance visuelle, les applications liées à ces nouveaux outils d’apprentissage machine ne cessent de se multiplier. Les CNN présentent un intérêt majeur dans l’application des techniques de vision par ordinateur en télédétection. L’objectif principal des travaux présentés ici consiste à développer une méthode permettant de caractériser automatiquement les trottoirs. Pour ce faire, des images de scènes urbaines Google Street View couvrant deux villes du Québec ont été acquises, puis annotées afin d’y associer la vérité terrain. Une fois entraînés sur ces données, les CNN ont servi à détecter et caractériser les trottoirs sur un ensemble de test, couvrant 25 km du centre-ville de Sherbrooke. Une approche d’apprentissage par transfert est privilégiée afin de tirer profit de grands jeux de données annotées, comme Cityscapes. La segmentation des trottoirs sur le site d’évaluation finale atteint un indice de Jaccard de 91 %. La caractérisation, quant à elle, n’atteint que 31 %, notamment à cause d’un débalancement de classes dans les données d’entraînement. Une récurrence de surapprentissage révèle enfin le besoin d’accroître la quantité de ces données servant à l’apprentissage des modèles

    Calibrage de caméra fisheye et estimation de la profondeur pour la navigation autonome

    Full text link
    Ce mémoire s’intéresse aux problématiques du calibrage de caméras grand angles et de l’estimation de la profondeur à partir d’une caméra unique, immobile ou en mouvement. Les travaux effectués se situent à l’intersection entre la vision 3D classique et les nouvelles méthodes par apprentissage profond dans le domaine de la navigation autonome. Ils visent à permettre la détection d’obstacles par un drone en mouvement muni d’une seule caméra à très grand angle de vue. D’abord, une nouvelle méthode de calibrage est proposée pour les caméras fisheyes à très grand angle de vue par calibrage planaire à correspondances denses obtenues par lumière structurée qui peuvent être modélisée par un ensemble de caméras génériques virtuelles centrales. Nous démontrons que cette approche permet de modéliser directement des caméras axiales, et validons sur des données synthétiques et réelles. Ensuite, une méthode est proposée pour estimer la profondeur à partir d’une seule image, à partir uniquement des indices de profondeurs forts, les jonctions en T. Nous démontrons que les méthodes par apprentissage profond sont susceptibles d’apprendre les biais de leurs ensembles de données et présentent des lacunes d’invariance. Finalement, nous proposons une méthode pour estimer la profondeur à partir d’une caméra en mouvement libre à 6 degrés de liberté. Ceci passe par le calibrage de la caméra fisheye sur le drone, l’odométrie visuelle et la résolution de la profondeur. Les méthodes proposées permettent la détection d’obstacle pour un drone.This thesis focuses on the problems of calibrating wide-angle cameras and estimating depth from a single camera, stationary or in motion. The work carried out is at the intersection between traditional 3D vision and new deep learning methods in the field of autonomous navigation. They are designed to allow the detection of obstacles by a moving drone equipped with a single camera with a very wide field of view. First, a new calibration method is proposed for fisheye cameras with very large field of view by planar calibration with dense correspondences obtained by structured light that can be modelled by a set of central virtual generic cameras. We demonstrate that this approach allows direct modeling of axial cameras, and validate it on synthetic and real data. Then, a method is proposed to estimate the depth from a single image, using only the strong depth cues, the T-junctions. We demonstrate that deep learning methods are likely to learn from the biases of their data sets and have weaknesses to invariance. Finally, we propose a method to estimate the depth from a camera in free 6 DoF motion. This involves calibrating the fisheye camera on the drone, visual odometry and depth resolution. The proposed methods allow the detection of obstacles for a drone
    • …
    corecore