73 research outputs found

    Les ForĂȘts AlĂ©atoires en Apprentissage Semi-SupervisĂ© (Co-forest) pour la segmentation des images rĂ©tiniennes

    Get PDF
    Nous proposons une approche qui permet la reconnaissance automatique des rĂ©gions Disques et Cups pour la mesure du rapport CDR (Cup/Disc Ratio) par apprentissage semi-supervisĂ©. Une Ă©tude comparative de plusieurs techniques est proposĂ©e. Le principe repose sur une croissance de rĂ©gion en classifiant les pixels voisins Ă  partir des pixels d'intĂ©rĂȘt de l'image par apprentissage semi-supervisĂ©. Les points d'intĂ©rĂȘt sont dĂ©tectĂ©s par l'algorithme Fuzzy C-means (FCM)

    Contribution à l'analyse de la dynamique des écritures anciennes pour l'aide à l'expertise paléographique

    Get PDF
    Mes travaux de thÚse s inscrivent dans le cadre du projet ANR GRAPHEM1 (Graphemebased Retrieval and Analysis for PaleograpHic Expertise of Middle Age Manuscripts). Ilsprésentent une contribution méthodologique applicable à l'analyse automatique des écrituresanciennes pour assister les experts en paléographie dans le délicat travail d étude et dedéchiffrage des écritures.L objectif principal est de contribuer à une instrumetation du corpus des manuscritsmédiévaux détenus par l Institut de Recherche en Histoire des Textes (IRHT Paris) en aidantles paléographes spécialisés dans ce domaine dans leur travail de compréhension de l évolutiondes formes de l écriture par la mise en place de méthodes efficaces d accÚs au contenu desmanuscrits reposant sur une analyse fine des formes décrites sous la formes de petits fragments(les graphÚmes). Dans mes travaux de doctorats, j ai choisi d étudier la dynamique del élément le plus basique de l écriture appelé le ductus2 et qui d aprÚs les paléographes apportebeaucoup d informations sur le style d écriture et l époque d élaboration du manuscrit.Mes contributions majeures se situent à deux niveaux : une premiÚre étape de prétraitementdes images fortement dégradées assurant une décomposition optimale des formes en graphÚmescontenant l information du ductus. Pour cette étape de décomposition des manuscrits, nousavons procédé à la mise en place d une méthodologie complÚte de suivi de traits à partir del extraction d un squelette obtenu à partir de procédures de rehaussement de contraste et dediffusion de gradients. Le suivi complet du tracé a été obtenu à partir de l application des rÚglesfondamentales d exécution des traits d écriture, enseignées aux copistes du Moyen Age. Il s agitd information de dynamique de formation des traits portant essentiellement sur des indicationsde directions privilégiées.Dans une seconde étape, nous avons cherché à caractériser ces graphÚmes par desdescripteurs de formes visuelles compréhensibles à la fois par les paléographes et lesinformaticiens et garantissant une représentation la plus complÚte possible de l écriture d unpoint de vue géométrique et morphologique. A partir de cette caractérisation, nous avonsproposé une approche de clustering assurant un regroupement des graphÚmes en classeshomogÚnes par l utilisation d un algorithme de classification non-supervisé basée sur lacoloration de graphe. Le résultat du clustering des graphÚmes a conduit à la formation dedictionnaires de formes caractérisant de maniÚre individuelle et discriminante chaque manuscrittraité. Nous avons également étudié la puissance discriminatoire de ces descripteurs afin d obtenir la meilleure représentation d un manuscrit en dictionnaire de formes. Cette étude a étéfaite en exploitant les algorithmes génétiques par leur capacité à produire de bonne sélection decaractéristiques.L ensemble de ces contributions a été testé à partir d une application CBIR sur trois bases demanuscrits dont deux médiévales (manuscrits de la base d Oxford et manuscrits de l IRHT, baseprincipale du projet), et une base comprenant de manuscrits contemporains utilisée lors de lacompétition d identification de scripteurs d ICDAR 2011. L exploitation de notre méthode dedescription et de classification a été faite sur une base contemporaine afin de positionner notrecontribution par rapport aux autres travaux relevant du domaine de l identification d écritures etétudier son pouvoir de généralisation à d autres types de documents. Les résultats trÚsencourageants que nous avons obtenus sur les bases médiévales et la base contemporaine, ontmontré la robustesse de notre approche aux variations de formes et de styles et son caractÚrerésolument généralisable à tout type de documents écrits.My thesis work is part of the ANR GRAPHEM Project (Grapheme based Retrieval andAnalysis for Expertise paleographic Manuscripts of Middle Age). It represents a methodologicalcontribution applicable to the automatic analysis of ancient writings to assist the experts inpaleography in the delicate work of the studying and deciphering the writing.The main objective is to contribute to an instrumentation of the corpus of medievalmanuscripts held by Institut de Recherche en Histoire de Textes (IRHT-Paris), by helping thepaleographers specialized in this field in their work of understanding the evolution of forms inthe writing, with the establishment of effective methods to access the contents of manuscriptsbased on a fine analysis of the forms described in the form of small fragments (graphemes). Inmy PhD work, I chose to study the dynamic of the most basic element of the writing called theductus and which according to the paleographers, brings a lot of information on the style ofwriting and the era of the elaboration of the manuscript.My major contribution is situated at two levels: a first step of preprocessing of severelydegraded images to ensure an optimal decomposition of the forms into graphemes containingthe ductus information. For this decomposition step of manuscripts, we have proceeded to theestablishment of a complete methodology for the tracings of strokes by the extraction of theskeleton obtained from the contrast enhancement and the diffusion of the gradient procedures.The complete tracking of the strokes was obtained from the application of fundamentalexecution rules of the strokes taught to the scribes of the Middle Ages. It is related to thedynamic information of the formation of strokes focusing essentially on indications of theprivileged directions.In a second step, we have tried to characterize the graphemes by visual shape descriptorsunderstandable by both the computer scientists and the paleographers and thus unsuring themost complete possible representation of the wrting from a geometrical and morphological pointof view. From this characterization, we have have proposed a clustering approach insuring agrouping of graphemes into homogeneous classes by using a non-supervised classificationalgorithm based on the graph coloring. The result of the clustering of graphemes led to theformation of a codebook characterizing in an individual and discriminating way each processedmanuscript. We have also studied the discriminating power of the descriptors in order to obtaina better representation of a manuscript into a codebook. This study was done by exploiting thegenetic algorithms by their ability to produce a good feature selection.The set of the contributions was tested from a CBIR application on three databases ofmanuscripts including two medieval databases (manuscripts from the Oxford and IRHTdatabases), and database of containing contemporary manuscripts used in the writersidentification contest of ICDAR 2011. The exploitation of our description and classificationmethod was applied on a cotemporary database in order to position our contribution withrespect to other relevant works in the writrings identification domain and study itsgeneralization power to other types of manuscripts. The very encouraging results that weobtained on the medieval and contemporary databases, showed the robustness of our approachto the variations of the shapes and styles and its resolutely generalized character to all types ofhandwritten documents.PARIS5-Bibliotheque electronique (751069902) / SudocSudocFranceF

    Techniques d'analyse de contenu appliquées à l'imagerie spatiale

    Get PDF
    Depuis les annĂ©es 1970, la tĂ©lĂ©dĂ©tection a permis d’amĂ©liorer l’analyse de la surface de la Terre grĂące aux images satellites produites sous format numĂ©rique. En comparaison avec les images aĂ©roportĂ©es, les images satellites apportent plus d’information car elles ont une couverture spatiale plus importante et une pĂ©riode de revisite courte. L’essor de la tĂ©lĂ©dĂ©tection a Ă©tĂ© accompagnĂ© de l’émergence des technologies de traitement qui ont permis aux utilisateurs de la communautĂ© d’analyser les images satellites avec l’aide de chaĂźnes de traitement de plus en plus automatiques. Depuis les annĂ©es 1970, les diffĂ©rentes missions d’observation de la Terre ont permis d’accumuler une quantitĂ© d’information importante dans le temps. Ceci est dĂ» notamment Ă  l’amĂ©lioration du temps de revisite des satellites pour une mĂȘme rĂ©gion, au raffinement de la rĂ©solution spatiale et Ă  l’augmentation de la fauchĂ©e (couverture spatiale d’une acquisition). La tĂ©lĂ©dĂ©tection, autrefois cantonnĂ©e Ă  l’étude d’une seule image, s’est progressivement tournĂ©e et se tourne de plus en plus vers l’analyse de longues sĂ©ries d’images multispectrales acquises Ă  diffĂ©rentes dates. Le flux annuel d’images satellite est supposĂ© atteindre plusieurs PĂ©ta octets prochainement. La disponibilitĂ© d’une si grande quantitĂ© de donnĂ©es reprĂ©sente un atout pour dĂ©velopper de chaines de traitement avancĂ©es. Les techniques d’apprentissage automatique beaucoup utilisĂ©es en tĂ©lĂ©dĂ©tection se sont beaucoup amĂ©liorĂ©es. Les performances de robustesse des approches classiques d’apprentissage automatique Ă©taient souvent limitĂ©es par la quantitĂ© de donnĂ©es disponibles. Des nouvelles techniques ont Ă©tĂ© dĂ©veloppĂ©es pour utiliser efficacement ce nouveau flux important de donnĂ©es. Cependant, la quantitĂ© de donnĂ©es et la complexitĂ© des algorithmes mis en place nĂ©cessitent une grande puissance de calcul pour ces nouvelles chaĂźnes de traitement. En parallĂšle, la puissance de calcul accessible pour le traitement d’images s’est aussi accrue. Les GPUs («Graphic Processing Unit ») sont de plus en plus utilisĂ©s et l’utilisation de cloud public ou privĂ© est de plus en plus rĂ©pandue. DĂ©sormais, pour le traitement d’images, toute la puissance nĂ©cessaire pour les chaĂźnes de traitements automatiques est disponible Ă  coĂ»t raisonnable. La conception des nouvelles chaĂźnes de traitement doit prendre en compte ce nouveau facteur. En tĂ©lĂ©dĂ©tection, l’augmentation du volume de donnĂ©es Ă  exploiter est devenue une problĂ©matique due Ă  la contrainte de la puissance de calcul nĂ©cessaire pour l’analyse. Les algorithmes de tĂ©lĂ©dĂ©tection traditionnels ont Ă©tĂ© conçus pour des donnĂ©es pouvant ĂȘtre stockĂ©es en mĂ©moire interne tout au long des traitements. Cette condition est de moins en moins respectĂ©e avec la quantitĂ© d’images et leur rĂ©solution. Les algorithmes de tĂ©lĂ©dĂ©tection traditionnels nĂ©cessitent d’ĂȘtre revus et adaptĂ©s pour le traitement de donnĂ©es Ă  grande Ă©chelle. Ce besoin n’est pas propre Ă  la tĂ©lĂ©dĂ©tection et se retrouve dans d’autres secteurs comme le web, la mĂ©decine, la reconnaissance vocale,
 qui ont dĂ©jĂ  rĂ©solu une partie de ces problĂšmes. Une partie des techniques et technologies dĂ©veloppĂ©es par les autres domaines doivent encore ĂȘtre adaptĂ©es pour ĂȘtre appliquĂ©e aux images satellites. Cette thĂšse se focalise sur les algorithmes de tĂ©lĂ©dĂ©tection pour le traitement de volumes de donnĂ©es massifs. En particulier, un premier algorithme existant d’apprentissage automatique est Ă©tudiĂ© et adaptĂ© pour une implantation distribuĂ©e. L’objectif de l’implantation est le passage Ă  l’échelle c’est-Ă -dire que l’algorithme puisse traiter une grande quantitĂ© de donnĂ©es moyennant une puissance de calcul adaptĂ©. Enfin, la deuxiĂšme mĂ©thodologie proposĂ©e est basĂ©e sur des algorithmes rĂ©cents d’apprentissage automatique les rĂ©seaux de neurones convolutionnels et propose une mĂ©thodologie pour les appliquer Ă  nos cas d’utilisation sur des images satellites

    Architecture complÚtement convolutive à champ d'activation large pour la segmentation sémantique de la vasculature rétinienne dans les images de fond d'oeil

    Get PDF
    L’imagerie de fond d’oeil permet l’observation non-intrusive des structures anatomiques de la rĂ©tine. Ces images sont singuliĂšrement trĂšs informatives pour Ă©valuer le risque d’apparition de pathologies oculaires, cardiovasculaires ou cĂ©rĂ©brovasculaire, dont le dĂ©pistage et le traitement prĂ©ventif sont des dĂ©fis majeurs de la mĂ©decine contemporaine. Plus particuliĂšrement, les anomalies de la micro-vasculature rĂ©tienne sont des symptĂŽmes connus pour prĂ©sager de ces maladies. L’extraction automatique et fiable de cette vasculature est donc une Ă©tape importante vers la conception d’un algorithme de diagnostique automatique convoitĂ© par les cliniciens. L’extraction de la vasculature rĂ©tinienne nĂ©cessite l’exĂ©cution de deux opĂ©rations : d’une part la segmentation des vaisseaux de la rĂ©tine, et d’autre part leur classification entre artĂ©rioles et veinules. La revue de littĂ©rature sur ces deux tĂąches rĂ©vĂšle que les rĂ©seaux de neurones convolutifs sont trĂšs souvent utilisĂ©s pour effectuer la segmentation des vaisseaux, mais presque toujours absents des mĂ©thodes de classification vasculaire. En effet, les mĂ©thodes de classification les plus performantes appliquent toutes le mĂȘme protocole : grĂące aux outils de la thĂ©orie des graphes, elles reconstruisent l’arbre vasculaire rĂ©tinien Ă  partir de sa carte de segmentation. Ensuite, un classificateur rudimentaire Ă©tabli une premiĂšre labellisation artĂšre/veine pour chaque pixel appartenant Ă  vaisseau. Enfin, ces labels sont moyennĂ©s, corrigĂ©s et propagĂ©s Ă  travers le graphe de l’arbre vasculaire afin que chacun de ses segments soit Ă©tiquetĂ©. Ce protocole imite en fait la dĂ©marche des cliniciens lorsqu’ils annotent les images de fond d’oeil. En effet, mis-Ă -part les plus gros vaisseaux, il est souvent difficile, voire impossible, de distinguer une artĂ©riole d’une veinule simplement par son apparence. Par consĂ©quent, les cliniciens annotent d’abord les vaisseaux larges Ă©mergeant du disque optique en fonction de leur couleur (les veinules sont plus foncĂ©es que les artĂ©rioles) puis suivent ces vaisseaux Ă  travers les bifurcations et les croisements en propageant les labels vers les terminaisons vasculaires. Pour rĂ©soudre les bifurcations et les croisements, les mĂ©thodes de classifications vasculaires automatiques reposent en gĂ©nĂ©ral sur des connaissances a priori de l’anatomie des vaisseaux rĂ©tiniens formulĂ©es sous forme de rĂšgles topologiques. Cependant, ces rĂšgles ne peuvent pas tenir compte des anomalies de la vasculature rĂ©tinienne, puisque ces derniĂšres en sont prĂ©cisĂ©ment les exceptions. Ainsi, parce qu’elles sont particuliĂšrement peu robustes aux anomalies de la vasculature rĂ©tinienne, ces mĂ©thodes sont mal adaptĂ©es pour l’analyse d’image de rĂ©tines pathologiques.----------ABSTRACT: Retinal fundus imaging allows the non-invasive observation of the retinal natomical structure. Fundus images and more specifically the study of retinal micro-vasculature anomaly, are known to be informative when estimating risks of retinopathy, cardiovascular and cerebrovascular pathologies. Early diagnosis of those pathologies is the key to reducing their mortality rates and is a challenge of modern medicine (cardiovascular diseases is the second cause of deaths in Canada). Thus, an automatic and reliable extraction of the retinal vasculature tree is a key step towards the conception of automatic screening algorithms wished by clinicians. Extraction of the retinal vasculature tree consist in two tasks: the segmentation of the vessels and their classification between arteries and veins. Deep neural network are often used for the segmentation task but are almost never used for the classification task. Indeed, for this second task, algorithms usually make an extensive usage of the graph theory to reconstruct the retinal vascular tree from the segmentation map. A simple classifier is then used to compute arteries and veins labels which are averaged, corrected, and propagated along the vascular graph. Actually, this method attempt to mimic clinicians behaviour. Because small arteries and veins are not distinguishable by local features, clinicians start by labelling larger vessels (veins are always darker than arteries) and then propagates those labels towards the vascular endings by following each vessels through its bifurcations and crossing. In order to solve those bifurcations and crossing, automatic vascular classifications usually relies on prior anatomical and structural knowledge of the retinal vasculature which are transcribed into topological rules. However they can’t take into account vascular anomalies because they are the exceptions of those rules. Thus, because the are not reliable to vascular anomalies, those methods are not well fitted to perform the retinal vasculature extraction with a view to diagnose cardiovascular or cerebrovascular pathologies

    Extraction automatique par apprentissage profond des obstacles et des facilitateurs à la mobilité des personnes à mobilité réduite à partir des données LiDAR mobile

    Get PDF
    La mobilitĂ© est une habitude de vie fondamentale pour la participation sociale des personnes Ă  mobilitĂ© rĂ©duite (PMRs). L'un des plus grands dĂ©fis des PMRs est de trouver des itinĂ©raires accessibles pour leur dĂ©placement en ville. À cet Ă©gard, plusieurs groupes de recherche, dont MobiliSIG, s'intĂ©ressent Ă  l'Ă©valuation de l'accessibilitĂ© des lieux en appui au dĂ©veloppement des outils d'assistance Ă  la mobilitĂ© des PMRs. Cependant, les mĂ©thodes traditionnelles de l'acquisition et le traitement de donnĂ©es pertinentes pour l'analyse de l'accessibilitĂ© de l'environnement urbain sont gĂ©nĂ©ralement peu prĂ©cises, peu efficaces et trĂšs coĂ»teuses en temps et en argent. Dans ce contexte, la technologie lidar prĂ©sente une alternative intĂ©ressante pour l'acquisition de donnĂ©es trĂšs dĂ©taillĂ©es et prĂ©cises sur l'environnement urbain. De plus, les techniques issues de l'intelligence artificielle ont dĂ©montrĂ© de grands potentiels pour l'extraction automatique de l'information pertinente Ă  partir de nuages de points lidar. À cet effet, l'objectif global de cette recherche est d'Ă©valuer le potentiel des nouvelles approches basĂ©es sur l'apprentissage profond pour la segmentation sĂ©mantique de nuages de points lidar afin d'automatiser l'extraction des obstacles et des facilitateurs (trottoirs, ilots de refuge, marches, etc.) en lien avec la mobilitĂ© des PMRs. Pour ce faire, nous nous sommes particuliĂšrement intĂ©ressĂ©s au potentiel des mĂ©thodes d'apprentissage profond telles que les algorithmes de Superpoint graph et FKAconv. Les principales Ă©tapes de cette recherche consistent Ă  : 1) Ă©laborer une base de donnĂ©es 3D annotĂ©e dĂ©diĂ©e Ă  la mobilitĂ© des PMRs, 2) appliquer et Ă©valuer les algorithmes de l'apprentissage profond, 3) mettre en Ă©vidence les dĂ©fis rencontrĂ©s dans l'apprentissage sĂ©mantique en 3D Ă  partir de donnĂ©es lidar mobile (donnĂ©es irrĂ©guliĂšres et volumineuses, la complexitĂ© des scĂšnes urbaines, morphologie trĂšs variable des instances, etc.). Les algorithmes visĂ©s sont appliquĂ©s aux donnĂ©es lidar mobile pour analyser l'accĂšs aux commerces au centre-ville de QuĂ©bec. Les rĂ©sultats de cette recherche ont dĂ©montrĂ© le potentiel des mĂ©thodes d'apprentissage profond pour la segmentation sĂ©mantique des Ă©lĂ©ments pertinents Ă  la mobilitĂ© des PMRs Ă  partir des donnĂ©es lidar mobile. Cependant, ces mĂ©thodes souffrent de plusieurs problĂšmes qui engendrent de mauvaises classifications menant Ă  des imperfections de segmentation.Mobility is a fundamental life habit for the social participation of people with motor disabilities (PMD). One of the biggest challenges for PMDs is to find accessible itineraries for their movement in the city. In this respect, several research groups, including MobiliSIG, are interested in assessing the accessibility of places to support the development of mobility assistance tools for PMDs. However, traditional methods for acquiring and processing data relevant to the analysis of the accessibility of the urban environments are generally inefficient and very costly in terms of time and money. In this context, the lidar technology presents an interesting alternative for the acquisition of very detailed and accurate data on the urban environment. Moreover, artificial intelligence techniques have shown great potential for the automatic extraction of relevant information from lidar point clouds. To this end, the overall objective of this research is to evaluate the potential of new deep learning-based approaches for the semantic segmentation of lidar point clouds to automate the extraction of obstacles and facilitators (sidewalks, island, steps, etc.) related to the mobility of PMDs. To do so, we were particularly interested in the potential of deep learning methods such as Superpoint graph and FKAconv algorithms. The main steps of this research are: 1) to develop an annotated 3D database dedicated to mobility setoff PMDs, 2) to apply and evaluate the deep learning algorithms, 3) to highlight the challenges encountered in 3D semantic learning (irregular and voluminous data, complexity of urban scenes, highly variable morphology of instances, etc.). The selected algorithms are applied to mobile lidar data to analyze access to shops in downtown Quebec City. The results of this research have demonstrated the potential of deep learning methods for semantic segmentation of elements relevant to PRM mobility from mobile lidar data. However, these methods still suffer from several problems that lead to misclassifications leading to segmentation imperfections

    Analyse et caractérisation temps réel de vidéos chirurgicales. Application à la chirurgie de la cataracte

    Get PDF
    Huge amounts of medical data are recorded every day. Those data could be very helpful for medical practice. The LaTIM has acquired solid know-how about the analysis of those data for decision support. In this PhD thesis, we propose to reuse annotated surgical videos previously recorded and stored in a dataset, for computer-aided surgery. To be able to provide relevant information, we first need to recognize which surgical gesture is being performed at each instant of the surgery, based on the monitoring video. This challenging task is the aim of this thesis. We propose an automatic solution to analyze cataract surgeries, in real time, while the video is being recorded. A content based video retrieval (CBVR) method is used to categorize the monitoring video, in combination with a statistical model of the surgical process to bring contextual information. The system performs an on-line analysis of the surgical process at two levels of description for a complete and precise analysis. The methods developed during this thesis have been evaluated in a dataset of cataract surgery videos collected at Brest University Hospital. Promising results were obtained for the automatic analysis of cataract surgeries and surgical gesture recognition. The statistical model allows an analysis which is both fine-tuned and comprehensive. The general approach proposed in this thesis could be easily used for computer aided surgery, by providing recommendations or video sequence examples. The method could also be used to annotate videos for indexing purposes.L'objectif de cette thÚse est de fournir aux chirurgiens des aides opératoires en temps réel. Nous nous appuyons pour cela sur des vidéos préalablement archivées et interprétées. Pour que cette aide soit pertinente, il est tout d'abord nécessaire de reconnaßtre, à chaque instant, le geste pratiqué par le chirurgien. Ce point est essentiel et fait l'objet de cette thÚse. Différentes méthodes ont été développées et évaluées, autour de la reconnaissance automatique du geste chirurgical. Nous nous sommes appuyés sur des méthodes de catégorisation (recherche des cas les plus proches basée sur l'extraction du contenu visuel) et des modÚles statistiques du processus chirurgical. Les réflexions menées ont permis d'aboutir à une analyse automatique de la chirurgie à plusieurs niveaux de description. L'évaluation des méthodes a été effectuée sur une base de données de vidéos de chirurgies de la cataracte, collectées grùce à une forte collaboration avec le service d'ophtalmologie du CHRU de Brest. Des résultats encourageants ont été obtenus pour la reconnaissance automatique du geste chirurgical. Le modÚle statistique multi-échelles développé permet une analyse fine et complÚte de la chirurgie. L'approche proposée est trÚs générale et devrait permettre d'alerter le chirurgien sur les déroulements opératoires à risques, et lui fournir des recommandations en temps réel sur des conduites à tenir reconnues. Les méthodes développées permettront également d'indexer automatiquement des vidéos chirurgicales archivées

    Segmentation d'images par combinaison adaptative couleur-texture et classification de pixels. (Applications à la caractérisation de l'environnement de réception de signaux GNSS)

    Get PDF
    En segmentation d images, les informations de couleur et de texture sont trĂšs utilisĂ©es. Le premier apport de cette thĂšse se situe au niveau de l utilisation conjointe de ces deux sources d informations. Nous proposons alors une mĂ©thode de combinaison couleur/texture, adaptative et non paramĂ©trique, qui consiste Ă  combiner un (ou plus) gradient couleur et un (ou plus) gradient texture pour ensuite gĂ©nĂ©rer un gradient structurel utilisĂ© comme image de potentiel dans l algorithme de croissance de rĂ©gions par LPE. L originalitĂ© de notre mĂ©thode rĂ©side dans l Ă©tude de la dispersion d un nuage de point 3D dans l espace, en utilisant une Ă©tude comparative des valeurs propres obtenues par une analyse des composantes principales de la matrice de covariance de ce nuage de points. L approche de combinaison couleur/texture proposĂ©e est d abord testĂ©e sur deux bases d images, Ă  savoir la base gĂ©nĂ©rique d images couleur de BERKELEY et la base d images de texture VISTEX. Cette thĂšse s inscrivant dans le cadre des projets ViLoc (RFC) et CAPLOC (PREDIT), le deuxiĂšme apport de celle-ci se situe au niveau de la caractĂ©risation de l environnement de rĂ©ception des signaux GNSS pour amĂ©liorer le calcul de la position d un mobile en milieu urbain. Dans ce cadre, nous proposons d exclure certains satellites (NLOS dont les signaux sont reçus par rĂ©flexion voir totalement bloquĂ©s par les obstacles environnants) dans le calcul de la position d un mobile. Deux approches de caractĂ©risation, basĂ©es sur le traitement d images, sont alors proposĂ©es. La premiĂšre approche consiste Ă  appliquer la mĂ©thode de combinaison couleur/texture proposĂ©e sur deux bases d images rĂ©elles acquises en mobilitĂ©, Ă  l aide d une camĂ©ra fisheye installĂ©e sur le toit du vĂ©hicule de laboratoire, suivie d une classification binaire permettant d obtenir les deux classes d intĂ©rĂȘt ciel (signaux LOS) et non ciel (signaux NLOS). Afin de satisfaire la contrainte temps rĂ©el exigĂ©e par le projet CAPLOC, nous avons proposĂ© une deuxiĂšme approche basĂ©e sur une simplification de l image couplĂ©e Ă  une classification pixellaire adaptĂ©e. Le principe d exclusion des satellites NLOS permet d amĂ©liorer la prĂ©cision de la position estimĂ©e, mais uniquement lorsque les satellites LOS (dont les signaux sont reçus de maniĂšre direct) sont gĂ©omĂ©triquement bien distribuĂ©s dans l espace. Dans le but de prendre en compte cette connaissance relative Ă  la distribution des satellites, et par consĂ©quent, amĂ©liorer la prĂ©cision de localisation, nous avons proposĂ© une nouvelle stratĂ©gie pour l estimation de position, basĂ©e sur l exclusion des satellites NLOS (identifiĂ©s par le traitement d images), conditionnĂ©e par l information DOP, contenue dans les trames GPS.Color and texture are two main information used in image segmentation. The first contribution of this thesis focuses on the joint use of color and texture information by developing a robust and non parametric method combining color and texture gradients. The proposed color/texture combination allows defining a structural gradient that is used as potential image in watershed algorithm. The originality of the proposed method consists in studying a 3D points cloud generated by color and texture descriptors, followed by an eigenvalue analysis. The color/texture combination method is firstly tested and compared with well known methods in the literature, using two databases (generic BERKELEY database of color images and the VISTEX database of texture images). The applied part of the thesis is within ViLoc project (funded by RFC regional council) and CAPLOC project (funded by PREDIT). In this framework, the second contribution of the thesis concerns the characterization of the environment of GNSS signals reception. In this part, we aim to improve estimated position of a mobile in urban environment by excluding NLOS satellites (for which the signal is masked or received after reflections on obstacles surrounding the antenna environment). For that, we propose two approaches to characterize the environment of GNSS signals reception using image processing. The first one consists in applying the proposed color/texture combination on images acquired in mobility with a fisheye camera located on the roof of a vehicle and oriented toward the sky. The segmentation step is followed by a binary classification to extract two classes sky (LOS signals) and not sky (NLOS signals). The second approach is proposed in order to satisfy the real-time constraint required by the application. This approach is based on image simplification and adaptive pixel classification. The NLOS satellites exclusion principle is interesting, in terms of improving precision of position, when the LOS satellites (for which the signals are received directly) are well geometrically distributed in space. To take into account the knowledge of satellite distribution and then increase the precision of position, we propose a new strategy of position estimation, based on the exclusion of NLOS satellites (identified by the image processing step), conditioned by DOP information, which is provided by GPS data.BELFORT-UTBM-SEVENANS (900942101) / SudocSudocFranceF

    Analyse des problÚmatiques liées à la reconnaissance de sons ambiants en environnement réel

    Get PDF
    Notre vie est constamment bercĂ©e par les sons ambiants. Du bruit d’une voiture qui passe Ă  un oiseau qui chante, de l’eau qui coule dans notre douche aux bruits de notre clavier, les sons ambiants sont partout. Les humains sans pertes auditives reconnaissent inconsciemment les sons qui les entourent et prennent de nombreuses dĂ©cisions de la vie quotidienne en tenant compte des sons ambiants (rĂ©actions Ă  des pleurs de bĂ©bĂ© ou une alarme par exemple). Durant ces derniĂšres annĂ©es, la recherche autour de l’analyse automatique de ces sons ambiants s’est dĂ©veloppĂ©e rapidement. L’analyse des sons ambiants est un problĂšme difficile Ă  rĂ©soudre en raison de la complexitĂ© des scĂšnes sonores et de leur manque de structure apparente. Les Ă©vĂ©nements sonores qui constituent les scĂšnes sonores sont trĂšs variĂ©s et de nombreux Ă©vĂ©nements peuvent ĂȘtre actifs simultanĂ©ment. Afin de reconnaĂźtre les Ă©vĂ©nements sonores de façon automatique, on a gĂ©nĂ©ralement recours Ă  des mĂ©thodes d’apprentissage automatique. Les mĂ©thodes par apprentissage profond sont devenues trĂšs populaires ces derniĂšres annĂ©es grĂące Ă  leurs performances Ă©levĂ©es pour des tĂąches diverses dont l’analyse de sons ambiants. Les mĂ©thodes d’apprentissage s’appuient sur l’utilisation de jeux de donnĂ©es contenant les Ă©vĂ©nements que l’on souhaite reconnaĂźtre. Dans l’idĂ©al, ces jeux de donnĂ©es contiennent des annotations concernant l’activitĂ© liĂ©e Ă  chacune des classes d’évĂ©nements sonores et Ă©ventuellement Ă  leur temporalitĂ© (on parle alors d’annotations fortes). Ces derniĂšres annĂ©es, des jeux de donnĂ©es fortement annotĂ©s ont Ă©tĂ© collectĂ©s et publiĂ©s pour permettre l’analyse de sons ambiants, mais ils sont souvent composĂ©s d’une faible quantitĂ© de donnĂ©es qui ne sont pas toujours enregistrĂ©es en conditions rĂ©elles. Obtenir des annotations fortes coĂ»te cher, et il est donc difficile d’obtenir un gros jeu de donnĂ©es fortement annotĂ©es. En revanche, la collecte de donnĂ©es non annotĂ©es ou annotĂ©es partiellement et sans indication de temporalitĂ© (annotations faibles) est plus facile. C’est dans ce cadre que s’inscrit cette thĂšse.Nous proposons de traiter le problĂšme de la reconnaissance d’évĂ©nements sonores en environnement domestique en utilisant des donnĂ©es non annotĂ©es et faiblement annotĂ©es. Le but est d’analyser les problĂšmes qui surviennent lors d’un scĂ©nario rĂ©el de reconnaissance d’évĂ©nements sonores au sein d’une maison pour permettre l’assistance aux personnes en perte d’autonomie ou rendre la maison intelligente. Afin d’analyser ce problĂšme, nous avons proposĂ© une tĂąche de dĂ©tection d’évĂ©nements sonores dans un challenge international d’analyse de sons ambiants. Pour cette tĂąche nous avons dĂ©fini un problĂšme proche d’un scĂ©nario rĂ©el pour permettre l’analyse scientifique des diffĂ©rents problĂšmes qui apparaissent dans l’analyse de sons ambiants en environnement rĂ©el. Nous proposons un jeu de donnĂ©es pour permettre des analyses dĂ©taillĂ©es des problĂšmes scientifiques Ă  rĂ©soudre pour permettre l’évolution continue de la tĂąche. Nous nous focalisons ensuite sur le problĂšme de l’apprentissage semi-supervisĂ© qui permet l’apprentissage de systĂšmes utilisant des donnĂ©es annotĂ©es et des donnĂ©es non annotĂ©es. Cette analyse se concentre sur l’apprentissage d’une reprĂ©sentation qui serait utile pour des applications finales d’étiquetage ou de dĂ©tection d’évĂ©nements sonores. Nous analysons enfin l’impact de l’annotation faible des donnĂ©es dans l’apprentissage d’un systĂšme de reconnaissance d’évĂ©nements sonores afin de proposer des conseils pour l’annotation faible des jeux de donnĂ©es ou des pistes de solutions.We’re constantly surrounded by ambient sounds. From a car passing by to a bird’s song or from the running water in the shower to the sound of a keyboard, ambient sounds are everywhere. Humans without hearing loss unconsciously recognize them and take multiple decisions using the information provided by ambient sounds in their everyday life (reaction to a baby crying or to an alarm for example). In the last years, the research interest in automatic ambient sound analysis has rapidly grown. Ambient sound analysis is a difficult problem because of the complexity of the sound scenes and their lack of apparent structure.Sound events constituting these sound scenes are various and multiple events can appear simultaneously. To recognize sound events automatically, machine learning methods are usually used, in particular deep learning methods due to their good performance on a variety of tasks including ambient sound analysis. These methods require a training dataset containing the sound events to be recognized. Ideally, the dataset contains labels indicating the type of events and their time positions in the audio clips (strong labels). In recent years, some strongly annotated datasets have appeared that are designed for ambient sound analysis, but they usually contain only a small amount of data and are rarely recorded in real conditions. Strong annotations are expensive to collect, making it difficult to acquire a large scale strongly labeled dataset. However, collecting data without labels or with partial labels indicating the presence of some events without their time information (weak labels) is easier. This thesis fits in this context. We propose to address the problem of sound event recognition in domestic environments using unlabeled and weakly labeled data. Our goal is to analyze the different problems that can appear in a real world scenario of sound event recognition in domestic environment with applications to assisted living and smart house. To analyse this problem we have organized a domestic sound event detection task in an international ambient sound analysis challenge. We have defined this task in such a way that it allows us to analyze the different problems appearing in a real world scenario. We have collected, annotated and shared a dataset designed for this analysis. From 2018 to 2020, we have organized three evaluation campaigns to allow for a detailed analysis of the systems submitted by participants and a continuous improvement the task definition. Then, we focus on the problem of learning systems using both labeled and unlabeled training data (semi-supervised learning). The analysis concentrates on learning a representation which could be useful for a variety of tasks in sound event detection or tagging. Finally, we analyze the impact of weak labels in the training dataset of a sound event recognition system to understand if this is the main problem of a sound event recognition system and provide advice for the labelling of real world data

    Modélisation de signaux temporels hautes fréquences multicapteurs à valeurs manquantes : Application à la prédiction des efflorescences phytoplanctoniques dans les riviÚres et les écosystÚmes marins cÎtiers

    Get PDF
    Because of the growing interest for environmental issues and to identify direct and indirect effects of anthropogenic activities on ecosystems, environmental monitoring programs have recourse more and more frequently to high resolution, autonomous and multi-sensor instrumented stations. These systems are implemented in harsh environment and there is a need to stop measurements for calibration, service purposes or just because of sensors failure. Consequently, data could be noisy, missing or out of range and required some pre-processing or filtering steps to complete and validate raw data before any further investigations. In this context, the objective of this work is to design an automatic numeric system able to manage such amount of data in order to further knowledge on water quality and more precisely with consideration about phytoplankton determinism and dynamics. Main phase is the methodological development of phytoplankton bloom forecasting models giving the opportunity to end-user to handle well-adapted protocols. We propose to use hybrid Hidden Markov Model to detect and forecast environment states (identification of the main phytoplankton bloom steps and associated hydrological conditions). The added-value of our approach is to hybrid our model with a spectral clustering algorithm. Thus all HMM parameters (states, characterisation and dynamics of these states) are built by unsupervised learning. This approach was applied on three data bases: first one from the marine instrumented station MAREL Carnot (Ifremer) (2005-2009), second one from a Ferry Box system implemented in the eastern English Channel en 2012 and third one from a freshwater fixed station in the river DeĂ»le in 2009 (Artois Picardie Water Agency). These works fall within the scope of a collaboration between IFREMER, LISIC/ULCO and Artois Picardie Water Agency in order to develop optimised systems to study effects of anthropogenic activities on aquatic systems functioning in a regional context of massive blooms of the harmful algae, Phaeocystis globosa.La prise de conscience des problĂšmes d'environnement et des effets directs et indirects des activitĂ©s humaines a conduit Ă  renforcer la surveillance haute frĂ©quence des Ă©cosystĂšmes marins par l'installation de stations de mesures multicapteurs autonomes. Les capteurs, installĂ©s dans des milieux hostiles, sont sujets Ă  des pĂ©riodes de calibration, d'entretien voire des pannes et sont donc susceptibles de gĂ©nĂ©rer des donnĂ©es bruitĂ©es, manquantes voire aberrantes qu'il est nĂ©cessaire de filtrer et complĂ©ter avant toute exploitation ultĂ©rieure. Dans ce contexte, l'objectif du travail est de concevoir un systĂšme numĂ©rique automatisĂ© robuste capable de traiter de tel volume de donnĂ©es afin d’amĂ©liorer les connaissances sur la qualitĂ© des systĂšmes aquatiques, et plus particuliĂšrement en considĂ©rant le dĂ©terminisme et la dynamique des efflorescences du phytoplancton. L'Ă©tape cruciale est le dĂ©veloppement mĂ©thodologique de modĂšles de prĂ©diction des efflorescences du phytoplancton permettant aux utilisateurs de disposer de protocoles adĂ©quats. Nous proposons pour cela l'emploi du modĂšle de Markov cachĂ© hybridĂ© pour la dĂ©tection et la prĂ©diction des Ă©tats de l'environnement (caractĂ©risation des phases clefs de la dynamique et des caractĂ©ristiques hydrologiques associĂ©es). L'originalitĂ© du travail est l'hybridation du modĂšle de Markov par un algorithme de classification spectrale permettant un apprentissage non supervisĂ© conjoint de la structure, sa caractĂ©risation et la dynamique associĂ©e. Cette approche a Ă©tĂ© appliquĂ©e sur trois bases de donnĂ©es rĂ©elles : la premiĂšre issue de la station marine instrumentĂ©e MAREL Carnot (Ifremer) (2005-2009), la seconde d’un systĂšme de type Ferry Box mis en Ɠuvre en Manche orientale en 2012 et la troisiĂšme d’une station de mesures fixe, installĂ©e le long de la riviĂšre DeĂ»le en 2009 (Agence de l’Eau Artois Picardie - AEAP). Le travail s’inscrit dans le cadre d’une collaboration Ă©troite entre l'IFREMER, le LISIC/ULCO et l'AEAP afin de dĂ©velopper des systĂšmes optimisĂ©s pour l’étude de l’effet des activitĂ©s anthropiques sur le fonctionnement des Ă©cosystĂšmes aquatiques et plus particuliĂšrement dans le contexte des efflorescences de l’algue nuisible, Phaeocystis globosa

    Société Francophone de Classification (SFC) Actes des 26Úmes Rencontres

    Get PDF
    National audienceLes actes des rencontres de la SociĂ©tĂ© Francophone de Classification (SFC, http://www.sfc-classification.net/) contiennent l'ensemble des contributions,prĂ©sentĂ©s lors des rencontres entre les 3 et 5 septembre 2019 au Centre de Recherche Inria Nancy Grand Est/LORIA Nancy. La classification sous toutes ces formes, mathĂ©matiques, informatique (apprentissage, fouille de donnĂ©es et dĂ©couverte de connaissances ...), et statistiques, est la thĂ©matique Ă©tudiĂ©e lors de ces journĂ©es. L'idĂ©e est d'illustrer les diffĂ©rentes facettes de la classification qui reflĂštent les intĂ©rĂȘts des chercheurs dans la matiĂšre, provenant des mathĂ©matiques et de l'informatique
    • 

    corecore