15 research outputs found

    Contribution Ă  la maintenance des ontologies Ă  partir d'analyses textuelles : extraction de termes et de relations entre termes

    Get PDF
    Les ontologies sont des nouvelles formes de contrôle intelligent de l'information. Elles présentent un savoir préalable requis pour un traitement systématique de l'information à des fins de navigation, de rappel, de précision, etc. Toutefois, les ontologies sont confrontées de façon continue à un problème d'évolution. Étant donné la complexité des changements à apporter, un processus de maintenance, du moins semi-automatique, s'impose de plus en plus pour faciliter cette tâche et assurer sa fiabilité.\ud L'approche proposée trouve son fondement dans un modèle cognitif décrivant un processus d'extraction de connaissances à partir de textes et de thésaurus. Nous mettons ainsi, les textes au centre du processus d'ingénierie des connaissances et présentons une approche se démarquant des techniques formelles classiques en représentation de connaissances par son indépendance de la langue. Les traitements textuels sont fondés principalement sur un processus de classification supporté par un réseau de neurones (ART 1) et sur l'Indexation Sémantique Latente appliquée sur des classes de termes. Partant de l'hypothèse que l'extraction -de connaissances à partir de textes ne peut se contenter d'un traitement statistique (ni même linguistique) de données textuelles pour accaparer toute leur richesse sémantique, un processus d'extraction de connaissances à partir d'un thésaurus a été conçu afin d'intégrer, le mieux possible, les connaissances du domaine au sein de l'ontologie. Ce processus est fondé principalement sur un calcul d'associations sémantiques entre des Vecteurs Conceptuels. Le modèle proposé représente une chaîne de traitement (ONTOLOGICO) au sein de la plateforme\ud SATIM. Ce modèle vise à assister les experts de domaine dans leur tâche de conceptualisation et de maintenance des ontologies en se basant sur un processus itératif supporté par un ensemble de modules, en particulier, un extracteur de termes, un lemmatiseur, un segmenteur, un classifieur, un module de raffinement sémantique basé sur l'Indexation Sémantique Latente et un identificateur de termes reliés basé sur le calcul de similarité sémantique entre les couples de vecteurs conceptuels. La découverte de relations entre termes pour les besoins d'une conceptualisation de domaine s'avère être le résultat d'une complémentarité de traitements appliqués tant sur des textes de domaine que sur un thésaurus. D'une part, les analyses textuelles fondées principalement sur l'application de l'Indexation Sémantique Latente sur des classes de termes génèrent des relations sémantiques précises. D'autre part, l'extraction de relations sémantiques à partir d'un thésaurus, en se basant sur une représentation par des Vecteurs conceptuels, constitue un choix théorique judicieux et performant. Ce processus joue en effet, un rôle important dans la complétude des relations.\ud Ce projet de recherche se place au coeur des échanges entre terminologie et acquisition de connaissances. Il amène une réflexion sur les divers paliers à envisager dans une telle démarche de modélisation de connaissances textuelles pour des objectifs de maintenance d'une ontologie de domaine. La méthodologie proposée constitue une aide précieuse dans le domaine de la maintenance des ontologies. Elle assiste les terminologues chargés de naviguer à travers de vastes données textuelles pour extraire et normaliser la terminologie et facilite la tâche des ingénieurs en connaissances, chargés de modéliser des domaines. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Maintenance d'ontologie, Traitement Automatique du Langage Naturel (TALN), Indexation Sémantique Latente, Vecteurs Conceptuels, Classification automatique, Réseaux de Neurones

    Estimation automatique des impressions véhiculées par une photographie de visage

    Get PDF
    Picture selection is a time-consuming task for humans and a real challenge for machines, which have to retrieve complex and subjective information from image pixels. An automated system that infers human feelings from digital portraits would be of great help for profile picture selection, photo album creation or photo editing. In this work, several models of facial pictures evaluation are defined. The first one predicts the overall aesthetic quality of a facial image by computing 15 features that encode low-level statistics in different image regions (face, eyes and mouth). Relevant features are automatically selected by a feature ranking technique, and the outputs of 4 learning algorithms are fused in order to make a robust and accurate prediction of the image quality. Results are compared with recent works and the proposed algorithm obtains the best performance. The same pipeline is then considered to evaluate the likability and competence induced by a facial picture, with the difference that the estimation is based on high-level attributes such as gender, age and smile. Performance of these attributes is compared with previous techniques that mostly rely on facial keypoints positions, and it is shown that it is possible to obtain predictions that are close to human perception. Finally, a combination of both models that selects a likable facial image of good aesthetic quality for a given person is described.Avec le développement des appareils photos numériques et des sites de partage de photos, nous passons une part croissante de notre temps à observer, sélectionner et partager des images, parmi lesquelles figurent un grand nombre de photos de visage. Dans cette thèse, nous nous proposons de créer un premier système entièrement automatique renvoyant une estimation de la pertinence d'une photo de visage pour son utilisation dans la création d'un album de photos, la sélection de photos pour un réseau social ou professionnel, etc. Pour cela, nous créons plusieurs modèles d'estimation de la pertinence d'une photo de visage en fonction de son utilisation. Dans un premier temps, nous adaptons les modèles d'estimation de la qualité esthétique d'une photo au cas particulier des photos de visage. Nous montrons que le fait de calculer 15 caractéristiques décrivant différents aspects de l'image (texture, illumination, couleurs) dans des régions spécifiques de l'image (le visage, les yeux, la bouche) améliore significativement la précision des estimations par rapport aux modèles de l'état de l'art. La précision de ce modèle est renforcée par la sélection de caractéristiques adaptées à notre problème, ainsi que par la fusion des prédictions de 4 algorithmes d'apprentissage. Dans un second temps, nous proposons d'enrichir l'évaluation automatique d'une photo de visage en définissant des modèles d'estimation associés à des critères tels que le degré de sympathie ou de compétence dégagé par une photo de visage. Ces modèles reposent sur l'utilisation d'attributs de haut niveau (présence de sourire, ouverture des yeux, expressions faciales), qui se montrent plus efficaces que les caractéristiques de bas niveau utilisées dans l'état de l'art (filtres de Gabor, position des points de repère du visage). Enfin, nous fusionnons ces modèles afin de sélectionner automatiquement des photos de bonne qualité esthétique et appropriées à une utilisation donnée : photos inspirant de la sympathie à partager en famille, photos dégageant une impression de compétence sur un réseau professionnel

    Contributions au tri automatique de documents et de courrier d'entreprises

    Get PDF
    Ce travail de thèse s inscrit dans le cadre du développement de systèmes de vision industrielle pour le tri automatique de documents et de courriers d entreprises. Les architectures existantes, dont nous avons balayé les spécificités dans les trois premiers chapitres de la thèse, présentent des faiblesses qui se traduisent par des erreurs de lecture et des rejets que l on impute encore trop souvent aux OCR. Or, les étapes responsables de ces rejets et de ces erreurs de lecture sont les premières à intervenir dans le processus. Nous avons ainsi choisi de porter notre contribution sur les aspects inhérents à la segmentation des images de courriers et la localisation de leurs régions d intérêt en investissant une nouvelle approche pyramidale de modélisation par coloration hiérarchique de graphes ; à ce jour, la coloration de graphes n a jamais été exploitée dans un tel contexte. Elle intervient dans notre contribution à toutes les étapes d analyse de la structure des documents ainsi que dans la prise de décision pour la reconnaissance (reconnaissance de la nature du document à traiter et reconnaissance du bloc adresse). Notre architecture a été conçue pour réaliser essentiellement les étapes d analyse de structures et de reconnaissance en garantissant une réelle coopération entres les différents modules d analyse et de décision. Elle s articule autour de trois grandes parties : une partie de segmentation bas niveau (binarisation et recherche de connexités), une partie d extraction de la structure physique par coloration hiérarchique de graphe et une partie de localisation de blocs adresse et de classification de documents. Les algorithmes impliqués dans le système ont été conçus pour leur rapidité d exécution (en adéquation avec les contraintes de temps réels), leur robustesse, et leur compatibilité. Les expérimentations réalisées dans ce contexte sont très encourageantes et offrent également de nouvelles perspectives à une plus grande diversité d images de documents.This thesis deals with the development of industrial vision systems for automatic business documents and mail sorting. These systems need very high processing time, accuracy and precision of results. The current systems are most of time made of sequential modules needing fast and efficient algorithms throughout the processing line: from low to high level stages of analysis and content recognition. The existing architectures that we have described in the three first chapters of the thesis have shown their weaknesses that are expressed by reading errors and OCR rejections. The modules that are responsible of these rejections and reading errors are mostly the first to occur in the processes of image segmentation and interest regions location. Indeed, theses two processes, involving each other, are fundamental for the system performances and the efficiency of the automatic sorting lines. In this thesis, we have chosen to focus on different sides of mail images segmentation and of relevant zones (as address block) location. We have chosen to develop a model based on a new pyramidal approach using a hierarchical graph coloring. As for now, graph coloring has never been exploited in such context. It has been introduced in our contribution at every stage of document layout analysis for the recognition and decision tasks (kind of document or address block recognition). The recognition stage is made about a training process with a unique model of graph b-coloring. Our architecture is basically designed to guarantee a good cooperation bewtween the different modules of decision and analysis for the layout analysis and the recognition stages. It is composed of three main sections: the low-level segmentation (binarisation and connected component labeling), the physical layout extraction by hierarchical graph coloring and the address block location and document sorting. The algorithms involved in the system have been designed for their execution speed (matching with real time constraints), their robustness, and their compatibility. The experimentations made in this context are very encouraging and lead to investigate a wider diversity of document images.VILLEURBANNE-DOC'INSA-Bib. elec. (692669901) / SudocSudocFranceF

    SARIPOD : Système multi-Agent de Recherche Intelligente POssibiliste de Documents Web

    Get PDF
    La présente thèse de doctorat en informatique propose un modèle pour une recherche d'information intelligente possibiliste des documents Web et son implémentation. Ce modèle est à base de deux Réseaux Petits Mondes Hiérarchiques (RPMH) et d'un Réseau Possibiliste (RP) : Le premier RPMH consiste à structurer les documents retrouvés en zones denses de pages Web thématiquement liées les unes aux autres. Nous faisons ainsi apparaître des nuages denses de pages qui traitent d'un sujet et des sujets connexes (assez similaires sémantiquement) et qui répondent toutes fortement à une requête. Le second RPMH est celui qui consiste à ne pas prendre les mots-clés tels quels mais à considérer une requête comme multiple en ce sens qu'on ne cherche pas seulement le mot-clé dans les pages Web mais aussi les substantifs qui lui sont sémantiquement proches. Les Réseaux Possibilistes combinent les deux RPMH afin d'organiser les documents recherchés selon les préférences de l'utilisateur. En effet, l'originalité du modèle proposé se décline selon les trois volets suivants qui synthétisent nos contributions. Le premier volet s'intéresse au processus itératif de la reformulation sémantique de requêtes. Cette technique est à base de relations de dépendance entre les termes de la requête. Nous évaluons notamment les proximités des mots du dictionnaire français « Le Grand Robert » par rapport aux termes de la requête. Ces proximités sont calculées par le biais de notre approche de recherche des composantes de sens dans un RPMH de dictionnaire de mots par application d'une méthode basée sur le dénombrement des circuits dans le réseau. En fait, l'utilisateur du système proposé choisit le nombre de mots sémantiquement proches qu'il désire ajouter à chaque terme de sa requête originelle pour construire sa requête reformulée sémantiquement. Cette dernière représente la première partie de son profil qu'il propose au système. La seconde partie de son profil est constituée des choix des coefficients de pertinence possibilistes affectés aux entités logiques des documents de la collection. Ainsi, notre système tient compte des profils dynamiques des utilisateurs au fur et à mesure que ces derniers utilisent le système. Ce dernier est caractérisé par son intelligence, son adaptativité, sa flexibilité et sa dynamicité. Le second volet consiste à proposer des relations de dépendance entre les documents recherchés dans un cadre ordinal. Ces relations de dépendance entre ces documents traduisent les liens sémantiques ou statistiques évaluant les distributions des termes communs à des paires ou ensembles de documents. Afin de quantifier ces relations, nous nous sommes basés sur les calculs des proximités entres ces documents par application d'une méthode de dénombrement de circuits dans le RPMH de pages Web. En effet, les documents peuvent ainsi être regroupés dans des classes communes (groupes de documents thématiquement proches). Le troisième volet concerne la définition des relations de dépendance, entre les termes de la requête et les documents recherchés, dans un cadre qualitatif. Les valeurs affectées à ces relations traduisent des ordres partiels de préférence. En fait, la théorie des possibilités offre deux cadres de travail : le cadre qualitatif ou ordinal et le cadre quantitatif. Nous avons proposé notre modèle dans un cadre ordinal. Ainsi, des préférences entre les termes de la requête se sont ajoutées à notre modèle de base. Ces préférences permettent de restituer des documents classés par préférence de pertinence. Nous avons mesuré aussi l'apport de ces facteurs de préférence dans l'augmentation des scores de pertinence des documents contenant ces termes dans le but de pénaliser les scores de pertinence des documents ne les contenant pas. Pour la mise en place de ce modèle nous avons choisi les systèmes multi-agents. L'avantage de l'architecture que nous proposons est qu'elle offre un cadre pour une collaboration entre les différents acteurs et la mise en œuvre de toutes les fonctionnalités du système de recherche d'information (SRI). L'architecture s'accorde parfaitement avec le caractère intelligent possibiliste et permet de bénéficier des capacités de synergie inhérente entre les différentes composantes du modèle proposé. Dans le présent travail, nous avons donc pu mettre en exergue à travers les expérimentations effectuées l'intérêt de faire combiner les deux RPMH via un réseau possibiliste dans un SRI, ce qui permet d'enrichir le niveau d'exploration d'une collection. Ce dernier n'est pas limité aux documents mais l'étend en considérant les requêtes. En effet, la phase de reformulation sémantique de requête permet à l'utilisateur de profiter des autres documents correspondants aux termes sémantiquement proches des termes de la requête originelle. Ces documents peuvent exister dans d'autres classes des thèmes. En conséquence, une reclassification proposée par le système s'avère pertinente afin d'adapter les résultats d'une requête aux nouveaux besoins des utilisateurs. ABSTRACT : This Ph.D. thesis proposes a new model for a multiagent possibilistic Web information retrieval and its implementation. This model is based on two Hierarchical Small-Worlds (HSW) Networks and a Possibilistic Networks (PN): The first HSW consists in structuring the founded documents in dense zones of Web pages which strongly depend on each other. We thus reveal dense clouds of pages which "speak" more or less about the same subject and related subjects (semantically similar) and which all strongly answer user's query. The second HSW consists in considering the query as multiple in the sense that we don't seek only the keyword in the Web pages but also its semantically close substantives. The PN generates the mixing of these two HSW in order to organize the searched documents according to user's preferences. Indeed, the originality of the suggested model is declined according to three following shutters' which synthesize our contributions. The first shutter is interested in the iterative process of query semantic reformulation. This technique is based on relationship dependence between query's terms. We evaluate in particular the semantics proximities between the words of the French dictionary "Le Grand Robert" and query's terms. These proximities are calculated via our approach of research of the semantics components in the HSW of dictionary of words by application of our method of enumeration of circuits in the HSW of dictionary. In fact, the user of the suggested system chooses the number of close words that he desire to add to each word of his initial query to build his semantically reformulated query. This one represents the first part of user's profile which he proposes to the system. The second part of its profile makes up of its choices of the coefficients of relevance possibilistic of the logical entities of the documents of the collection. Thus, our system takes account of the dynamic profiles of its users progressively they use the system, which proves its intelligence, its adaptability, its flexibility and its dynamicity. The second shutter consists in proposing relationship dependence between documents of the collection within an ordinal framework. These relationships dependence between these documents represent the semantic or statistical links evaluating the distributions of the general terms to pairs or sets of documents.  In order to quantify these relationships, we are based on the calculations of the proximities between these documents by application of a method enumerating of circuits in the HSW of Web pages. Indeed, the documents can thus be clustered in common classes (groups of close documents). The third shutter is related to the definition of the relationships dependence between query's terms and documents of the collection, within a qualitative framework. The assigned values to these relations translate preferably partial orders. In fact, possibilistic theory offers two working frameworks:  the qualitative or ordinal framework and the numerical framework.  We proposed our model within an ordinal framework. Thus, we add to our basic model preferences between query's terms. These preferences make it possible to restore documents classified by relevance's preference. We also measured the contribution of these preferably factors in the increase of the relevance's scores of  documents containing these terms with an aim of penalizing the relevance's scores of the documents not containing them. For the installation of this model we chose multiagent systems. The advantage of the proposed architecture is that it offers a framework for collaboration between the various actors and the implementation of all the functionalities of the information retrieval system. Architecture agrees perfectly with the possibilistic intelligent character and makes it possible to profit from the capacities of inherent synergy in the suggested model. We thus could put forward, through the carried out experiments, the goal of combining the two HSW via a possibilistic network in an information retrieval system, which makes it possible to enrich the exploration level of a collection. This exploration is not only limited to the documents but it extends by considering also the query. Indeed, the semantic query reformulation phase makes it possible to benefit user from other documents which contain some close terms of the initial query. These documents can exist in other topics classes. Consequently, a reclassification suggested by the system proves its relevance in order to adapt query's results to new user's needs

    Fusion multi-sources pour l'interprétation d'un environnement routier

    No full text
    Exceeding speed limits is a major cause of road accidents, which could be reduced by the use of robust detection of speed limits that may continuously inform the driver of the proper speed limitation. The work presented in this document relate to the achievement of such a system based on a visual detection of speed limit signs. To make the system robust, it is necessary to merge the results of these detections with information from other sensors to interpret the results of the visual detection. For this aim, two algorithms were developed. First, a specific geographic information system was developed in order to expand the electronic horizon of the vehicle. The fusion process in place addressing these various sources of information is based on model-based rules to overcome the problems inherent to the probabilistic fusion process that can sometimes lead to uncertain situations putting the whole system in global fault. These works are the fruit of collaboration with an automotive supplier and the prototype has been validated experimentally on the road and in real conditions. A ground truth tool has been specially developed to quantify the results. The system shows excellent results with high detection and classification rates for speed limit signs recognition and complex situations analysis.Le dépassement des limitations de vitesse est l'une des causes majeures des accidents de la route, qui pourraient être réduits par l'utilisation de système robuste de détection des limitations de vitesse pouvant continuellement informer le conducteur de la bonne limitation imposée. Les travaux présentés dans ce document portent sur la réalisation d'un tel système basé sur une détection visuelle des panneaux de limitation de vitesse. Afin de rendre le système robuste, il est nécessaire de fusionner les résultats de ces détections avec les informations d'autres capteurs pour interpréter les résultats issus de la détection visuelle. C'est ainsi qu'a été entre autre spécialement développé un capteur cartographique permettant d'avoir une vision plus large sur l'horizon électronique du véhicule, ainsi qu'un système détection des lignes de marquage au sol pour analyser les changements de voie. Le processus de fusion mis en place traitant ces diverses sources d'information est fondé sur des modèles à base de règles permettant de s'affranchir des problèmes inhérents aux processus de fusion probabilistes pouvant parfois mener à des situations de doute mettant le système global en faute. Ces travaux sont le fruit d'une collaboration avec un industriel et le prototype développé a été validé expérimentalement sur route. Un outil de vérité terrain a été spécialement développé pour quantifier les résultats. Le système montre d'excellents résultats en détection et reconnaissance des panneaux de limitation de vitesse ainsi que dans la clarification de situations complexes

    Gouverner par le temps: Sociologie politique des agendas personnels et des emplois du temps d'acteurs publics

    Get PDF
    La sociologie des temporalités et l'anthropologie de l'agenda personnel révèle les significations « civilisationnelles » de cet outil ordinaire de gestion du temps des individus modernes. Il est à la fois un vecteur rationnel d'auto-contrôle, d'une aliénation planifiée condamnant au « présentisme », mais il est aussi l'instrument d'une gestion individuelle émancipatrice des temporalités plurielles, des frontières et des rôles. Ses usages en politique témoignent des logiques de l'accélération généralisée des sociétés, d'un raccourcissement des horizons, d'une disparition des futurs possibles, d'une saturation des temps du représentant politique par les réunions, les rendez-vous et les cérémonies, par l'animation, la médiation, les clientèles et la parade, par l'urgence et la multi-activité connectée, on line et en temps réel, au détriment « des dossiers » et de « la réflexion » sur les projets de sociétés qu'il est censé porter. Mais cet agenda outil de synchronisation des temporalités plurielles des acteurs publics de la démocratie reste un observatoire sous-exploité des logiques du travail de représentation, de gouvernement et, in fine, de légitimation. L'ambition est alors de dessiner l'agenda comme une fenêtre sur la gestion du temps en politique, le rythme, la nature et la répartition des tâches dans l'emploi du temps des élus et des dirigeants politiques. Il s'agit se structurer l'approche du politique par les agendas personnels des acteurs du champ du pouvoir, à partir de trois axes horizontaux d'interprétation de leurs usages : le gouvernement de soi, l'organisation collective et la mise en scène du travail politique. Ces lectures croisent la double dimension de l'objet, à la fois dispositif de planification à observer et corpus d'événements à exploiter. L'analyse montre que l'agenda du politique est d'abord une écriture programmatrice et mémorielle, une auto-discipline équipée. Il permet d'incorporer les exigences et les attendus du métier, de domestiquer l'urgence et de produire une image exemplaire. L'analyse souligne ensuite que l'agenda est un dispositif organisationnel de coordination managériale, de rationalisation et de professionnalisation du travail politique individuel et collectif. L'efficience de l'entreprise de représentation politique passe par une optimisation du temps. Le pouvoir reposerait de ce point de vue d'abord sur une bonne gestion de ce temps. L'analyse montre enfin que l'agenda reste surtout un vecteur de légitimation de la domination. La mise en scène quotidienne de soi et du leadership auquel la publication de l'agenda personnel donne lieu joue avec l'impératif de transparence et l'exigence de proximité, sans toutefois révéler les secrets du pouvoir

    De la neurochirurgie guidée par l'image,<br />au processus neurochirurgical assisté par la connaissance et l'information

    No full text
    La totalité des services français de neurochirurgie est aujourd'hui équipée de systèmes de neuronavigation. Ces systèmes de chirurgie guidée par l'image permettent le lien direct entre le patient, en salle d'opération, et ses images pré opératoires ; c'est-à-dire que le neurochirurgien, en salle d'opération et à tout instant, connaît, à partir d'un point désigné sur le patient par un outil, le point correspondant dans ses images d'IRM ou de Scanner X. Ceci est possible grâce à des localisateurs tridimensionnels et des logiciels de recalage d'images. Les bénéfices de tels systèmes pour le patient ont déjà été montrés. Ils rendent notamment la chirurgie plus sûre et moins invasive.Il est important de considérer le concept de chirurgie guidée par l'image comme un processus qui ne se réduit pas à la seule étape de réalisation du geste chirurgical. Depuis près d'une dizaine d'années, il existe un consensus sur l'importance de l'étape de préparation pour anticiper la réalisation du geste. Ce processus peut aussi inclure des étapes de choix de la stratégie chirurgicale, de simulation ou de répétition du geste et de suivi post opératoire du patient. Chaque étape de ce processus se fonde sur des observations liées au patient, comme ses images pré opératoires, sur des connaissances génériques explicites, comme des livres ou des atlas numériques d'anatomie, et sur des connaissances implicites résultant de l'expérience du chirurgien. Malgré cela, dans les systèmes actuels de chirurgie guidée par l'image, la seule information explicite utilisée est, le plus souvent, réduite à une simple imagerie anatomique. Alors que si l'on introduisait dans ces systèmes les images multimodales du patient, on prendrait mieux en compte la complexité anatomique, physiologique et métabolique des structures cérébrales. Sans compter que dans ces systèmes, la préparation de la procédure chirurgicale se réduit principalement à la définition de la cible et d'une trajectoire d'accès rectiligne. Si l'on considérait la procédure comme une succession d'étapes et d'actions, on permettrait au neurochirurgien de mieux préparer et, donc, de mieux réaliser son geste. Son savoir-faire implicite pourrait être explicité. Enfin, ces systèmes ne tiennent pas compte des déformations anatomiques intra opératoires dues, notamment, au geste chirurgical. Ainsi, les images pré opératoires du patient deviennent rapidement obsolètes et ne correspondent plus à la réalité anatomique du patient.Il existe donc un fossé entre la chirurgie telle qu'elle est vue par ces systèmes et la réalité chirurgicale. C'est ce fossé que je cherche à combler.Mes travaux de recherche se situent dans le domaine du génie biologique et médical. Ils incluent des aspects liés au traitement d'images et à l'informatique médicale. Le domaine d'application est la neurochirurgie. Les méthodes mises en oeuvre dans les travaux que je présenterai s'appuient sur un concept de coopération entre observations et connaissances. Ainsi, sur l'aspect observations, je présenterai l'introduction d'images multimodales du patient, dans le processus chirurgical, qu'elles soient pré ou intra opératoires. Sur l'aspect connaissances, je présenterai une démarche qui permet de formaliser certaines connaissances relatives à la neurochirurgie.La méthodologie de recherche que j'ai utilisée suit une approche itérative, où l'application clinique est centrale. A partir des connaissances médicales, les spécifications d'un nouveau projet sont définies. Ces spécifications entraînent le développement de nouvelles méthodes et leur implémentation par le biais d'un prototype d'application. Ce prototype permet, grâce àune utilisation pré clinique, d'évaluer ces méthodes. Cette implémentation et cette phase d'utilisation autorisent aussi un retour vers la méthode, pour vérifier la pertinence des choix réalisés et pour contribuer à son amélioration. Enfin, cette boucle permet une validation des connaissances initiales et un possible enrichissement de celles-ci. Les objectifs de mes recherches sont donc, à la fois, l'élaboration de nouveaux systèmes d'intérêt thérapeutique et la génération de nouvelles connaissances chirurgicales.Ce document aborde trois domaines principaux : la neurochirurgie guidée par l'image, la neurochirurgie guidée par l'information et la validation des outils de traitement d'images médicales en chirurgie guidée par l'image. Pour chacun de ces domaines, je présenterai le contexte et l'état de l'art, les contributions personnelles apportées au domaine et ses perspectives d'évolution.Dans le premier chapitre, je présenterai comment l'imagerie médicale peut assister la chirurgie. Pour cela, j'introduirai les méthodes de traitement d'images, plus particulièrement le recalage et la fusion d'images médicales. Ces dernières sont incontournables en neurochirurgie guidée par l'image, le principe même de ce type de chirurgie étant cette mise en correspondance géométrique entre repère des images et repère du patient. Puis, je présenterai le principe du processus chirurgical assisté par l'image, en décrivant les différentes étapes mises en jeu dans un tel processus. Je présenterai mes contributions : 1) l'introduction du concept de neuronavigation multimodale et multi informationnelle, et 2) l'introduction du concept de virtualité augmentée, en complément aux approches de réalité augmentée.Dans le deuxième chapitre, je présenterai le concept récent de chirurgie guidée par l'information, qui s'appuie sur une formalisation du processus chirurgical et des connaissances associées. Nous verrons que ce processus peut être étudié selon différents angles, chaque angle d'étude correspondant à un objectif applicatif précis. Je présenterai une méthodologie complète permettant supervision et apprentissage par : 1) la prise en compte, dans le processus de chirurgie guidée par l'image multimodale, de certaines connaissances implicites du chirurgien, notamment liées à son expertise chirurgicale, en les rendant explicites, et 2) la génération de connaissances sur la chirurgie.Les deux premiers chapitres démontrent comment il peut être intéressant de faire coopérer images et connaissances. Dans le troisième chapitre, nous proposerons d'appliquer ce concept de coopération entre observations et connaissances au contexte des déformations anatomiques intra opératoires. Nous montrerons la complexité de ce phénomène, et de ses causes, et les limites des méthodes présentées dans la littérature. Nous décrirons succinctement comment ce concept pourra être appliqué dans le cadre d'un projet de recherche qui débute.Dans le quatrième chapitre, j'insisterai sur l'importance de la validation des outils de traitement d'images en chirurgie guidée par l'image. J'introduirai la terminologie et la méthodologie liées à la validation principalement technique des outils de traitement d'images, en soulignant le besoin de standardisation. Je présenterai mes contributions au domaine : la définition d'une méthodologie standardisée pour la validation des méthodes de recalage d'images médicales, basée sur la comparaison avec une référence.Je terminerai, dans le cinquième chapitre, par une ébauche de description des évolutions à court et à long terme de la chirurgie, s'inspirant des réflexions et résultats des chapitres précédents

    Approche intégrée pour évaluer la vulnérabilité aux impacts des changements climatiques : cas du bassin versant de l'Artibonite en Haïti

    Get PDF
    Depuis plusieurs années, les pays du monde entier sont préoccupés par la question des changements climatiques et leurs impacts. En termes d’impacts, les pays qui les subiront le plus, sont les plus pauvres. En effet, ces pays sont déjà dans un état de fragilité que les changements climatiques contribueront à aggraver. Pour certains auteurs, pour que les efforts en termes d’adaptation soient concluant, il faut s’intéresser non pas aux impacts des changements climatiques en tant que tel, mais plutôt, aux impacts qu’ils ont sur ce qui a de la valeur pour les communautés qui les vivent. En effet, si les perceptions du bien-être déterminent les choix en matière de stratégie de subsistance par les individus et les ménages, et donc leurs priorités, les perceptions de la vulnérabilité aux changements climatiques détermineront les choix et les attitudes face aux changements dans le milieu. Cela est d’autant plus vrai dans le cas des pays en développement où le rapport à la nature revêt des aspects spirituels, psychologiques et culturels; sans oublier son rôle dans les activités de subsistance. Une grande partie de la population de ces pays dépendent de l’agriculture pour leur subsistance; et ces activités sont la plupart du temps dépendantes du climat. Haïti, pays insulaire, fortement exposé aux catastrophes climatiques, pauvre et dépendant de l’agriculture mérite une attention particulière. Cette étude vise à développer un cadre méthodologique qui permette d’analyser la question de la vulnérabilité aux changements sous différents aspects, à l’aide du cas du bassin versant de l’Artibonite. Elle part du constat que la plupart des études réalisées sur les changements climatiques dans le monde et en Haïti en particulier adoptent une approche descendante (peu holistique) et manquent surtout de considérer les aspects subjectifs, pourtant importants, que sont les perceptions des perceptions des personnes concernées par les changements. Cette recherche a utilisé une approche intégrée qui a tenu compte de l’échelle du locale (individus et ménages) que du régional (arrondissement); de données subjectives (perceptions) que de données plus « objectives ». Les méthodes de recherche utilisées sont les entrevues individuelles dirigées et non-dirigées, des entrevues de groupe non-dirigées, des guides d’entrevue et des questionnaires, ainsi que l’analyse statistique. Ainsi, elle a permis de montrer que la question des changements climatiques ne fait pas forcément partie des priorités des populations du bassin versant de l’Artibonite, contrairement à ce qu’on pourrait préjuger. Pourtant elles sont exposées aux changements et constatent des changements dans leur environnement. Elles n’attribuent pas forcément ces changements aux changements climatiques et cela se traduit par la quasi-inexistence de stratégies d’adaptation. Cependant, quand le lien est établi, elles décrivent avec précision les changements qu’elles vivent et identifient les facteurs qui selon elles influencent leur vulnérabilité. Ces facteurs sont le statut socio-économique, le clivage urbain/rural, le manque d’accès à certains biens et services. Tout cela rejoint les résultats issus du calcul d’un indice de vulnérabilité calculé de façon plus objective et à une échelle plus macro. La conclusion est que, pour que les efforts d’adaptation puissent être efficaces, il est important de tenir compte de ce qui importe le plus pour les populations concernées. Plus concrètement, il s’agira d’impliquer ces dernières dans les recherches visant à trouver des solutions à leurs problèmes et de se baser sur les ressources locales pour appliquer les solutions qui auraient été trouvées. De plus, dans un tel contexte de pauvreté, il est nécessaire que tout projet ou programme d’adaptation intègre le double objectif de réduction de la pauvreté et d’adaptation aux changements climatiques. Mots clés : eau, perceptions, représentations sociales, développement local, changements climatiques, vulnérabilité, vulnérabilité sociale, systèmes et moyens de subsistance, théorisation ancrée, SOLAP, bassin versant de l’Artibonite, Haïti et île d’Hispaniola.For several years, countries around the world have been concerned about climate change and its impacts. In terms of impact, the countries that will suffer the most are the poorest. Indeed, these countries are already in a fragile state that climate change will contribute to worsen. According to some authors, that the efforts in terms of adaptation to be successful, we need to look not to the impacts of climate change as such, but rather, the impacts they have on what has value to communities lives. If perceptions of well-being determine individual and household livelihood choices and hence their priorities, perceptions of vulnerability to climate change will determine choices and attitudes to changes in the environment. This is especially true in developing countries where the relationship with nature is of spiritual, psychological and cultural; not to mention its role in subsistence activities. Much of the population of these countries depend on agriculture for their livelihoods; and these activities are most of time, climate dependent. Haiti, an island country, highly exposed to climate disasters, poor and dependent on agriculture deserves special attention. This study aims to develop a methodological framework to analyze the issue of vulnerability to changes in different aspects, using the case of the watershed of the Artibonite in Haïti. It starts from the observation that most of the studies on climate change in the world, and Haiti in particular, adopt a top-down and sectorial-based approach, and lack considering subjective aspects, yet important, as are the perceptions of people affected by the changes. This research used an integrated approach that took into account as much local (individuals and households) as regional; subjective data (perceptions) "objective" data. The research methods used are non-directed individual interviews and focus-group, and directed individual interviews. Thus, it has shown that the issue of climate change is not necessarily part of the watershed of the Artibonite population priorities, contrary to what one might anticipate. Yet, they are exposed to changes and experience changes in their environment. They do not necessarily attribute these changes to climate change and this is reflected in the virtual absence of adaptation strategies. However, when the link is established, they accurately describe the changes they live and identify which factors influence their vulnerability. These factors include socioeconomic status, urban / rural divide, lack of access to certain goods and services. All this joined the results from the social vulnerability index calculated more objectively and more at a regional scale. The conclusion is that, for adaptation efforts to be effective, it is important to consider what matters most to the people. More specifically, they should be involved in any research which aim to find solutions to their problems and; the implementation of any adaptation or coping strategy must rely on local resources. Moreover, in such a context of poverty, it is necessary that any adaptation project or program should integrate the dual objective of poverty reduction and adaptation to climate change. Keywords: water, perceptions, social representations, local development, climate change, vulnerability, social vulnerability, livelihoods, grounded theory, SOLAP, Artibonite watershed, Haiti and Hispaniola
    corecore