501 research outputs found

    Conception d'interfaces humains-machines pour la conduite de systèmes complexes

    Get PDF
    État de l'art -- Méthodes de conception -- La méthode traditionnelle -- La méthode EID -- La méthode IMAC -- La méthode Woods et Roth -- Le système Predex -- Le système Formentor -- La proposition méthodologique de Neboit, Guillermain, Fadier -- Les résultats de Siebert, Sicard et Thebault -- L'opérateur, sa Tâche et le processus -- Modèles de performances de l'opérateur -- Définition des tâches génériques de conduite -- Intégration des connaissances avec les tâches génériques -- Architecture générique d'IHM -- Mise en oeubre de Tagci -- Collecte des informations -- Validation de la méthode TAGCI-Situations normales Validation de la méthode TAGCI -Situations anormales -- Validation expérimentale de Tagci pour les situation incidentelles -- Validation de Tagci dans une application nucléaire -- Contributions à l'avancement de la connaissance -- Pistes de recherche à explorer

    Analyse d'image visibles et proche infrarouges : contributions à l'évaluation non-destructive du persillage dans la viande du boeuf

    Get PDF
    Le persillage (gras intramusculaire) dans la viande de boeuf est l'un des critères les plus importants pour l'évaluation de la qualité, notamment sa jutosité, dans les systèmes de classification de la viande. Le processus chimique, méthode destructive, est l'unique moyen officiellement utilisé pour évaluer la proportion du persillage dans la viande. C'est une méthode destructive, complexe et qui n'offre aucune information sur la distribution du persillage dans la viande. Cette thèse porte sur le développement d'une méthode originale destinée à l'évaluation non-destructive de la proportion volumétrique du persillage dans la viande du boeuf. Cette nouvelle méthode, qui pourrait être intégrée dans un système de vision artificielle (machine vision), est une première expérience pour ce genre d'application. À notre meilleure connaissance, aucune méthode semblable n'a été élaborée. De ces travaux de doctorat quatre contributions sont identifiées: la technique proposée, deux méthodes de segmentation d'images et une méthode non-destructive pour estimer la proportion volumétrique du persillage. La technique proposée permet d'avoir deux types d'images : une visible qui illustre la surface de la viande et une proche infrarouge qui est la projection orthogonale de l'échantillon de la viande (3D) en une image d'ombre (2D). Compte tenu de la complexité d'analyse des images, nous avons développé une méthode efficace de segmentation permettant d'identifier les régions homogènes les plus (ou les moins) claires dans une image à niveaux de gris. Cette méthode, qui est relativement générale, est basée sur un modèle mathématique permettant d'évaluer l'homogénéité des régions, qui lui-même a été introduit dans cette thèse. La généralisation de cette méthode pour la segmentation du persillage a démontré des résultats satisfaisants face aux objectifs attendus. Étant donné, que la forme volumétrique du persillage est aléatoire et que celle-ci dépend de la façon dont le persillage est déposé entre les fibres musculaires, ce qui est imprévisible, nous avons combiné les résultats de la segmentation de deux types d'images pour estimer le volume du persillage. L'intégration de l'ensemble des approches précédentes nous a permis de développer une nouvelle méthode non-destructive pour estimer la proportion volumétrique du persillage. Les résultats obtenus par la méthode proposée (non-destructive) ont été comparés aux résultats obtenus par une méthode chimique (destructive) comme étant la vérité-terrain (gold standard). Les résultats expérimentaux confirment les propriétés attendues de la méthode proposée et ils illustrent la qualité des résultats obtenus

    Document interpretation using perceptive cycles to build coherent objects. Application to the french cadastral maps

    Get PDF
    The methodology we have used for the interpretation of the French cadastral documents focuses on a number of studied results of the visual perception and a hierarchical description of the document. The strategy used has been based on the « model » document, employing a mixed approach including various « points of view » about the image to be processed. The results of this mixed analysis reveal the appearance of non-interpretable objects on the cadasrer, due to the presence of incoherent semantics. Thanks to the return cycles between the high and low level processing, an analytical strategy is proposed and allows, in order to independently cure the incoherence, thus to attain the most reliable interpretation of the cadastral map.Notre méthodologie d'interprétation des documents cadastraux français s'appuie sur un certain nombre de résultats d'études sur la perception visuelle ainsi que sur une description hiérarchisée du document. La stratégie utilisée, basée sur le « modèle » du document, repose sur une approche mixte comportant différents « points de vue » de l'image à traiter. Les résultats de cette analyse mixte mettent en évidence l'apparition d'objets non interprétables au sens du cadastre, du fait de la présence d'incohérences sémantiques. Une stratégie d'analyse est alors proposée et permet, grâce à des cycles d'aller-retours entre les traitements hauts et bas niveaux, de résoudre les incohérences de façon autonome, ceci afin d'interpréter au plus sûr la planche cadastrale

    Multiagent system for data fusion in image processing

    Get PDF
    The data fusion of results in image processing poses many problems of modelling and representation of knowledge, among whic h one can mention : o the difficulty to define, exhaustively, the conditions of utilization of processings in function of the context , the difficulty to evaluate the results of processings , . the difficulty to elaborate strategies making cooperate several processings or merging results . The system ADAGAR (Atelier of Development of AGents on Distributed Architecture) proposes solutions to these problems . ADAGAR results from elaborated concepts in the project BBI (BlackBoard Image) . The aim of the project BBI was to conceive on a multi–processors architecture, a perceptive system of interpretation of images issued from different sources . The idea was not to elaborate new operators of image processing , but to develop a reception structure of existent processing . One of the particularities of the system lies in the expression of a priori valuation knowledge (scores of aptitude) . The formalizatio n of these knowledge is inspired of the theory of Dempster–Shafer. The formalism allows to represent the ignorance on condition s of activation of a processing in a particular context . The prototype BBI contains currently a thirty of agents . It functions on couples of aerial or satellitaire images in the visible and th e infrared spectra or in the visible and the radar spectra . BBI elaborates dynamically one or several strategies of research, from th e specificities of the processed images and objects to detect . The cooperations between processings at the low level, the information fusion and the focus of attention at the symbolic level are the main reasons of the good functioning of the prototype .La fusion des résultats en analyse d'images pose de nombreux problèmes de modélisation et de représentation des connaissances parmi lesquels, on peut mentionner: . la difficulté de définir exhaustivement les conditions d'utilisation des traitements en fonction du contexte, . la difficulté d'évaluer les résultats des traitements, . la difficulté d'élaborer des stratégies faisant coopérer plusieurs traitements ou fusionnant des résultats. Le système ADAGAR (Atelier de Développement d'AGents sur Architecture Répartie) propose des solutions à ces problèmes. ADAGAR résulte de concepts élaborés dans le projet BBI (BlackBoard Image). L'objectif du projet BBI était de concevoir sur une architecture multi-processeurs, un système perceptif d'interprétation d'images issues de sources différentes. L'idée n'était pas d'élaborer de nouveaux opérateurs de traitements d'images, mais de développer une structure d'accueil des traitements existants. Une des particularités du système réside dans l'expression de connaissances d'estimation a priori (scores d'aptitude). La formalisation de ces connaissances est inspirée de la théorie de Dempster-Shafer. Le formalisme employé permet de représenter l'ignorance sur les conditions d'activation d'un traitement dans un contexte particulier. Le prototype BBI contient actuellement une trentaine d'agents. Il fonctionne sur des couples d'images aériennes ou satellitaires dans les spectres visible/infrarouge et visible/radar. BBI élabore dynamiquement une ou plusieurs stratégies de recherche, à partir des spécificités des images traitées et des objets à détecter. Les coopérations entre les traitements au bas niveau, les fusions d'informations et les focalisations d'attention au niveau symbolique sont les principales raisons du bon fonctionnement du prototype. Intelligence artificielle distribuée, Système multi-agents, Système réparti, Interprétation d'images

    Détection et conciliation d'erreurs intégrées dans un décodeur vidéo : utilisation des techniques d'analyse statistique

    Get PDF
    This report presents the research conducted during my PhD, which aims to develop an efficient algorithm for correcting errors in a digital image decoding process and ensure a high level of visual quality of decoded images. Statistical analysis techniques are studied to detect and conceal the artefacts. A control loop is implemented for the monitoring of image visual quality. The manuscript consists in six chapters. The first chapter presents the principal state of art image quality assessment methods and introduces our proposal. This proposal consists in a video quality measurement tool (VQMT) using the Human Visual System to indicate the visual quality of a video (or an image). Three statistical learning models of VQMT are designed. They are based on classification, artificial neural networks and non-linear regression and are developed in the second, third and fourth chapter respectively. The fifth chapter presents the principal state of art image error concealment technics. The latter chapter uses the results of the four former chapters to design an algorithm for error concealment in images. The demonstration considers blur and noise artefacts and is based on the Wiener filter optimized on the criterion of local linear minimum mean square error. The results are presented and discussed to show how the VQMT improves the performances of the implemented algorithm for error concealment.Ce manuscrit présente les travaux de recherche réalisés au cours de ma thèse, dont le but est de développer des algorithmes de correction d'erreurs dans un décodage numérique d'images et d'assurer un haut niveau de la qualité visuelle des images décodées. Nous avons utilisé des techniques d'analyse statistique pour détecter et dissimuler les artefacts. Une boucle de contrôle de la qualité est implémentée afin de surveiller et de corriger la qualité visuelle de l'image. Le manuscrit comprend six chapitres. Le premier chapitre présente les principales méthodes d'évaluation de la qualité des images trouvées dans l'état de l'art et introduit notre proposition. Cette proposition est en fait un outil de mesure de la qualité des vidéos (OMQV) qui utilise le système visuel humain pour indiquer la qualité visuelle d'une vidéo (ou d'une image). Trois modèles d'OMQV sont conçus. Ils sont basés sur la classification, les réseaux de neurones artificiels et la régression non linéaire, et sont développés dans le deuxième, troisième et quatrième chapitre respectivement. Le cinquièmechapitre présente quelques techniques de dissimulation d'artefacts présents dans l'état de l'art. Le sixième et dernier chapitre utilise les résultats des quatre premiers chapitres pour mettre au point un algorithme de correction d'erreurs dans les images. La démonstration considère uniquement les artefacts flou et bruit et s'appuie sur le filtre de Wiener, optimisé sur le critère du minimum linéaire local de l'erreur quadratique moyenne. Les résultats sont présentés et discutés afin de montrer comment l'OMQV améliore les performances de l'algorithme mis en œuvre pour la dissimulation des artefacts

    Segmentation de l'articulation de la hanche à partir de radiographies biplanes en utilisant une approche multi-structures

    Get PDF
    En produisant une paire de radiographies orthogonales en position debout, le système EOS, beaucoup moins irradiant que le CT scan, offre la possibilité de reconstruire en 3D des structures osseuses. Pour reconstruire une structure osseuse à partir de radiographies biplanes, les contours extraits dans les images sont associés à des informations a priori 3D. Ce mémoire porte sur l’extraction simultanée de contours des deux structures adjacentes de l’articulation de la hanche : la tête fémorale et le cotyle. Cette tâche est ardue, notamment à cause du bruit élevé, du faible contraste et de la superposition de structures. Nous avons adopté une approche multi-structures permettant de segmenter simultanément deux contours correspondant chacun à une structure. La méthode proposée requiert une initialisation manuelle au niveau de la tête fémorale par le tracé d’un cercle pour extraire et localiser la région de l’articulation. Le processus de segmentation s’applique sur cette région qui est transformée dans un espace redressé, où les deux contours recherchés correspondent à deux chemins alignés. Les arêtes verticales sont détectées dans l’image redressée par un opérateur du gradient horizontal. Deux images de gradient de signe opposé sont générées, dans lesquelles la frontière de chaque structure est représentée par un chemin. Un volume redressé est construit en combinant ces deux images, permettant d’unir les deux chemins en un seul. Pour cela, un algorithme de recherche d’un chemin minimal 3D dans un volume a été développé. Les contraintes inter-structures sont imposées durant la recherche. La projection du chemin obtenu donne deux chemins distincts et labellisés qui sont transformés dans l’espace de l'image originale pour récupérer ainsi le contour de chaque structure. Nous avons appliqué cette méthode sur 100 images radiographiques du membre inférieur, contenant chacune deux articulations de hanche, acquises dans les directions frontale, oblique et latérale. L’évaluation de la précision a donné une erreur globale point-contour RMS±ÉT de 1,27±0.79 mm pour la tête fémorale et 1.26±0.74 mm pour le cotyle. Pour la répétabilité, nous avons obtenu en moyenne 80% de différences locales au-dessous de 1 mm. Les résultats révèlent que la méthode est précise, mais elle dépend aussi de la complexité de l'image segmentée et de la présence ou non d’une pathologie, notamment la coxarthrose. Ce travail servira certainement à améliorer le processus de la reconstruction en termes de précision
    corecore