3,349 research outputs found

    Modèles pour la représentation visuelle pour l'image animée. Du modèle physique au regard

    No full text
    International audienceLa création de I'image animée comporte à la fois un travail sur le mouvement et à Ia fois un travail sur l'image elle-même. Le cadre dans lequel se situe ce travail est celui d'une réflexion sur les propriétés de l'image et sur les procédés de sa création dans le contexte simultané de l'animation et de la création artistique. Après la présentation générale du problème et des différentes questions de recherche qu'il soulève, nous présenterons les premières études que nous avons menées sur ces différents points

    Description in occam and simulation on a transputer network of a systolic processor for image processing

    Get PDF
    The most significant drawback in using neighbourhood processing (linear filtering, morphology) is the cost of ils implementation, particularly in the area of image processing where the cost grows in proportion to the kernel size squared . However, in PIR [1] it was shown that a large amount of classical algorithms could be described as a cascade of peculiar elementary tells. Being highly integrable, these tells brought about the design of a neighbourhood systolic processor. Converting a functional description (e .g . flow graph, mathematical model) into a hardware structure raises several technical problems . In addition, the cost of designing an integrated circuit requires special cure, making it necessary to perform many simulations . The first part of this paper gives a short description of the décomposition method. It then goes on ta describe the power of occam as a design formalism, applying it to the cascaded tells modelisation . Furthermore, the obtained model can be compiled into a code directly loadable into a Transputer network, resulting in a performant simulation . The hierarchy of occam allows a description at différent levels of abstraction, in order to fit the precision of the model to the desired type of simulation .L'inconvénient majeur des algorithmes de voisinage (filtrage linéaire, morphologique) réside dans le coût associé à leur mise en oeuvre, principalement dans le domaine du traitement d'images où il croît avec le carré de la taille du voisinage . Il a toutefois été montré dans PIR [1] que de nombreux algorithmes couramment utilisés pouvaient être décrits sous la forme d'une cascade de cellules élémentaires particulières . Le caractère hautement intégrable de ces cellules nous a amené à concevoir un processeur systolique de voisinage basé sur le principe de la synthèse par cascades de cellules . Le passage d'une représentation fonctionnelle (graphe de fluence, modèle mathématique) à une structure matérielle soulève un certain nombre de problèmes . En outre, le coût lié à la réalisation d'un circuit intégré exige une extrême prudence, imposant généralement le recours à de nombreuses simulations . Le présent papier fournit un bref aperçu de la méthode de synthèse par cascades de cellules . Il montre ensuite la puissance du langage occam comme outil de formalisation appliquant celui-ci à la modélisation des cascades de cellules . La compilation du modèle au moyen d'outils adéquats fournit un code directement exécutable par un réseau de Transputers, ce qui conduit à une simulation performante . La hiérarchie incluse dans le langage permet une décomposition en niveaux d'abstraction de plus en plus fins, en vue d'ajuster la précision du modèle au type de simulation désiré

    Using entropy in image reconstruction and restoration

    Get PDF
    In a great number of image reconstruction and restoration problems we have to solve an integral equation of the first kind which is an ill posed inverse problem . Therefore one cannot obtain a unique and stable solution without introducing an a priori information on the solution, The Bayesian approach is a coherent one for solving inverse problems because it lets us to take into account and to process in the same way the a priori information on the solution and the data . This approach can be resumed as the following : (i) Assign an a priori probability distribution to the parameters to translate our knowledge on these parameters . (ii) Assign a probability distribution to the measured data to translate the errors and the noise on the data . (iii) Use the Bayes' rule to transmit the information contained in the data to the parameters, i . e. calculate the a posteriori probability distribution of these parameters . (iv) Define a decision rule to determine the parameters values . One must note that : (i) This approach can be used only in problems which can be described by a finite number of parameters (for example when the integral equation is discretized) . (ii) The notion of probability in this approach is not always connected to the frequency of the realization of a random variable . (iii) While it is easy to assign a probability distribution to the measured data to translate the existence of noise on these data, it is more difficult to assign an a priori probability distribution on the unknown parameters of the problem . The maximum entropy principle permits us to choose a probability distribution which is coherent with our a priori knowledge on these parameters and which is less compromising in the sense that it does not introduce any supplementary information . In this paper we use this approach to establish a method for solving the integral equations of the f rst kind in which the entropy of the solution is used as a regularization functional . This method is then used for solving many inverse problems : image restoration by deconvolution in the situation of missing data, image reconstruction in X ray tomography and diffraction tomography, and the multivariable Fourier syrtthesis problem . A great number of simulation results are showed and a comparison is made between these results and those obtained by other usual linear methods .Dans un très grand nombre de problèmes de restauration et de reconstruction d'images on est amené à résoudre une équation intégrale de première espèce, ce qui est un problème inverse mal posé . Dans ces problèmes, l'obtention d'une solution unique et stable vis-à-vis des erreurs sur les données passe par l'introduction d'une information a priori sur la solution . L'approche bayésienne est une approche cohérente pour la résolution d'un problème inverse car elle permet de prendre en compte et de traiter de la même manière l'information a priori sur la solution et celle sur les données . Cette approche peut se résumer aux étapes suivantes (i) Attribuer une distribution de probabilité a priori aux paramètres à estimer pour traduire notre connaissance initiale sur ces paramètres . (ii) Attribuer une distribution de probabilité aux grandeurs mesurées pour traduire l'imprécision sur ces données (bruit de mesure) . (iii) Utiliser la règle de Bayes pour transmettre l'information contenue dans les données aux paramètres . Autrement dit, calculer la distribution de probabilité a posteriori des paramètres . (iv) Définir une règle de décision pour déterminer les valeurs des paramètres à estimer . Il faut noter cependant que (i) Cette approche ne peut être utilisée que dans un problème qui est décrit par un nombre fini de paramètres (par exemple une fois que le problème a été discrétisé) . (ii) La notion de probabilité dans cette approche n'est pas forcément liée à la fréquence de réalisation d'une variable aléatoire . (iii) Autant il est facile d'attribuer une distribution de probabilité aux grandeurs mesurées pour traduire l'existence du bruit sur ces grandeurs, autant il est plus difficile d'attribuer une distribution de probabilité a priori aux paramètres inconnus du problème . Le principe du maximum d'entropie permet de choisir une distribution de probabilité qui soit cohérente avec notre connaissance a priori sur les paramètres à estimer, et qui soit la moins compromettante, dans le sens où elle n'introduit pas d'information supplémentaire. Dans cette communication nous allons utiliser cette approche pour établir une méthode de résolution d'équations intégrales de première espèce dans laquelle l'entropie de la solution joue le rôle d'une fonctionnelle de régularisation . La méthode est ensuite utilisée pour la résolution de plusieurs problèmes inverses : la restauration d'images positives par déconvolution dans des situations de données manquantes, la reconstruction d'images en tomographie à rayons X et à ondes diffractées et la synthèse de Fourier multivariable . De nombreux résultats de simulation sont présentés et une comparaison est faite entre ces résultats et ceux que l'on obtient par des méthodes linéaires usuelles

    Color in computer vision

    Get PDF
    The use of colour in computer vision has received growing attention . This paper gives the state-of-art in this subfield, and tries to answer the questions : What is color ? Which are the adequate representations ? How to compute it ? What can be donc, using it ? Towards that goal, we make a deep and up-to-date review of the existing litterature on this subject, we ondine the important research directions and issues, and we attempt to evaluate them .L'utilisation de la couleur en vision par ordinateur est un sujet de recherche qui suscite un intérêt croissant . Ce papier fait le point dans ce domaine, en essayant de répondre aux questions : Qu'est-ce que la couleur ? Quelles en sont les représentations adéquates ? Comment la déterminer ? Que peut-on en faire ? Pour cela, nous faisons une revue approfondie et très à jour de l'ensemble de la littérature consacrée à ce sujet en cernant les axes de recherche et les problématiques importantes et en tentant de les évaluer

    Prospectives

    Get PDF
    Tiré de: Prospectives, vol. 4, no 4 (sept. 1968)Titre de l'écran-titre (visionné le 24 janv. 2013

    Internet : Frankenstein ou Pygmalion

    Get PDF

    A functional for motion estimation of a deforming body

    Get PDF
    Assuming that the pixel values in the images are proportional to some conserved quantity, a new penalty function is defined for motion estimation of a deforming body . We use the theory of linear elasticity and the conservation laws of continuum medium to propose new constraining terms . The introduction of a deformation model gives a new interpretation of the Song and Leahy's solution [Song 911 . Examples of experiments using simulated and real images of deforming body are presented . The method is able to take into account compressible or incompressible motion according to the parameter values .Une nouvelle fonctionnelle pour l'estimation du mouvement d'objets déformables est proposée dans le cadre de l'étude des images de milieux continus où la valeur des pixels est proportionnelle à la densité d'une grandeur. Cette nouvelle fonctionnelle repose sur le concept de l'énergie de déformation élastique et les principes de conservation des milieux continus. L'introduction a priori d'un modèle physique de déformation, permet une nouvelle interprétation de la fonctionnelle proposée par Song et Leahy [Song 91]. Des résultats obtenus à partir de simulations montrent la possibilité de prise en compte du caractère compressible ou non de la déformation. Des résultats sur séquence d'images réelles sont également présentés

    Modèles morphodynamiques de segmentation spatiale

    Get PDF
    Partant de la phénoménologie de la perception et de la conception structurale-dynamique des discontinuités géographiques dans les travaux de Gilles Ritchot et de Gaëtan Desmarais sur la forme urbaine, l'article aborde le problème fondamental de la segmentation spatiale et de l'émergence des discontinuités qualitatives dans des espaces substrats. Il montre comment le traitement morphologique des images permet de comprendre les mécanismes d'individuation de domaines spatiaux localisés. Ces mécanismes peuvent être adéquatement modélisés à l'aide de formalismes de type morphodynamique, en particulier les modèles variationnels de segmentation spatiale (Mumford et Shah, 1989) et les modèles multi-échelles régis par des équations de diffusion non-linéaires anisotropes (Malik et Perona, Morel). Des exemples en imagerie géographique sont utilisés.The paper sketches some leading ideas in phenomenology of perception and structural geography in the sense of Gilles Ritchot and Gaëtan Desmarais. Considering the key approach of discontinuities in the theory of urban form, it next scrutinizes the basic problem of the segmentation and the emergence of qualitative discontinuities in substrata spaces. Moreover, it points out the way in which the morphological processing of images makes understandable the mechanisms individuating localized spatial domains. Those mechanisms can be adequately modeled with the help of morphodynamical formalisms, especially variational models of spatial segmentation (Mumford and Shah, 1989) as well as multi-scale models driven by non linear anisotropic diffusion equations (Malik and Perona, Morel). Some examples of geographic images are analyzed
    corecore