760 research outputs found

    Realtime image noise reduction FPGA implementation with edge detection

    Get PDF
    The purpose of this dissertation was to develop and implement, in a Field Programmable Gate Array (FPGA), a noise reduction algorithm for real-time sensor acquired images. A Moving Average filter was chosen due to its fulfillment of a low demanding computational expenditure nature, speed, good precision and low to medium hardware resources utilization. The technique is simple to implement, however, if all pixels are indiscriminately filtered, the result will be a blurry image which is undesirable. Since human eye is more sensitive to contrasts, a technique was introduced to preserve sharp contour transitions which, in the author’s opinion, is the dissertation contribution. Synthetic and real images were tested. Synthetic, composed both with sharp and soft tone transitions, were generated with a developed algorithm, while real images were captured with an 8-kbit (8192 shades) high resolution sensor scaled up to 10 × 103 shades. A least-squares polynomial data smoothing filter, Savitzky-Golay, was used as comparison. It can be adjusted using 3 degrees of freedom ─ the window frame length which varies the filtering relation size between pixels’ neighborhood, the derivative order, which varies the curviness and the polynomial coefficients which change the adaptability of the curve. Moving Average filter only permits one degree of freedom, the window frame length. Tests revealed promising results with 2 and 4ℎ polynomial orders. Higher qualitative results were achieved with Savitzky-Golay’s better signal characteristics preservation, especially at high frequencies. FPGA algorithms were implemented in 64-bit integer registers serving two purposes: increase precision, hence, reducing the error comparatively as if it were done in floating-point registers; accommodate the registers’ growing cumulative multiplications. Results were then compared with MATLAB’s double precision 64-bit floating-point computations to verify the error difference between both. Used comparison parameters were Mean Squared Error, Signalto-Noise Ratio and Similarity coefficient.O objetivo desta dissertação foi desenvolver e implementar, em FPGA, um algoritmo de redução de ruído para imagens adquiridas em tempo real. Optou-se por um filtro de Média Deslizante por não exigir uma elevada complexidade computacional, ser rápido, ter boa precisão e requerer moderada utilização de recursos. A técnica é simples, mas se abordada como filtragem monotónica, o resultado é uma indesejável imagem desfocada. Dado o olho humano ser mais sensível ao contraste, introduziu-se uma técnica para preservar os contornos que, na opinião do autor, é a sua principal contribuição. Utilizaram-se imagens sintéticas e reais nos testes. As sintéticas, compostas por fortes e suaves contrastes foram geradas por um algoritmo desenvolvido. As reais foram capturadas com um sensor de alta resolução de 8-kbit (8192 tons) e escalonadas a 10 × 103 tons. Um filtro com suavização polinomial de mínimos quadrados, SavitzkyGolay, foi usado como comparação. Possui 3 graus de liberdade: o tamanho da janela, que varia o tamanho da relação de filtragem entre os pixels vizinhos; a ordem da derivada, que varia a curvatura do filtro e os coeficientes polinomiais, que variam a adaptabilidade da curva aos pontos a suavizar. O filtro de Média Deslizante é apenas ajustável no tamanho da janela. Os testes revelaram-se promissores nas 2ª e 4ª ordens polinomiais. Obtiveram-se resultados qualitativos com o filtro Savitzky-Golay que detém melhores características na preservação do sinal, especialmente em altas frequências. Os algoritmos em FPGA foram implementados em registos de vírgula fixa de 64-bits, servindo dois propósitos: aumentar a precisão, reduzindo o erro comparativamente ao terem sido em vírgula flutuante; acomodar o efeito cumulativo das multiplicações. Os resultados foram comparados com os cálculos de 64-bits obtidos pelo MATLAB para verificar a diferença de erro entre ambos. Os parâmetros de medida foram MSE, SNR e coeficiente de Semelhança

    Innovative mathematical and numerical models for studying the deformation of shells during industrial forming processes with the Finite Element Method

    Get PDF
    The doctoral thesis "Innovative mathematical and numerical models for studying the deformation of shells during industrial forming processes with the Finite Element Method" aims to contribute to the development of finite element methods for the analysis of stamping processes, a problematic area with a clear industrial application. To achieve the proposed objectives, the first part of this thesis covers the solid-shell elements. This type of element is attractive for the simulation of forming processes, since any type of three-dimensional constitutive law can be formulated without the need to consider any additional conjecture. Additionally, the contact of both sides can be easily treated. This work first presents the development of a triangular prismatic solid-sheet element, for the analysis of thick and thin sheets with capacity for large deformations. This element is in total Lagrangian formulation, and uses neighboring elements to compute a field of quadratic displacements. In the original formulation, a modified right Cauchy tensor was obtained; however, in this work, the formulation is extended obtaining a modified strain gradient, which allows the concepts of push-forward and pull-back to be used. These concepts provide a mathematically consistent method for the definition of temporary derivatives of tensors and, therefore, can be used, for example, to work with elasto-plasticity. This work continues with the development of the contact formulation used, a methodology found in the bibliography on computational contact mechanics for implicit simulations. This formulation consists of an exact integration of the contact interface using mortar methods, which allows obtaining the most consistent integration possible between the integration domains, as well as the most exact possible solution. The most notable contribution of this work is the consideration of dual augmented Lagrange multipliers as an optimization method. To solve the system of equations, a semi-smooth Newton method is considered, which consists of an active set strategy, also extensible in the case of friction problems. The formulation is functional for both frictionless and friction problems, which is essential for simulating stamping processes. This frictional formulation is framed in traditional friction models, such as Coulomb friction, but the development presented can be extended to any type of friction model. The remaining necessary component for the simulation of industrial processes are the constitutive models. In this work, this is materialized in the formulation of plasticity considered. These constitutive models will be considered plasticity models for large deformations, with an arbitrary combination of creep surfaces and plastic potentials: the so-called non-associative models. To calculate the tangent tensor corresponding to these general laws, numerical implementations based on perturbation methods have been considered. Another fundamental contribution of this work is the development of techniques for adaptive remeshing, of which different approaches will be presented. On the one hand, metric-based techniques, including the level-set and Hessian approaches. These techniques are general-purpose and can be considered in both structural problems and fluid mechanics problems. On the other hand, the SPR error estimation method, more conventional than the previous ones, is presented. In this area, the contribution of this work consists in the estimation of error using the Hessian and SPR techniques for the application to numerical contact problems.La tesis doctoral "Modelos matemáticos y numéricos innovadores para el estudio de la deformación de láminas durante los procesos de conformado industrial por el Método de los Elementos Finitos" pretende contribuir al desarrollo de métodos de elementos finitos para el análisis de procesos de estampado, un área problemática con una clara aplicación industrial. De hecho, este tipo de problemas multidisciplinares requieren el conocimiento de múltiples disciplinas, como la mecánica de medios continuos, la plasticidad, la termodinámica y los problemas de contacto, entre otros. Para alcanzar los objetivos propuestos, la primera parte de esta tesis abarca los elementos de sólido lámina. Este tipo de elemento resulta atractivo para la simulación de procesos de conformado, dado que cualquier tipo de ley constitutiva tridimensional puede ser formulada sin necesidad de considerar ninguna conjetura adicional. Además, este tipo de elementos permite realizar una descripción tridimensional del cuerpo deformable, por tanto, el contacto de ambas caras puede ser tratado fácilmente. Este trabajo presenta en primer lugar el desarrollo de un elemento de sólido-lámina prismático triangular, para el análisis de láminas gruesas y delgadas con capacidad para grandes deformaciones. Este elemento figura en formulación Lagrangiana total, y emplea los elementos vecinos para poder computar un campo de desplazamientos cuadráticos. En la formulación original, se obtenía un tensor de Cauchy derecho modificado (¯C); sin embargo, en este trabajo, la formulación se extiende obteniendo un gradiente de deformación modificado (¯F), que permite emplear los conceptos de push-forward y pull-back. Dichos conceptos proveen de un método matemáticamente consistente para la definición de derivadas temporales de tensores y, por tanto, puede ser usado, por ejemplo, para trabajar con elasto-plasticidad. El elemento se basa en tres modificaciones: (a) una aproximación clásica de deformaciones transversales de corte mixtas impuestas; (b) una aproximación de deformaciones impuestas para las Componentes en el plano tangente de la lámina; y (c) una aproximación de deformaciones impuestas mejoradas en la dirección normal a través del espesor, mediante la consideración de un grado de libertad adicional. Los objetivos son poder utilizar el elemento para la simulación de láminas sin bloquear por cortante, mejorar el comportamiento membranal del elemento en el plano tangente, eliminar el bloqueo por efecto Poisson y poder tratar materiales elasto-plásticos con un flujo plástico incompresible, así como materiales elásticos cuasi-incompresibles o materiales con flujo plástico isocórico. El elemento considera un único punto de Gauss en el plano, mientras que permite considerar un número cualquiera de puntos de integración en su eje, con el objetivo de poder considerar problemas con una significativa no linealidad en cuanto a plasticidad. Este trabajo continúa con el desarrollo de la formulación de contacto empleada, una metodología que se encuentra en la bibliografía sobre la mecánica de contacto computacional para simulaciones implícitas. Dicha formulación consiste en una integración exacta de la interfaz de contacto mediante métodos de mortero, lo que permite obtener la integración más consistente posible entre los dominios de integración, así como la solución más exacta posible. La implementación también considera varios algoritmos de optimización, como la optimización mediante penalización. La contribución más notable de este trabajo es la consideración de multiplicadores de Lagrange aumentados duales como método de optimización. Estos permiten condensar estáticamente el sistema de ecuaciones, lo que permite eliminar los multiplicadores de Lagrange de la resolución y, por lo tanto, permite la consideración de solvers iterativos. Además, la formulación ha sido adecuadamente linealizada, asegurando la convergencia cuadrática del problema. Para resolver el sistema de ecuaciones, se considera un método de Newton semi-smooth, que consiste en una estrategia de set activo, extensible también en el caso de problemas friccionales. La formulación es funcional tanto para problemas sin fricción como para problemas friccionales, lo que es esencial para la simulación de procesos de estampado. Esta formulación friccional se enmarca en los modelos de fricción tradicionales, como la fricción de Coulomb, pero el desarrollo presentado puede extenderse a cualquier tipo de modelo de fricción. Esta formulación de contacto es totalmente compatible con el elemento sólido-lámina introducido en este trabajo. El componente necesario restante para la simulación de procesos industriales son los modelos constitutivos. En este trabajo, esto se ve materializado en la formulación de plasticidad considerada. Estos modelos constitutivos se considerarán modelos de plasticidad para grandes deformaciones, con una combinación arbitraria de superficies de fluencia y potenciales plásticos: los llamados modelos no asociados. Para calcular el tensor tangente correspondiente a estas leyes generales, se han considerado implementaciones numéricas basadas en métodos de perturbación. Otra contribución fundamental de este trabajo es el desarrollo de técnicas para el remallado adaptativo, de las que se presentarán distintos enfoques. Por un lado, las técnicas basadas en métricas, incluyendo los enfoques level-set y Hessiano. Estas técnicas son de propósito general y pueden considerarse tanto en la aplicación de problemas estructurales como en problemas de mecánica de fluidos. Por otro lado, se presenta el método de estimación de errores SPR, más convencional que los anteriores. En este ámbito, la contribución de este trabajo consiste en la estimación de error mediante las técnicas de Hessiano y SPR para la aplicación a problemas de contacto numérico. Con los desarrollos previamente introducidos, estaremos en disposición de introducir los casos de aplicación centrados en el contexto de procesos de estampado. Es relevante destacar que estos ejemplos son comparados con las soluciones de referencia disponibles en la bibliografía como forma de validar los desarrollos presentados hasta este punto. El presente documento está organizado de la siguiente manera. El primer capítulo establece los objetivos y revisa la bibliografía acerca de los temas clave de este trabajo. El segundo capítulo hace una introducción de la mecánica de medios continuos y los conceptos relativos al Método de los Elementos Finitos (MEF), necesarios en los desarrollos que se presentarán en los capítulos siguientes. El tercer capítulo aborda la formulación del elemento sólido-lámina, así como del elemento de lámina sin grados de libertad de rotación que inspira el sólido-lámina desarrollado. Esta parte muestra varios ejemplos académicos que son comúnmente empleados en la bibliografía como problemas de referencia de láminas. El cuarto capítulo presenta la formulación desarrollada para la resolución de problemas de contacto numérico, consistente en una formulación implícita de integración exacta mediante métodos mortero y multiplicadores de Lagrange aumentados duales. Este capítulo incluye, asimismo, varios ejemplos comúnmente encontrados en la bibliografía, que generalmente son considerados para su validación. El quinto capítulo presenta la formulación de plasticidad empleada, incluyendo algunos detalles técnicos desde el punto de vista de la implementación, así como varios ejemplos de validación. El sexto capítulo muestra los algoritmos de remallado adaptativo desarrollados en el contexto de este trabajo, y presenta varios ejemplos, que incluyen no solo casos estructurales, sino también de mecánica de fluidos. El séptimo capítulo encapsula algunos casos de validación y aplicación para procesos de estampado. El capítulo final comprende las conclusiones, así como los trabajos que podrían continuar el presente estudio.Postprint (published version

    General Dynamic Surface Reconstruction: Application to the 3D Segmentation of the Left Ventricle

    Get PDF
    Aquesta tesi descriu la nostra contribució a la reconstrucció tridimensional de les superfícies interna i externa del ventricle esquerre humà. La reconstrucció és un primer procés dins d'una aplicació global de Realitat Virtual dissenyada com una important eina de diagnòstic per a hospitals. L'aplicació parteix de la reconstrucció de les superfícies i proveeix a l'expert de manipulació interactiva del model en temps real, a més de càlculs de volums i de altres paràmetres d'interès. El procés de recuperació de les superfícies es caracteritza per la seva velocitat de convergència, la suavitat a les malles finals i la precisió respecte de les dades recuperades. Donat que el diagnòstic de patologies cardíaques requereix d'experiència, temps i molt coneixement professional, la simulació és un procés clau que millora la eficiència.Els nostres algorismes i implementacions han estat aplicats a dades sintètiques i reals amb diferències relatives a la quantitat de dades inexistents, casuístiques presents a casos patològics i anormals. Els conjunts de dades inclouen adquisicions d'instants concrets i de cicles cardíacs complets. La bondat del sistema de reconstrucció ha estat avaluada mitjançant paràmetres mèdics per a poder comparar els nostres resultats finals amb aquells derivats a partir de programari típic utilitzat pels professionals de la medicina.A més de l'aplicació directa al diagnòstic mèdic, la nostra metodologia permet reconstruccions de tipus genèric en el camp dels Gràfics 3D per ordinador. Les nostres reconstruccions permeten generar models tridimensionals amb un baix cost en quant a la interacció manual necessària i a la càrrega computacional associada. Altrament, el nostre mètode pot entendre's com un robust algorisme de triangularització que construeix superfícies partint de núvols de punts que poden obtenir-se d'escàners làser o sensors magnètics, per exemple.Esta tesis describe nuestra contribución a la reconstrucción tridimensional de las superficies interna y externa del ventrículo izquierdo humano. La reconstrucción es un primer proceso que forma parte de una aplicación global de Realidad Virtual diseñada como una importante herramienta de diagnóstico para hospitales. La aplicación parte de la reconstrucción de las superficies y provee al experto de manipulación interactiva del modelo en tiempo real, además de cálculos de volúmenes y de otros parámetros de interés. El proceso de recuperación de las superficies se caracteriza por su velocidad de convergencia, la suavidad en las mallas finales y la precisión respecto de los datos recuperados. Dado que el diagnóstico de patologías cardíacas requiere experiencia, tiempo y mucho conocimiento profesional, la simulación es un proceso clave que mejora la eficiencia.Nuestros algoritmos e implementaciones han sido aplicados a datos sintéticos y reales con diferencias en cuanto a la cantidad de datos inexistentes, casuística presente en casos patológicos y anormales. Los conjuntos de datos incluyen adquisiciones de instantes concretos y de ciclos cardíacos completos. La bondad del sistema de reconstrucción ha sido evaluada mediante parámetros médicos para poder comparar nuestros resultados finales con aquellos derivados a partir de programario típico utilizado por los profesionales de la medicina.Además de la aplicación directa al diagnóstico médico, nuestra metodología permite reconstrucciones de tipo genérico en el campo de los Gráficos 3D por ordenador. Nuestras reconstrucciones permiten generar modelos tridimensionales con un bajo coste en cuanto a la interacción manual necesaria y a la carga computacional asociada. Por otra parte, nuestro método puede entenderse como un robusto algoritmo de triangularización que construye superficies a partir de nubes de puntos que pueden obtenerse a partir de escáneres láser o sensores magnéticos, por ejemplo.This thesis describes a contribution to the three-dimensional reconstruction of the internal and external surfaces of the human's left ventricle. The reconstruction is a first process fitting in a complete VR application that will serve as an important diagnosis tool for hospitals. Beginning with the surfaces reconstruction, the application will provide volume and interactive real-time manipulation to the model. We focus on speed, precision and smoothness for the final surfaces. As long as heart diseases diagnosis requires experience, time and professional knowledge, simulation is a key-process that enlarges efficiency.The algorithms and implementations have been applied to both synthetic and real datasets with differences regarding missing data, present in cases where pathologies and abnormalities arise. The datasets include single acquisitions and complete cardiac cycles. The goodness of the reconstructions has been evaluated with medical parameters in order to compare our results with those retrieved by typical software used by physicians.Besides the direct application to medicine diagnosis, our methodology is suitable for generic reconstructions in the field of computer graphics. Our reconstructions can serve for getting 3D models at low cost, in terms of manual interaction and CPU computation overhead. Furthermore, our method is a robust tessellation algorithm that builds surfaces from clouds of points that can be retrieved from laser scanners or magnetic sensors, among other available hardware

    Diffusion, methods and applications

    Full text link
    Tesis doctoral inédita leída en la Universidad Autónoma de Madrid, Escuela Politécnica Superior, Departamento de Ingeniería Informática. Fecha de lectura: junio de 2014Big Data, an important problem nowadays, can be understood in terms of a very large number of patterns, a very large pattern dimension or, often, both. In this thesis, we will concentrate on the high dimensionality issue, applying manifold learning techniques for visualizing and analyzing such patterns. The core technique will be Di usion Maps (DM) and its Anisotropic Di usion (AD) version, introduced by Ronald R. Coifman and his school at Yale University, and of which we will give a complete, systematic, compact and self-contained treatment. This will be done after a brief survey of previous manifold learning methods. The algorithmic contributions of the thesis will be centered in two computational challenges of di usion methods: the potential high cost of the similarity matrix eigenanalysis that is needed to define the di usion embedding coordinates, and the di culty of computing this embedding over new patterns not available for the initial eigenanalysis. With respect to the first issue, we will show how the AD set up can be used to skip it when looking for local models. In this case, local patterns will be selected through a k-Nearest Neighbors search using a properly defined local Mahalanobis distance, that enables neighbors to be found over the latent variable space underlying the AD model while we can work directly with the observable patterns and, thus, avoiding the potentially costly similarity matrix eigenanalysis. The second proposed algorithm, that we will call Auto-adaptative Laplacian Pyramids (ALP), focuses in the out-of-sample embedding extension and consists in a modification of the classical Laplacian Pyramids (LP) method. In this new algorithm the LP iterations will be combined with an estimate of the Leave One Out CV error, something that makes possible to directly define during training a criterion to estimate the optimal stopping point of this iterative algorithm. This thesis will also present several application contributions to important problems in renewable energy and medical imaging. More precisely, we will show how DM is a good method for dimensionality reduction of meteorological weather predictions, providing tools to visualize and describe these data, as well as to cluster them in order to define local models. In turn, we will apply our AD-based localized search method first to find the location in the human body of CT scan images and then to predict wind energy ramps on both individual farms and over the whole of Spain. We will see that, in both cases, our results improve on the current state of the art methods. Finally, we will compare our ALP proposal with the well-known Nyström method as well as with LP on two large dimensional problems, the time compression of meteorological data and the analysis of meteorological variables relevant in daily radiation forecasts. In both cases we will show that ALP compares favorably with the other approaches for out-of-sample extension problemsBig Data es un problema importante hoy en día, que puede ser entendido en términos de un amplio número de patrones, una alta dimensión o, como sucede normalmente, de ambos. Esta tesis se va a centrar en problemas de alta dimensión, aplicando técnicas de aprendizaje de subvariedades para visualizar y analizar dichos patrones. La técnica central será Di usion Maps (DM) y su versión anisotrópica, Anisotropic Di usion (AD), introducida por Ronald R. Coifman y su escuela en la Universidad de Yale, la cual va a ser tratada de manera completa, sistemática, compacta y auto-contenida. Esto se llevará a cabo tras un breve repaso de métodos previos de aprendizaje de subvariedades. Las contribuciones algorítmicas de esta tesis estarán centradas en dos de los grandes retos en métodos de difusión: el potencial alto coste que tiene el análisis de autovalores de la matriz de similitud, necesaria para definir las coordenadas embebidas; y la dificultad para calcular este mismo embedding sobre nuevos datos que no eran accesibles cuando se realizó el análisis de autovalores inicial. Respecto al primer tema, se mostrará cómo la aproximación AD se puede utilizar para evitar el cálculo del embedding cuando estamos interesados en definir modelos locales. En este caso, se seleccionarán patrones cercanos por medio de una búsqueda de vecinos próximos (k-NN), usando como distancia una medida de Mahalanobis local que permita encontrar vecinos sobre las variables latentes existentes bajo el modelo de AD. Todo esto se llevará a cabo trabajando directamente sobre los patrones observables y, por tanto, evitando el costoso cálculo que supone el cálculo de autovalores de la matriz de similitud. El segundo algoritmo propuesto, que llamaremos Auto-adaptative Laplacian Pyramids (ALP), se centra en la extensión del embedding para datos fuera de la muestra, y se trata de una modificación del método denominado Laplacian Pyramids (LP). En este nuevo algoritmo, las iteraciones de LP se combinarán con una estimación del error de Leave One Out CV, permitiendo definir directamente durante el periodo de entrenamiento, un criterio para estimar el criterio de parada óptimo para este método iterativo. En esta tesis se presentarán también una serie de contribuciones de aplicación de estas técnicas a importantes problemas en energías renovables e imágenes médicas. Más concretamente, se muestra como DM es un buen método para reducir la dimensión de predicciones del tiempo meteorológico, sirviendo por tanto de herramienta de visualización y descripción, así como de clasificación de los datos con vistas a definir modelos locales sobre cada grupo descrito. Posteriormente, se aplicará nuestro método de búsqueda localizada basado en AD tanto a la búsqueda de la correspondiente posición de tomografías en el cuerpo humano, como para la detección de rampas de energía eólica en parques individuales o de manera global en España. En ambos casos se verá como los resultados obtenidos mejoran los métodos del estado del arte actual. Finalmente se comparará el algoritmo de ALP propuesto frente al conocido método de Nyström y al método de LP, en dos problemas de alta dimensión: el problema de compresión temporal de datos meteorológicos y el análisis de variables meteorológicas relevantes para la predicción de la radiación diaria. En ambos casos se mostrará cómo ALP es comparativamente mejor que otras aproximaciones existentes para resolver el problema de extensión del embedding a puntos fuera de la muestr

    Modeling of ground excavation with the particle finite element method

    Get PDF
    The present work introduces a new application of the Particle Finite Element Method (PFEM) for the modeling of excavation problems. PFEM is presented as a very suitable tool for the treatment of excavation problem. The method gives solution for the analysis of all processes that derive from it. The method has a high versatility and a reasonable computational cost. The obtained results are really promising.Postprint (published version

    Biometric Systems

    Get PDF
    Biometric authentication has been widely used for access control and security systems over the past few years. The purpose of this book is to provide the readers with life cycle of different biometric authentication systems from their design and development to qualification and final application. The major systems discussed in this book include fingerprint identification, face recognition, iris segmentation and classification, signature verification and other miscellaneous systems which describe management policies of biometrics, reliability measures, pressure based typing and signature verification, bio-chemical systems and behavioral characteristics. In summary, this book provides the students and the researchers with different approaches to develop biometric authentication systems and at the same time includes state-of-the-art approaches in their design and development. The approaches have been thoroughly tested on standard databases and in real world applications

    Anisotropic Diffusion Partial Differential Equations in Multi-Channel Image Processing : Framework and Applications

    Get PDF
    We review recent methods based on diffusion PDE's (Partial Differential Equations) for the purpose of multi-channel image regularization. Such methods have the ability to smooth multi-channel images anisotropically and can preserve then image contours while removing noise or other undesired local artifacts. We point out the pros and cons of the existing equations, providing at each time a local geometric interpretation of the corresponding processes. We focus then on an alternate and generic tensor-driven formulation, able to regularize images while specifically taking the curvatures of local image structures into account. This particular diffusion PDE variant is actually well suited for the preservation of thin structures and gives regularization results where important image features can be particularly well preserved compared to its competitors. A direct link between this curvature-preserving equation and a continuous formulation of the Line Integral Convolution technique (Cabral and Leedom, 1993) is demonstrated. It allows the design of a very fast and stable numerical scheme which implements the multi-valued regularization method by successive integrations of the pixel values along curved integral lines. Besides, the proposed implementation, based on a fourth-order Runge Kutta numerical integration, can be applied with a subpixel accuracy and preserves then thin image structures much better than classical finite-differences discretizations, usually chosen to implement PDE-based diffusions. We finally illustrate the efficiency of this diffusion PDE's for multi-channel image regularization - in terms of speed and visual quality - with various applications and results on color images, including image denoising, inpainting and edge-preserving interpolation

    Frontiers in Nonparametric Statistics

    Get PDF
    The goal of this workshop was to discuss recent developments of nonparametric statistical inference. A particular focus was on high dimensional statistics, semiparametrics, adaptation, nonparametric bayesian statistics, shape constraint estimation and statistical inverse problems. The close interaction of these issues with optimization, machine learning and inverse problems has been addressed as well

    A model for atomic and molecular interstellar gas: The Meudon PDR code

    Get PDF
    We present the revised ``Meudon'' model of Photon Dominated Region (PDR code), presently available on the web under the Gnu Public Licence at: http://aristote.obspm.fr/MIS. General organisation of the code is described down to a level that should allow most observers to use it as an interpretation tool with minimal help from our part. Two grids of models, one for low excitation diffuse clouds and one for dense highly illuminated clouds, are discussed, and some new results on PDR modelisation highlighted.Comment: accepted in ApJ sup
    corecore