555 research outputs found

    A method for space-variant deblurring with application to adaptive optics imaging in astronomy

    Get PDF
    Images from adaptive optics systems are generally affected by significant distortions of the point spread function (PSF) across the field of view, depending on the position of natural and artificial guide stars. Image reduction techniques circumventing or mitigating these effects are important tools to take full advantage of the scientific information encoded in AO images. The aim of this paper is to propose a method for the deblurring of the astronomical image, given a set of samples of the space-variant PSF. The method is based on a partitioning of the image domain into regions of isoplanatism and on applying suitable deconvolution methods with boundary effects correction to each region. The effectiveness of the boundary effects correction is proved. Moreover, the criterion for extending the disjoint sections to partially overlapping sections is validated. The method is applied to simulated images of a stellar system characterized by a spatially variable PSF. We obtain good photometric quality, and therefore good science quality, by performing aperture photometry on the deblurred images. The proposed method is implemented in IDL in the Software Package "Patch", which is available on http://www.airyproject.eu.Comment: 11 pages, 9 figures, 7 tables, accepted by A&

    Monocular slam for deformable scenarios.

    Get PDF
    El problema de localizar la posición de un sensor en un mapa incierto que se estima simultáneamente se conoce como Localización y Mapeo Simultáneo --SLAM--. Es un problema desafiante comparable al paradigma del huevo y la gallina. Para ubicar el sensor necesitamos conocer el mapa, pero para construir el mapa, necesitamos la posición del sensor. Cuando se utiliza un sensor visual, por ejemplo, una cámara, se denomina Visual SLAM o VSLAM. Los sensores visuales para SLAM se dividen entre los que proporcionan información de profundidad (por ejemplo, cámaras RGB-D o equipos estéreo) y los que no (por ejemplo, cámaras monoculares o cámaras de eventos). En esta tesis hemos centrado nuestra investigación en SLAM con cámaras monoculares.Debido a la falta de percepción de profundidad, el SLAM monocular es intrínsecamente más duro en comparación con el SLAM con sensores de profundidad. Los trabajos estado del arte en VSLAM monocular han asumido normalmente que la escena permanece rígida durante toda la secuencia, lo que es una suposición factible para entornos industriales y urbanos. El supuesto de rigidez aporta las restricciones suficientes al problema y permite reconstruir un mapa fiable tras procesar varias imágenes. En los últimos años, el interés por el SLAM ha llegado a las áreas médicas donde los algoritmos SLAM podrían ayudar a orientar al cirujano o localizar la posición de un robot. Sin embargo, a diferencia de los escenarios industriales o urbanos, en secuencias dentro del cuerpo, todo puede deformarse eventualmente y la suposición de rigidez acaba siendo inválida en la práctica, y por extensión, también los algoritmos de SLAM monoculares. Por lo tanto, nuestro objetivo es ampliar los límites de los algoritmos de SLAM y concebir el primer sistema SLAM monocular capaz de hacer frente a la deformación de la escena.Los sistemas de SLAM actuales calculan la posición de la cámara y la estructura del mapa en dos subprocesos concurrentes: la localización y el mapeo. La localización se encarga de procesar cada imagen para ubicar el sensor de forma continua, en cambio el mapeo se encarga de construir el mapa de la escena. Nosotros hemos adoptado esta estructura y concebimos tanto la localización deformable como el mapeo deformable ahora capaces de recuperar la escena incluso con deformación.Nuestra primera contribución es la localización deformable. La localización deformable utiliza la estructura del mapa para recuperar la pose de la cámara con una única imagen. Simultáneamente, a medida que el mapa se deforma durante la secuencia, también recupera la deformación del mapa para cada fotograma. Hemos propuesto dos familias de localización deformable. En el primer algoritmo de localización deformable, asumimos que todos los puntos están embebidos en una superficie denominada plantilla. Podemos recuperar la deformación de la superficie gracias a un modelo de deformación global que permite estimar la deformación más probable del objeto. Con nuestro segundo algoritmo de localización deformable, demostramos que es posible recuperar la deformación del mapa sin un modelo de deformación global, representando el mapa como surfels individuales. Nuestros resultados experimentales mostraron que, recuperando la deformación del mapa, ambos métodos superan tanto en robustez como en precisión a los métodos rígidos.Nuestra segunda contribución es la concepción del mapeo deformable. Es el back-end del algoritmo SLAM y procesa un lote de imágenes para recuperar la estructura del mapa para todas las imágenes y hacer crecer el mapa ensamblando las observaciones parciales del mismo. Tanto la localización deformable como el mapeo que se ejecutan en paralelo y juntos ensamblan el primer SLAM monocular deformable: \emph{DefSLAM}. Una evaluación ampliada de nuestro método demostró, tanto en secuencias controladas por laboratorio como en secuencias médicas, que nuestro método procesa con éxito secuencias en las que falla el sistema monocular SLAM actual.Nuestra tercera contribución son dos métodos para explotar la información fotométrica en SLAM monocular deformable. Por un lado, SD-DefSLAM que aprovecha el emparejamiento semi-directo para obtener un emparejamiento mucho más fiable de los puntos del mapa en las nuevas imágenes, como consecuencia, se demostró que es más robusto y estable en secuencias médicas. Por otro lado, proponemos un método de Localización Deformable Directa y Dispersa en el que usamos un error fotométrico directo para rastrear la deformación de un mapa modelado como un conjunto de surfels 3D desconectados. Podemos recuperar la deformación de múltiples superficies desconectadas, deformaciones no isométricas o superficies con una topología cambiante.<br /

    A magnetic liquid deformable mirror for high stroke and low order axially symmetrical aberrations

    Get PDF
    We present a new class of magnetically shaped deformable liquid mirrors made of a magnetic liquid (ferrofluid). Deformable liquid mirrors offer advantages with respect to deformable solid mirrors: large deformations, low costs and the possibility of very large mirrors with added aberration control. They have some disadvantages (e.g. slower response time). We made and tested a deformable mirror, producing axially symmetrical wavefront aberrations by applying electric currents to 5 concentric coils made of copper wire wound on aluminum cylinders. Each of these coils generates a magnetic field which combines to deform the surface of a ferrofluid to the desired shape. We have carried out laboratory tests on a 5 cm diameter prototype mirror and demonstrated defocus as well as Seidel and Zernike spherical aberrations having amplitudes up to 20 microns, which was the limiting measurable amplitude of our equipmentComment: To appear in Optics Expres

    Optical techniques for 3D surface reconstruction in computer-assisted laparoscopic surgery

    Get PDF
    One of the main challenges for computer-assisted surgery (CAS) is to determine the intra-opera- tive morphology and motion of soft-tissues. This information is prerequisite to the registration of multi-modal patient-specific data for enhancing the surgeon’s navigation capabilites by observ- ing beyond exposed tissue surfaces and for providing intelligent control of robotic-assisted in- struments. In minimally invasive surgery (MIS), optical techniques are an increasingly attractive approach for in vivo 3D reconstruction of the soft-tissue surface geometry. This paper reviews the state-of-the-art methods for optical intra-operative 3D reconstruction in laparoscopic surgery and discusses the technical challenges and future perspectives towards clinical translation. With the recent paradigm shift of surgical practice towards MIS and new developments in 3D opti- cal imaging, this is a timely discussion about technologies that could facilitate complex CAS procedures in dynamic and deformable anatomical regions

    Adaptive optics in high-contrast imaging

    Full text link
    The development of adaptive optics (AO) played a major role in modern astronomy over the last three decades. By compensating for the atmospheric turbulence, these systems enable to reach the diffraction limit on large telescopes. In this review, we will focus on high contrast applications of adaptive optics, namely, imaging the close vicinity of bright stellar objects and revealing regions otherwise hidden within the turbulent halo of the atmosphere to look for objects with a contrast ratio lower than 10^-4 with respect to the central star. Such high-contrast AO-corrected observations have led to fundamental results in our current understanding of planetary formation and evolution as well as stellar evolution. AO systems equipped three generations of instruments, from the first pioneering experiments in the nineties, to the first wave of instruments on 8m-class telescopes in the years 2000, and finally to the extreme AO systems that have recently started operations. Along with high-contrast techniques, AO enables to reveal the circumstellar environment: massive protoplanetary disks featuring spiral arms, gaps or other asymmetries hinting at on-going planet formation, young giant planets shining in thermal emission, or tenuous debris disks and micron-sized dust leftover from collisions in massive asteroid-belt analogs. After introducing the science case and technical requirements, we will review the architecture of standard and extreme AO systems, before presenting a few selected science highlights obtained with recent AO instruments.Comment: 24 pages, 14 figure

    The Robo-AO-2 facility for rapid visible/near-infrared AO imaging and the demonstration of hybrid techniques

    Get PDF
    We are building a next-generation laser adaptive optics system, Robo-AO-2, for the UH 2.2-m telescope that will deliver robotic, diffraction-limited observations at visible and near-infrared wavelengths in unprecedented numbers. The superior Maunakea observing site, expanded spectral range and rapid response to high-priority events represent a significant advance over the prototype. Robo-AO-2 will include a new reconfigurable natural guide star sensor for exquisite wavefront correction on bright targets and the demonstration of potentially transformative hybrid AO techniques that promise to extend the faintness limit on current and future exoplanet adaptive optics systems.Comment: 15 page

    Gemini multi-conjugate adaptive optics system review II: Commissioning, operation and overall performance

    Full text link
    The Gemini Multi-conjugate Adaptive Optics System - GeMS, a facility instrument mounted on the Gemini South telescope, delivers a uniform, near diffraction limited images at near infrared wavelengths (0.95 microns- 2.5 microns) over a field of view of 120 arc seconds. GeMS is the first sodium layer based multi laser guide star adaptive optics system used in astronomy. It uses five laser guide stars distributed on a 60 arc seconds square constellation to measure for atmospheric distortions and two deformable mirrors to compensate for it. In this paper, the second devoted to describe the GeMS project, we present the commissioning, overall performance and operational scheme of GeMS. Performance of each sub-system is derived from the commissioning results. The typical image quality, expressed in full with half maximum, Strehl ratios and variations over the field delivered by the system are then described. A discussion of the main contributor to performance limitation is carried-out. Finally, overheads and future system upgrades are described.Comment: 20 pages, 11 figures, accepted for publication in MNRA
    corecore