555 research outputs found
A method for space-variant deblurring with application to adaptive optics imaging in astronomy
Images from adaptive optics systems are generally affected by significant
distortions of the point spread function (PSF) across the field of view,
depending on the position of natural and artificial guide stars. Image
reduction techniques circumventing or mitigating these effects are important
tools to take full advantage of the scientific information encoded in AO
images. The aim of this paper is to propose a method for the deblurring of the
astronomical image, given a set of samples of the space-variant PSF. The method
is based on a partitioning of the image domain into regions of isoplanatism and
on applying suitable deconvolution methods with boundary effects correction to
each region. The effectiveness of the boundary effects correction is proved.
Moreover, the criterion for extending the disjoint sections to partially
overlapping sections is validated. The method is applied to simulated images of
a stellar system characterized by a spatially variable PSF. We obtain good
photometric quality, and therefore good science quality, by performing aperture
photometry on the deblurred images. The proposed method is implemented in IDL
in the Software Package "Patch", which is available on
http://www.airyproject.eu.Comment: 11 pages, 9 figures, 7 tables, accepted by A&
Monocular slam for deformable scenarios.
El problema de localizar la posición de un sensor en un mapa incierto que se estima simultáneamente se conoce como Localización y Mapeo Simultáneo --SLAM--. Es un problema desafiante comparable al paradigma del huevo y la gallina. Para ubicar el sensor necesitamos conocer el mapa, pero para construir el mapa, necesitamos la posición del sensor. Cuando se utiliza un sensor visual, por ejemplo, una cámara, se denomina Visual SLAM o VSLAM. Los sensores visuales para SLAM se dividen entre los que proporcionan información de profundidad (por ejemplo, cámaras RGB-D o equipos estéreo) y los que no (por ejemplo, cámaras monoculares o cámaras de eventos). En esta tesis hemos centrado nuestra investigación en SLAM con cámaras monoculares.Debido a la falta de percepción de profundidad, el SLAM monocular es intrínsecamente más duro en comparación con el SLAM con sensores de profundidad. Los trabajos estado del arte en VSLAM monocular han asumido normalmente que la escena permanece rígida durante toda la secuencia, lo que es una suposición factible para entornos industriales y urbanos. El supuesto de rigidez aporta las restricciones suficientes al problema y permite reconstruir un mapa fiable tras procesar varias imágenes. En los últimos años, el interés por el SLAM ha llegado a las áreas médicas donde los algoritmos SLAM podrían ayudar a orientar al cirujano o localizar la posición de un robot. Sin embargo, a diferencia de los escenarios industriales o urbanos, en secuencias dentro del cuerpo, todo puede deformarse eventualmente y la suposición de rigidez acaba siendo inválida en la práctica, y por extensión, también los algoritmos de SLAM monoculares. Por lo tanto, nuestro objetivo es ampliar los límites de los algoritmos de SLAM y concebir el primer sistema SLAM monocular capaz de hacer frente a la deformación de la escena.Los sistemas de SLAM actuales calculan la posición de la cámara y la estructura del mapa en dos subprocesos concurrentes: la localización y el mapeo. La localización se encarga de procesar cada imagen para ubicar el sensor de forma continua, en cambio el mapeo se encarga de construir el mapa de la escena. Nosotros hemos adoptado esta estructura y concebimos tanto la localización deformable como el mapeo deformable ahora capaces de recuperar la escena incluso con deformación.Nuestra primera contribución es la localización deformable. La localización deformable utiliza la estructura del mapa para recuperar la pose de la cámara con una única imagen. Simultáneamente, a medida que el mapa se deforma durante la secuencia, también recupera la deformación del mapa para cada fotograma. Hemos propuesto dos familias de localización deformable. En el primer algoritmo de localización deformable, asumimos que todos los puntos están embebidos en una superficie denominada plantilla. Podemos recuperar la deformación de la superficie gracias a un modelo de deformación global que permite estimar la deformación más probable del objeto. Con nuestro segundo algoritmo de localización deformable, demostramos que es posible recuperar la deformación del mapa sin un modelo de deformación global, representando el mapa como surfels individuales. Nuestros resultados experimentales mostraron que, recuperando la deformación del mapa, ambos métodos superan tanto en robustez como en precisión a los métodos rígidos.Nuestra segunda contribución es la concepción del mapeo deformable. Es el back-end del algoritmo SLAM y procesa un lote de imágenes para recuperar la estructura del mapa para todas las imágenes y hacer crecer el mapa ensamblando las observaciones parciales del mismo. Tanto la localización deformable como el mapeo que se ejecutan en paralelo y juntos ensamblan el primer SLAM monocular deformable: \emph{DefSLAM}. Una evaluación ampliada de nuestro método demostró, tanto en secuencias controladas por laboratorio como en secuencias médicas, que nuestro método procesa con éxito secuencias en las que falla el sistema monocular SLAM actual.Nuestra tercera contribución son dos métodos para explotar la información fotométrica en SLAM monocular deformable. Por un lado, SD-DefSLAM que aprovecha el emparejamiento semi-directo para obtener un emparejamiento mucho más fiable de los puntos del mapa en las nuevas imágenes, como consecuencia, se demostró que es más robusto y estable en secuencias médicas. Por otro lado, proponemos un método de Localización Deformable Directa y Dispersa en el que usamos un error fotométrico directo para rastrear la deformación de un mapa modelado como un conjunto de surfels 3D desconectados. Podemos recuperar la deformación de múltiples superficies desconectadas, deformaciones no isométricas o superficies con una topología cambiante.<br /
A magnetic liquid deformable mirror for high stroke and low order axially symmetrical aberrations
We present a new class of magnetically shaped deformable liquid mirrors made
of a magnetic liquid (ferrofluid). Deformable liquid mirrors offer advantages
with respect to deformable solid mirrors: large deformations, low costs and the
possibility of very large mirrors with added aberration control. They have some
disadvantages (e.g. slower response time). We made and tested a deformable
mirror, producing axially symmetrical wavefront aberrations by applying
electric currents to 5 concentric coils made of copper wire wound on aluminum
cylinders. Each of these coils generates a magnetic field which combines to
deform the surface of a ferrofluid to the desired shape. We have carried out
laboratory tests on a 5 cm diameter prototype mirror and demonstrated defocus
as well as Seidel and Zernike spherical aberrations having amplitudes up to 20
microns, which was the limiting measurable amplitude of our equipmentComment: To appear in Optics Expres
Optical techniques for 3D surface reconstruction in computer-assisted laparoscopic surgery
One of the main challenges for computer-assisted surgery (CAS) is to determine the intra-opera- tive morphology and motion of soft-tissues. This information is prerequisite to the registration of multi-modal patient-specific data for enhancing the surgeon’s navigation capabilites by observ- ing beyond exposed tissue surfaces and for providing intelligent control of robotic-assisted in- struments. In minimally invasive surgery (MIS), optical techniques are an increasingly attractive approach for in vivo 3D reconstruction of the soft-tissue surface geometry. This paper reviews the state-of-the-art methods for optical intra-operative 3D reconstruction in laparoscopic surgery and discusses the technical challenges and future perspectives towards clinical translation. With the recent paradigm shift of surgical practice towards MIS and new developments in 3D opti- cal imaging, this is a timely discussion about technologies that could facilitate complex CAS procedures in dynamic and deformable anatomical regions
Adaptive optics in high-contrast imaging
The development of adaptive optics (AO) played a major role in modern
astronomy over the last three decades. By compensating for the atmospheric
turbulence, these systems enable to reach the diffraction limit on large
telescopes. In this review, we will focus on high contrast applications of
adaptive optics, namely, imaging the close vicinity of bright stellar objects
and revealing regions otherwise hidden within the turbulent halo of the
atmosphere to look for objects with a contrast ratio lower than 10^-4 with
respect to the central star. Such high-contrast AO-corrected observations have
led to fundamental results in our current understanding of planetary formation
and evolution as well as stellar evolution. AO systems equipped three
generations of instruments, from the first pioneering experiments in the
nineties, to the first wave of instruments on 8m-class telescopes in the years
2000, and finally to the extreme AO systems that have recently started
operations. Along with high-contrast techniques, AO enables to reveal the
circumstellar environment: massive protoplanetary disks featuring spiral arms,
gaps or other asymmetries hinting at on-going planet formation, young giant
planets shining in thermal emission, or tenuous debris disks and micron-sized
dust leftover from collisions in massive asteroid-belt analogs. After
introducing the science case and technical requirements, we will review the
architecture of standard and extreme AO systems, before presenting a few
selected science highlights obtained with recent AO instruments.Comment: 24 pages, 14 figure
The Robo-AO-2 facility for rapid visible/near-infrared AO imaging and the demonstration of hybrid techniques
We are building a next-generation laser adaptive optics system, Robo-AO-2,
for the UH 2.2-m telescope that will deliver robotic, diffraction-limited
observations at visible and near-infrared wavelengths in unprecedented numbers.
The superior Maunakea observing site, expanded spectral range and rapid
response to high-priority events represent a significant advance over the
prototype. Robo-AO-2 will include a new reconfigurable natural guide star
sensor for exquisite wavefront correction on bright targets and the
demonstration of potentially transformative hybrid AO techniques that promise
to extend the faintness limit on current and future exoplanet adaptive optics
systems.Comment: 15 page
Gemini multi-conjugate adaptive optics system review II: Commissioning, operation and overall performance
The Gemini Multi-conjugate Adaptive Optics System - GeMS, a facility
instrument mounted on the Gemini South telescope, delivers a uniform, near
diffraction limited images at near infrared wavelengths (0.95 microns- 2.5
microns) over a field of view of 120 arc seconds. GeMS is the first sodium
layer based multi laser guide star adaptive optics system used in astronomy. It
uses five laser guide stars distributed on a 60 arc seconds square
constellation to measure for atmospheric distortions and two deformable mirrors
to compensate for it. In this paper, the second devoted to describe the GeMS
project, we present the commissioning, overall performance and operational
scheme of GeMS. Performance of each sub-system is derived from the
commissioning results. The typical image quality, expressed in full with half
maximum, Strehl ratios and variations over the field delivered by the system
are then described. A discussion of the main contributor to performance
limitation is carried-out. Finally, overheads and future system upgrades are
described.Comment: 20 pages, 11 figures, accepted for publication in MNRA
- …