35 research outputs found
A New FPN Cancellation Circuit for Time-Domain CMOS Image Sensors
A fixed-pattern noise correction technique for time-domain CMOS imagers with high dynamic range is presented in this chapter. Analytical derivations are presented showing how the circuit variations affect the time measured. The error in the time measured can be reduced by using lower reference voltages achieving values smaller than 4%. The fixed-pattern noise correction technique proposed is based on a new readout method for time-domain imagers employing two reference voltages for the discharge time measurement. This new technique is non-sensitive to circuit parameter variations that contribute to fixed-pattern noise such as hold voltages of transistors. A simple electronic circuit is proposed to implement the technique. Circuit and simulation results are presented to demonstrate the feasibility of the proposed technique
High-speed global shutter CMOS machine vision sensor with high dynamic range image acquisition and embedded intelligence
High-speed imagers are required for industrial applications, traffic monitoring, robotics and unmanned vehicles, moviemaking, etc. Many of these applications call also for large spatial resolution, high sensitivity and the ability to detect images with large intra-frame dynamic range. This paper reports a CIS intelligent digital image sensor with 5.2Mpixels which delivers 12-bit fully-corrected images at 250Fps. The new sensor embeds on-chip digital processing circuitry for a large variety of functions including: windowing; pixel binning; sub-sampling; combined windowing-binning-subsampling modes; fixed-pattern noise correction; fine gain and offset control; color processing, etc. These and other CIS functions are programmable through a simple four-wire serial port interface.Ministerio de Ciencia e Innovación IPT-2011-1625-43000
Physical Characteristics, Sensors and Applications of 2D/3DIntegrated CMOS Photodiodes
Two-dimensional photodiodes are reversely biased at a reasonable voltage whereas 3D photodiodes are likely operated at the Geiger mode. How to design integrated 2D and 3D photodiodes is investigated in terms of quantum efficiency, dark current, crosstalk, response time and so on. Beyond photodiodes, a charge supply mechanism provides a proper charge for a high dynamic range of 2D sensing, and a feedback pull-down mechanism expedites the response time of 3D sensing for time-of-flight applications. Particularly, rapid parallel reading at a 3D mode is developed by a bus-sharing mechanism. Using the TSMC 0.35μm 2P4M technology, a 2D/3D-integrated image sensor including P-diffusion_N-well_P-substrate photodiodes, pixel circuits, correlated double sampling circuits, sense amplifiers, a multi-channel time-to-digital converter, column/row decoders, bus-sharing connections/decoders, readout circuits and so on was implemented with a die size of 12mm×12mm. The proposed 2D/3D-integrated image sensor can perceive a 352×288-pixel 2D image and an 88×72-pixel 3D image with a dynamic range up to 100dB and a depth resolution of around 4cm, respectively. Therefore, our image sensor can effectively capture gray-level and depth information of a scene at the same location without additional alignment and post-processing. Finally, the currently available 2D and 3D image sensors are discussed and presented
Sun Sensor Based on a Luminance Spiking Pixel Array
We present a novel sun sensor concept. It is the very first sun sensor built with an address event representation spiking pixel matrix. Its pixels spike with a frequency proportional to illumination. It offers remarkable advantages over conventional digital sun sensors based on active pixel sensor (APS) pixels. Its output data flow is quite reduced. It is possible to resolve the sun position just receiving one single event operating in time-to-first-spike mode. It operates with a latency in the order of milliseconds. It has higher dynamic range than APS image sensors (higher than 100 dB). A custom algorithm to compute the centroid of the illuminated pixels is presented. Experimental results are provided.Universidad de Cádiz PR2016-072Ministerio de Economía y Competitividad TEC2015-66878-C3-1-RJunta de Andalucía TIC 2012- 2338Office of Naval Research (USA) N00014141035
Recommended from our members
Pinned Photodiode Imaging Pixel With Floating Gate Readout and Dual Gain
We present an imaging pixel featuring dual conversion gain in a single exposure based on the pinned photodiode (PPD). The signal charge is first converted to voltage nondestructively using a floating gate, and a second conversion is done at a p-n junction-based sense node (SN). Higher signal dynamic range (DR) is achieved due to the sensing of the same charge with two different conversion gains. The results from a prototype 10- μ m-pitch pixel manufactured in a 180-nm CMOS image sensor process demonstrate a gain ratio of 3, DR of 90 dB, 3.6 e − rms readout noise, and negligible image lag
Miniature high dynamic range time-resolved CMOS SPAD image sensors
Since their integration in complementary metal oxide (CMOS) semiconductor technology in 2003,
single photon avalanche diodes (SPADs) have inspired a new era of low cost high integration
quantum-level image sensors. Their unique feature of discerning single photon detections, their ability
to retain temporal information on every collected photon and their amenability to high speed image
sensor architectures makes them prime candidates for low light and time-resolved applications.
From the biomedical field of fluorescence lifetime imaging microscopy (FLIM) to extreme physical
phenomena such as quantum entanglement, all the way to time of flight (ToF) consumer applications
such as gesture recognition and more recently automotive light detection and ranging (LIDAR), huge
steps in detector and sensor architectures have been made to address the design challenges of pixel
sensitivity and functionality trade-off, scalability and handling of large data rates.
The goal of this research is to explore the hypothesis that given the state of the art CMOS nodes and
fabrication technologies, it is possible to design miniature SPAD image sensors for time-resolved
applications with a small pixel pitch while maintaining both sensitivity and built -in functionality.
Three key approaches are pursued to that purpose: leveraging the innate area reduction of logic gates
and finer design rules of advanced CMOS nodes to balance the pixel’s fill factor and processing
capability, smarter pixel designs with configurable functionality and novel system architectures that
lift the processing burden off the pixel array and mediate data flow.
Two pathfinder SPAD image sensors were designed and fabricated: a 96 × 40 planar front side
illuminated (FSI) sensor with 66% fill factor at 8.25μm pixel pitch in an industrialised 40nm process
and a 128 × 120 3D-stacked backside illuminated (BSI) sensor with 45% fill factor at 7.83μm pixel
pitch. Both designs rely on a digital, configurable, 12-bit ripple counter pixel allowing for time-gated
shot noise limited photon counting. The FSI sensor was operated as a quanta image sensor (QIS)
achieving an extended dynamic range in excess of 100dB, utilising triple exposure windows and in-pixel
data compression which reduces data rates by a factor of 3.75×. The stacked sensor is the first
demonstration of a wafer scale SPAD imaging array with a 1-to-1 hybrid bond connection.
Characterisation results of the detector and sensor performance are presented.
Two other time-resolved 3D-stacked BSI SPAD image sensor architectures are proposed. The first is a
fully integrated 5-wire interface system on chip (SoC), with built-in power management and off-focal
plane data processing and storage for high dynamic range as well as autonomous video rate operation.
Preliminary images and bring-up results of the fabricated 2mm² sensor are shown. The second is a
highly configurable design capable of simultaneous multi-bit oversampled imaging and programmable
region of interest (ROI) time correlated single photon counting (TCSPC) with on-chip histogram
generation. The 6.48μm pitch array has been submitted for fabrication. In-depth design details of both
architectures are discussed
Propuesta de arquitectura y circuitos para la mejora del rango dinámico de sistemas de visión en un chip diseñados en tecnologías CMOS profundamente submicrométrica
El trabajo presentado en esta tesis trata de proponer nuevas técnicas para la expansión
del rango dinámico en sensores electrónicos de imagen. En este caso, hemos dirigido nuestros
estudios hacia la posibilidad de proveer dicha funcionalidad en un solo chip. Esto es, sin
necesitar ningún soporte externo de hardware o software, formando un tipo de sistema
denominado Sistema de Visión en un Chip (VSoC). El rango dinámico de los sensores
electrónicos de imagen se define como el cociente entre la máxima y la mínima iluminación
medible. Para mejorar este factor surgen dos opciones. La primera, reducir la mínima luz
medible mediante la disminución del ruido en el sensor de imagen. La segunda, incrementar la
máxima luz medible mediante la extensión del límite de saturación del sensor.
Cronológicamente, nuestra primera opción para mejorar el rango dinámico se basó en
reducir el ruido. Varias opciones se pueden tomar para mejorar la figura de mérito de ruido del
sistema: reducir el ruido usando una tecnología CIS o usar circuitos dedicados, tales como
calibración o auto cero. Sin embargo, el uso de técnicas de circuitos implica limitaciones, las
cuales sólo pueden ser resueltas mediante el uso de tecnologías no estándar que están
especialmente diseñadas para este propósito. La tecnología CIS utilizada está dirigida a la
mejora de la calidad y las posibilidades del proceso de fotosensado, tales como sensibilidad,
ruido, permitir imagen a color, etcétera. Para estudiar las características de la tecnología en más
detalle, se diseñó un chip de test, lo cual permite extraer las mejores opciones para futuros
píxeles. No obstante, a pesar de un satisfactorio comportamiento general, las medidas referentes
al rango dinámico indicaron que la mejora de este mediante sólo tecnología CIS es muy
limitada. Es decir, la mejora de la corriente oscura del sensor no es suficiente para nuestro
propósito. Para una mayor mejora del rango dinámico se deben incluir circuitos dentro del píxel.
No obstante, las tecnologías CIS usualmente no permiten nada más que transistores NMOS al
lado del fotosensor, lo cual implica una seria restricción en el circuito a usar. Como resultado, el
diseño de un sensor de imagen con mejora del rango dinámico en tecnologías CIS fue
desestimado en favor del uso de una tecnología estándar, la cual da más flexibilidad al diseño
del píxel.
En tecnologías estándar, es posible introducir una alta funcionalidad usando circuitos
dentro del píxel, lo cual permite técnicas avanzadas para extender el límite de saturación de los
sensores de imagen. Para este objetivo surgen dos opciones: adquisición lineal o compresiva. Si
se realiza una adquisición lineal, se generarán una gran cantidad de datos por cada píxel. Como
ejemplo, si el rango dinámico de la escena es de 120dB al menos se necesitarían 20-bits/píxel,
log2(10120/20)=19.93, para la representación binaria de este rango dinámico. Esto necesitaría de
amplios recursos para procesar esta gran cantidad de datos, y un gran ancho de banda para
moverlos al circuito de procesamiento. Para evitar estos problemas, los sensores de imagen de
alto rango dinámico usualmente optan por utilizar una adquisición compresiva de la luz. Por lo
tanto, esto implica dos tareas a realizar: la captura y la compresión de la imagen. La captura de
la imagen se realiza a nivel de píxel, en el dispositivo fotosensor, mientras que la compresión de
la imagen puede ser realizada a nivel de píxel, de sistema, o mediante postprocesado externo.
Usando el postprocesado, existe un campo de investigación que estudia la compresión de
escenas de alto rango dinámico mientras se mantienen los detalles, produciendo un resultado
apropiado para la percepción humana en monitores convencionales de bajo rango dinámico.
Esto se denomina Mapeo de Tonos (Tone Mapping) y usualmente emplea solo 8-bits/píxel para
las representaciones de imágenes, ya que éste es el estándar para las imágenes de bajo rango
dinámico.
Los píxeles de adquisición compresiva, por su parte, realizan una compresión que no es
dependiente de la escena de alto rango dinámico a capturar, lo cual implica una baja compresión
o pérdida de detalles y contraste. Para evitar estas desventajas, en este trabajo, se presenta un
píxel de adquisición compresiva que aplica una técnica de mapeo de tonos que permite la
captura de imágenes ya comprimidas de una forma optimizada para mantener los detalles y el
contraste, produciendo una cantidad muy reducida de datos. Las técnicas de mapeo de tonos
ejecutan normalmente postprocesamiento mediante software en un ordenador sobre imágenes
capturadas sin compresión, las cuales contienen una gran cantidad de datos. Estas técnicas han
pertenecido tradicionalmente al campo de los gráficos por ordenador debido a la gran cantidad
de esfuerzo computacional que requieren. Sin embargo, hemos desarrollado un nuevo algoritmo
de mapeo de tonos especialmente adaptado para aprovechar los circuitos dentro del píxel y que
requiere un reducido esfuerzo de computación fuera de la matriz de píxeles, lo cual permite el
desarrollo de un sistema de visión en un solo chip. El nuevo algoritmo de mapeo de tonos, el
cual es un concepto matemático que puede ser simulado mediante software, se ha implementado
también en un chip. Sin embargo, para esta implementación hardware en un chip son necesarias
algunas adaptaciones y técnicas avanzadas de diseño, que constituyen en sí mismas otra de las
contribuciones de este trabajo. Más aún, debido a la nueva funcionalidad, se han desarrollado
modificaciones de los típicos métodos a usar para la caracterización y captura de imágenes