1,681 research outputs found
Non-equilibrium dynamics of actively-driven viscoelastic networks
To maintain internal organization, living systems need to dissipate energy at the molecular level, thus operating far from thermodynamic equilibrium. At the larger scales, non-equilibrium behavior can be manifest through circulation in the phase space of mesoscopic coordinates and various techniques and measures have been developed to detect and quantify this circulation. It is however still not clear what these measures teach us about the physical properties of the system and how they can be employed to make useful predictions. In the following thesis, we will first review recent progress in detecting and quantifying mesoscopic currents in soft living systems; we will then employ minimal models of actively driven viscoelastic networks to understand how the non-equilibrium dynamics are affected by the internal mechanical structure. Finally, we will introduce a method of assessing non-equilibrium fluctuations in a tracking-free fashion via time-lapse microscopy imaging.Um ihre innere Organisation aufrechtzuerhalten, müssen lebende Systeme Energie auf molekularer Ebene dissipieren. Somit arbeiten sie weit entfernt vom thermodynamischen Gleichgewicht. Auf größeren Skalen kann sich Nichtgleichgewichtsverhalten in zirkulärer Bewegung im Phasenraum der mesoskopischen Koordinaten niederschlagen. Um diese Zirkulation zu erkennen und zu quantifizieren, wurden verschiedene Techniken und Methoden entwickelt. Es ist jedoch immer noch nicht klar, was diese Methoden über die physikalischen Eigenschaften des Systems aussagen und wie sie für nützliche Vorhersagen eingesetzt werden können. In dieser Arbeit werden wir zunächst die jüngsten Fortschritte bei der Erkennung und Quantifizierung mesoskopischer Ströme in Systemen aus weicher lebendender Materie untersuchen. Anschließend werden wir minimale Modelle aktiv getriebener viskoelastischer Netzwerke verwenden, um zu verstehen, wie die Nichtgleichgewichtsdynamik durch deren interne mechanische Struktur beeinflusst wird. Schließlich werden wir eine Methode zur Messung von Nichtgleichgewichtsfluktuationen aus Zeitraffermikroskopieaufnahmen, ohne tracking auskommt, einführen
Non-equilibrium dynamics of actively-driven viscoelastic networks
To maintain internal organization, living systems need to dissipate energy at the molecular level, thus operating far from thermodynamic equilibrium. At the larger scales, non-equilibrium behavior can be manifest through circulation in the phase space of mesoscopic coordinates and various techniques and measures have been developed to detect and quantify this circulation. It is however still not clear what these measures teach us about the physical properties of the system and how they can be employed to make useful predictions. In the following thesis, we will first review recent progress in detecting and quantifying mesoscopic currents in soft living systems; we will then employ minimal models of actively driven viscoelastic networks to understand how the non-equilibrium dynamics are affected by the internal mechanical structure. Finally, we will introduce a method of assessing non-equilibrium fluctuations in a tracking-free fashion via time-lapse microscopy imaging.Um ihre innere Organisation aufrechtzuerhalten, müssen lebende Systeme Energie auf molekularer Ebene dissipieren. Somit arbeiten sie weit entfernt vom thermodynamischen Gleichgewicht. Auf größeren Skalen kann sich Nichtgleichgewichtsverhalten in zirkulärer Bewegung im Phasenraum der mesoskopischen Koordinaten niederschlagen. Um diese Zirkulation zu erkennen und zu quantifizieren, wurden verschiedene Techniken und Methoden entwickelt. Es ist jedoch immer noch nicht klar, was diese Methoden über die physikalischen Eigenschaften des Systems aussagen und wie sie für nützliche Vorhersagen eingesetzt werden können. In dieser Arbeit werden wir zunächst die jüngsten Fortschritte bei der Erkennung und Quantifizierung mesoskopischer Ströme in Systemen aus weicher lebendender Materie untersuchen. Anschließend werden wir minimale Modelle aktiv getriebener viskoelastischer Netzwerke verwenden, um zu verstehen, wie die Nichtgleichgewichtsdynamik durch deren interne mechanische Struktur beeinflusst wird. Schließlich werden wir eine Methode zur Messung von Nichtgleichgewichtsfluktuationen aus Zeitraffermikroskopieaufnahmen, ohne tracking auskommt, einführen
Propuesta de arquitectura y circuitos para la mejora del rango dinámico de sistemas de visión en un chip diseñados en tecnologías CMOS profundamente submicrométrica
El trabajo presentado en esta tesis trata de proponer nuevas técnicas para la expansión
del rango dinámico en sensores electrónicos de imagen. En este caso, hemos dirigido nuestros
estudios hacia la posibilidad de proveer dicha funcionalidad en un solo chip. Esto es, sin
necesitar ningún soporte externo de hardware o software, formando un tipo de sistema
denominado Sistema de Visión en un Chip (VSoC). El rango dinámico de los sensores
electrónicos de imagen se define como el cociente entre la máxima y la mínima iluminación
medible. Para mejorar este factor surgen dos opciones. La primera, reducir la mínima luz
medible mediante la disminución del ruido en el sensor de imagen. La segunda, incrementar la
máxima luz medible mediante la extensión del límite de saturación del sensor.
Cronológicamente, nuestra primera opción para mejorar el rango dinámico se basó en
reducir el ruido. Varias opciones se pueden tomar para mejorar la figura de mérito de ruido del
sistema: reducir el ruido usando una tecnología CIS o usar circuitos dedicados, tales como
calibración o auto cero. Sin embargo, el uso de técnicas de circuitos implica limitaciones, las
cuales sólo pueden ser resueltas mediante el uso de tecnologías no estándar que están
especialmente diseñadas para este propósito. La tecnología CIS utilizada está dirigida a la
mejora de la calidad y las posibilidades del proceso de fotosensado, tales como sensibilidad,
ruido, permitir imagen a color, etcétera. Para estudiar las características de la tecnología en más
detalle, se diseñó un chip de test, lo cual permite extraer las mejores opciones para futuros
píxeles. No obstante, a pesar de un satisfactorio comportamiento general, las medidas referentes
al rango dinámico indicaron que la mejora de este mediante sólo tecnología CIS es muy
limitada. Es decir, la mejora de la corriente oscura del sensor no es suficiente para nuestro
propósito. Para una mayor mejora del rango dinámico se deben incluir circuitos dentro del píxel.
No obstante, las tecnologías CIS usualmente no permiten nada más que transistores NMOS al
lado del fotosensor, lo cual implica una seria restricción en el circuito a usar. Como resultado, el
diseño de un sensor de imagen con mejora del rango dinámico en tecnologías CIS fue
desestimado en favor del uso de una tecnología estándar, la cual da más flexibilidad al diseño
del píxel.
En tecnologías estándar, es posible introducir una alta funcionalidad usando circuitos
dentro del píxel, lo cual permite técnicas avanzadas para extender el límite de saturación de los
sensores de imagen. Para este objetivo surgen dos opciones: adquisición lineal o compresiva. Si
se realiza una adquisición lineal, se generarán una gran cantidad de datos por cada píxel. Como
ejemplo, si el rango dinámico de la escena es de 120dB al menos se necesitarían 20-bits/píxel,
log2(10120/20)=19.93, para la representación binaria de este rango dinámico. Esto necesitaría de
amplios recursos para procesar esta gran cantidad de datos, y un gran ancho de banda para
moverlos al circuito de procesamiento. Para evitar estos problemas, los sensores de imagen de
alto rango dinámico usualmente optan por utilizar una adquisición compresiva de la luz. Por lo
tanto, esto implica dos tareas a realizar: la captura y la compresión de la imagen. La captura de
la imagen se realiza a nivel de píxel, en el dispositivo fotosensor, mientras que la compresión de
la imagen puede ser realizada a nivel de píxel, de sistema, o mediante postprocesado externo.
Usando el postprocesado, existe un campo de investigación que estudia la compresión de
escenas de alto rango dinámico mientras se mantienen los detalles, produciendo un resultado
apropiado para la percepción humana en monitores convencionales de bajo rango dinámico.
Esto se denomina Mapeo de Tonos (Tone Mapping) y usualmente emplea solo 8-bits/píxel para
las representaciones de imágenes, ya que éste es el estándar para las imágenes de bajo rango
dinámico.
Los píxeles de adquisición compresiva, por su parte, realizan una compresión que no es
dependiente de la escena de alto rango dinámico a capturar, lo cual implica una baja compresión
o pérdida de detalles y contraste. Para evitar estas desventajas, en este trabajo, se presenta un
píxel de adquisición compresiva que aplica una técnica de mapeo de tonos que permite la
captura de imágenes ya comprimidas de una forma optimizada para mantener los detalles y el
contraste, produciendo una cantidad muy reducida de datos. Las técnicas de mapeo de tonos
ejecutan normalmente postprocesamiento mediante software en un ordenador sobre imágenes
capturadas sin compresión, las cuales contienen una gran cantidad de datos. Estas técnicas han
pertenecido tradicionalmente al campo de los gráficos por ordenador debido a la gran cantidad
de esfuerzo computacional que requieren. Sin embargo, hemos desarrollado un nuevo algoritmo
de mapeo de tonos especialmente adaptado para aprovechar los circuitos dentro del píxel y que
requiere un reducido esfuerzo de computación fuera de la matriz de píxeles, lo cual permite el
desarrollo de un sistema de visión en un solo chip. El nuevo algoritmo de mapeo de tonos, el
cual es un concepto matemático que puede ser simulado mediante software, se ha implementado
también en un chip. Sin embargo, para esta implementación hardware en un chip son necesarias
algunas adaptaciones y técnicas avanzadas de diseño, que constituyen en sí mismas otra de las
contribuciones de este trabajo. Más aún, debido a la nueva funcionalidad, se han desarrollado
modificaciones de los típicos métodos a usar para la caracterización y captura de imágenes
Adaptive weights smoothing with applications to image segmentation
We propose a new method of nonparametric estimation which is based on locally constant smoothing with an adaptive choice of weights for every pair of data-points. Some theoretical properties of the procedure are investigated. Then we demonstrate the performance of the method on some simulated univariate and bivariate examples and compare it with other nonparametric methods. Finally we discuss applications of this procedure to Magnetic Resonance Imaging
Frequency characteristics of aerial scenes with respect to a video imagining system
Thesis (M.A.)--Boston UniversityAn overall investigation is made of operating characteristics, theoretical limitations and optimum range values for video communication of aerial scenes. Reasons are given for the selection of a particular receiver and the importance of this type of study is indicated from the A.D.P. crystals' complex A.C. frequency response. The restricted contrast range, due to haze, is noted in evaluating the various video systems
Recommended from our members
Kinetics of Brownian Transport
The rate of progress of Brownian processes is not easily quantifiable. An importantmeasure
of the ”speed” of Brownian motion is themean first-passage time (FPT) to a given
distance. FPTs exist in various flavours including exit- and transition-path times, which,
for instance, can be used to quantify the length of reaction paths in folding transitions
inmolecules such as DNA. Due to their inherently stochastic nature, measurements of
any FPTs require repeated experiments under controlled conditions. In my thesis, I systematically
explore FPTs in various contexts using a custom-built automated holographic
optical tweezers (HOT) setup. More precisely, I investigate transition- and exit-path-time
symmetries in equilibrium systems and demonstrate the breakdown of the symmetry in
out-of-equilibriumsystems. Experimental data from folding DNA-hairpins show that the
principles established on the mesoscale extend well into the molecular regime.
In Kramers escape problem, the reciprocal of the escape rate corresponds to the time
of first-passage to leave the initial state. A lower bound for the achievable FPT, e.g. of
the reaction coordinate of a folding molecule, therefore corresponds to a speed-limit
of the ensemble reaction rate. Using my setup, I show that certain barrier shapes can
substantially lower the escape time across the barrier without changing the overall energy
balance. This result has deep implications for reaction kinetics, e.g. in protein folding.
Furthermore, I investigate the role of entropic forces in Brownian transport, show that
hydrodynamic drag plays a crucial role in Brownian motion in confined systems, and give
an experimental realisation of Fick-Jacobs theory.
The thermodynamic applications of HOTs considered here necessitate the creation
of fine-tuned optical landscapes, which requires precise phase-retrieval to compute the
necessary holograms. In order to address this problem, I explore novel algorithms based
on deep conditional generative models and test whether such models can assist in finding
holograms for a given desired light distribution. I compare several differentmodels,
including conditional generative-adversarial networks and conditional variational autoencoders,
which are trained on data sets sampled on the HOT setup. Furthermore, I propose
a novel forward-loss-minimising architecture and demonstrate its excellent performance
on both validation and artificially-created test data sets.European Training Network (ETN) Grant No. 674979-NANOTRANS
Winton Programme for the Physics of Sustainabilit
High-Density Solid-State Memory Devices and Technologies
This Special Issue aims to examine high-density solid-state memory devices and technologies from various standpoints in an attempt to foster their continuous success in the future. Considering that broadening of the range of applications will likely offer different types of solid-state memories their chance in the spotlight, the Special Issue is not focused on a specific storage solution but rather embraces all the most relevant solid-state memory devices and technologies currently on stage. Even the subjects dealt with in this Special Issue are widespread, ranging from process and design issues/innovations to the experimental and theoretical analysis of the operation and from the performance and reliability of memory devices and arrays to the exploitation of solid-state memories to pursue new computing paradigms
IST Austria Thesis
The process of gene expression is central to the modern understanding of how cellular systems
function. In this process, a special kind of regulatory proteins, called transcription factors,
are important to determine how much protein is produced from a given gene. As biological
information is transmitted from transcription factor concentration to mRNA levels to amounts of
protein, various sources of noise arise and pose limits to the fidelity of intracellular signaling.
This thesis concerns itself with several aspects of stochastic gene expression: (i) the mathematical
description of complex promoters responsible for the stochastic production of biomolecules,
(ii) fundamental limits to information processing the cell faces due to the interference from multiple
fluctuating signals, (iii) how the presence of gene expression noise influences the evolution
of regulatory sequences, (iv) and tools for the experimental study of origins and consequences
of cell-cell heterogeneity, including an application to bacterial stress response systems
Color Image Processing based on Graph Theory
[ES] La visión artificial es uno de los campos en mayor crecimiento en la actualidad que, junto con otras tecnologías como la Biometría o el Big Data, se ha convertido en el foco de interés de numerosas investigaciones y es considerada como una de las tecnologías del futuro. Este amplio campo abarca diversos métodos entre los que se encuentra el procesamiento y análisis de imágenes digitales. El éxito del análisis de imágenes y otras tareas de procesamiento de alto nivel, como pueden ser el reconocimiento de patrones o la visión 3D, dependerá en gran medida de la buena calidad de las imágenes de partida.
Hoy en día existen multitud de factores que dañan las imágenes dificultando la obtención de imágenes de calidad óptima, esto ha convertido el (pre-) procesamiento digital de imágenes en un paso fundamental previo a la aplicación de cualquier otra tarea de procesado. Los factores más comunes son el ruido y las malas condiciones de adquisición: los artefactos provocados por el ruido dificultan la interpretación adecuada de la imagen y la adquisición en condiciones de iluminación o exposición deficientes, como escenas dinámicas, causan pérdida de información de la imagen que puede ser clave para ciertas tareas de procesamiento. Los pasos de (pre-)procesamiento de imágenes conocidos como suavizado y realce se aplican comúnmente para solventar estos problemas: El suavizado tiene por objeto reducir el ruido mientras que el realce se centra en mejorar o recuperar la información imprecisa o dañada. Con estos métodos conseguimos reparar información de los detalles y bordes de la imagen con una nitidez insuficiente o un contenido borroso que impide el (post-)procesamiento óptimo de la imagen.
Existen numerosos métodos que suavizan el ruido de una imagen, sin embargo, en muchos casos el proceso de filtrado provoca emborronamiento en los bordes y detalles de la imagen. De igual manera podemos encontrar una enorme cantidad de técnicas de realce que intentan combatir las pérdidas de información, sin embargo, estas técnicas no contemplan la existencia de ruido en la imagen que procesan: ante una imagen ruidosa, cualquier técnica de realce provocará también un aumento del ruido. Aunque la idea intuitiva para solucionar este último caso será el previo filtrado y posterior realce, este enfoque ha demostrado no ser óptimo: el filtrado podrá eliminar información que, a su vez, podría no ser recuperable en el siguiente paso de realce.
En la presente tesis doctoral se propone un modelo basado en teoría de grafos para el procesamiento de imágenes en color. En este modelo, se construye un grafo para cada píxel de tal manera que sus propiedades permiten caracterizar y clasificar dicho pixel. Como veremos, el modelo propuesto es robusto y capaz de adaptarse a una gran variedad de aplicaciones. En particular, aplicamos el modelo para crear nuevas soluciones a los dos problemas fundamentales del procesamiento de imágenes: suavizado y realce. Se ha estudiado el modelo en profundidad en función del umbral, parámetro clave que asegura la correcta clasificación de los píxeles de la imagen. Además, también se han estudiado las posibles características y posibilidades del modelo que nos han permitido sacarle el máximo partido en cada una de las posibles aplicaciones. Basado en este modelo se ha diseñado un filtro adaptativo capaz de eliminar ruido gaussiano de una imagen sin difuminar los bordes ni perder información de los detalles. Además, también ha permitido desarrollar un método capaz de realzar los bordes y detalles de una imagen al mismo tiempo que se suaviza el ruido presente en la misma. Esta aplicación simultánea consigue combinar dos operaciones opuestas por definición y superar así los inconvenientes presentados por el enfoque en dos etapas.[CA] La visió artificial és un dels camps en major creixement en l'actualitat que, junt amb altres tecnlogies com la Biometria o el Big Data, s'ha convertit en el focus d'interés de nombroses investigacions i és considerada com una de les tecnologies del futur. Aquest ampli camp comprén diversos m`etodes entre els quals es troba el processament digital d'imatges i anàlisis d'imatges digitals. L'èxit de l'anàlisis d'imatges i altres tasques de processament d'alt nivell, com poden ser el reconeixement de patrons o la visió 3D, dependrà en gran manera de la bona qualitat de les imatges de partida.
Avui dia existeixen multitud de factors que danyen les imatges dificultant l'obtenció d'imatges de qualitat òptima, açò ha convertit el (pre-) processament digital d'imatges en un pas fonamental previa la l'aplicació de qualsevol altra tasca de processament. Els factors més comuns són el soroll i les males condicions d'adquisició: els artefactes provocats pel soroll dificulten la inter- pretació adequada de la imatge i l'adquisició en condicions d'il·luminació o exposició deficients, com a escenes dinàmiques, causen pèrdua d'informació de la imatge que pot ser clau per a certes tasques de processament. Els passos de (pre-) processament d'imatges coneguts com suavitzat i realç s'apliquen comunament per a resoldre aquests problemes: El suavitzat té com a objecte reduir el soroll mentres que el real se centra a millorar o recuperar la informació imprecisa o danyada. Amb aquests mètodes aconseguim reparar informació dels detalls i bords de la imatge amb una nitidesa insuficient o un contingut borrós que impedeix el (post-)processament òptim de la imatge.
Existeixen nombrosos mètodes que suavitzen el soroll d'una imatge, no obstant això, en molts casos el procés de filtrat provoca emborronamiento en els bords i detalls de la imatge. De la mateixa manera podem trobar una enorme quantitat de tècniques de realç que intenten combatre les pèrdues d'informació, no obstant això, aquestes tècniques no contemplen l'existència de soroll en la imatge que processen: davant d'una image sorollosa, qualsevol tècnica de realç provocarà també un augment del soroll. Encara que la idea intuïtiva per a solucionar aquest últim cas seria el previ filtrat i posterior realç, aquest enfocament ha demostrat no ser òptim: el filtrat podria eliminar informació que, al seu torn, podria no ser recuperable en el seguënt pas de realç.
En la present Tesi doctoral es proposa un model basat en teoria de grafs per al processament d'imatges en color. En aquest model, es construïx un graf per a cada píxel de tal manera que les seues propietats permeten caracteritzar i classificar el píxel en quëstió. Com veurem, el model proposat és robust i capaç d'adaptar-se a una gran varietat d'aplicacions. En particular, apliquem el model per a crear noves solucions als dos problemes fonamentals del processament d'imatges: suavitzat i realç. S'ha estudiat el model en profunditat en funció del llindar, paràmetre clau que assegura la correcta classificació dels píxels de la imatge. A més, també s'han estudiat les possibles característiques i possibilitats del model que ens han permés traure-li el màxim partit en cadascuna de les possibles aplicacions. Basat en aquest model s'ha dissenyat un filtre adaptatiu capaç d'eliminar soroll gaussià d'una imatge sense difuminar els bords ni perdre informació dels detalls. A més, també ha permés desenvolupar un mètode capaç de realçar els bords i detalls d'una imatge al mateix temps que se suavitza el soroll present en la mateixa. Aquesta aplicació simultània aconseguix combinar dues operacions oposades per definició i superar així els inconvenients presentats per l'enfocament en dues etapes.[EN] Computer vision is one of the fastest growing fields at present which, along with other technologies such as Biometrics or Big Data, has become the focus of interest of many research projects and it is considered one of the technologies of the future. This broad field includes a plethora of digital image processing and analysis tasks. To guarantee the success of image analysis and other high-level processing tasks as 3D imaging or pattern recognition, it is critical to improve the quality of the raw images acquired.
Nowadays all images are affected by different factors that hinder the achievement of optimal image quality, making digital image processing a fundamental step prior to the application of any other practical application. The most common of these factors are noise and poor acquisition conditions: noise artefacts hamper proper image interpretation of the image; and acquisition in
poor lighting or exposure conditions, such as dynamic scenes, causes loss of image information that can be key for certain processing tasks. Image (pre-) processing steps known as smoothing and sharpening are commonly applied to overcome these inconveniences: Smoothing is aimed at reducing noise and sharpening at improving or recovering imprecise or damaged information of image details and edges with insufficient sharpness or blurred content that prevents optimal image (post-)processing.
There are many methods for smoothing the noise in an image, however in many cases the filtering process causes blurring at the edges and details of the image. Besides, there are also many sharpening techniques, which try to combat the loss of information due to blurring of image texture and need to contemplate the existence of noise in the image they process. When dealing with a noisy image, any sharpening technique may amplify the noise. Although the intuitive idea to solve this last case would be the previous filtering and later sharpening, this approach has proved not to be optimal: the filtering could remove information that, in turn, may not be recoverable in the later sharpening step.
In the present PhD dissertation we propose a model based on graph theory for color image processing from a vector approach. In this model, a graph is built for each pixel in such a way that its features allow to characterize and classify the pixel. As we will show, the model we proposed is robust and versatile: potentially able to adapt to a variety of applications. In particular, we apply the model to create new solutions for the two fundamentals problems in image processing: smoothing and sharpening.
To approach high performance image smoothing we use the proposed model to determine if a pixel belongs to a at region or not, taking into account the need to achieve a high-precision classification even in the presence of noise. Thus, we build an adaptive soft-switching filter by employing the pixel classification to combine the outputs from a filter with high smoothing capability and a softer one to smooth edge/detail regions. Further, another application of our model allows to use pixels characterization to successfully perform a simultaneous smoothing and sharpening of color images. In this way, we address one of the classical challenges within the image processing field. We compare all the image processing techniques proposed with other state-of-the-art methods to show that they are competitive both from an objective (numerical) and visual evaluation point of view.Pérez Benito, C. (2019). Color Image Processing based on Graph Theory [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/123955TESI
- …