627 research outputs found
Mixing and non-mixing local minima of the entropy contrast for blind source separation
In this paper, both non-mixing and mixing local minima of the entropy are
analyzed from the viewpoint of blind source separation (BSS); they correspond
respectively to acceptable and spurious solutions of the BSS problem. The
contribution of this work is twofold. First, a Taylor development is used to
show that the \textit{exact} output entropy cost function has a non-mixing
minimum when this output is proportional to \textit{any} of the non-Gaussian
sources, and not only when the output is proportional to the lowest entropic
source. Second, in order to prove that mixing entropy minima exist when the
source densities are strongly multimodal, an entropy approximator is proposed.
The latter has the major advantage that an error bound can be provided. Even if
this approximator (and the associated bound) is used here in the BSS context,
it can be applied for estimating the entropy of any random variable with
multimodal density.Comment: 11 pages, 6 figures, To appear in IEEE Transactions on Information
Theor
On the conditions for valid objective functions in blind separation of independent and dependent sources
It is well known that independent sources can be blindly detected and separated, one by one, from linear mixtures by identifying local extrema of certain objective functions (contrasts), like negentropy, Non-Gaussianity measures, kurtosis, etc. It was also suggested in [1], and verified in practice in [2,4], that some of these measures remain useful for particular cases with dependent sources, but not much work has been done in this respect and a rigorous theoretical ground still lacks. In this paper, it is shown that, if a specific type of pairwise dependence among sources exists, called Linear Conditional Expectation (LCE) law, then a family of objective functions are valid for their separation. Interestingly, this particular type of dependence arises in modeling material abundances in the spectral unmixing problem of remote sensed images. In this work, a theoretical novel approach is used to analyze Shannon entropy (SE), Non-Gaussianity (NG) measure and absolute moments of arbitrarily order, i.e. Generic Absolute (GA) moments for the separation of sources allowing them to be dependent. We provide theoretical results that show the conditions under which sources are isolated by searching for a maximum or a minimum. Also, simple and efficient algorithms based on Parzen windows estimations of probability density functions (pdfs) and Newton-Raphson iterations are proposed for the separation of dependent or independent sources. A set of simulation results on synthetic data and an application to the blind spectral unmixing problem are provided in order to validate our theoretical results and compare these algorithms against FastICA and a very recently proposed algorithm for dependent sources, the Bounded Component Analysis algorithm (BCA). It is shown that, for dependent sources verifying the LCE law, the NG measure provides the best separation results.Fil: Caiafa, Cesar Federico. Consejo Nacional de Investigaciones CientÃficas y Técnicas. Centro CientÃfico Tecnológico la Plata. Instituto Argentino de Radioastronomia (i); Argentina. Universidad de Buenos Aires. Facultad de IngenierÃa; Argentin
Blind Source Separation of Overdetermined Linear-Quadratic Mixtures
ISBN 978-3-642-15994-7, SoftcoverInternational audienceThis work deals with the problem of source separation in overdetermined linear-quadratic (LQ) models. Although the mixing model in this situation can be inverted by linear structures, we show that some simple independent component analysis (ICA) strategies that are often employed in the linear case cannot be used with the studied model. Motivated by this fact, we consider the more complex yet more robust ICA framework based on the minimization of the mutual information. Special attention is given to the development of a solution that be as robust as possible to suboptimal convergences. This is achieved by defining a method composed of a global optimization step followed by a local search procedure. Simulations confirm the effectiveness of the proposal
Dynamic inverse problem solution considering non-homogeneous source distribution with frequency spatio temporal constraints applied to brain activity reconstruction
Para reconstruir la actividad cerebral es necesario estimular la ubicación de las fuentes activas del cerebro. El método de localización de fuentes usando electroencefalogramas es usado para esta tarea por su alta resolución temporal. Este método de resolver un problema inverso mal planteado, el cual no tiene una solución única debido al que el números de variables desconocidas es mas grande que el numero de variables conocidas. por lo tanto el método presenta una baja resolución espacial..
Mathematical hybrid models for image segmentation.
Two hybrid image segmentation models that are able to process a wide variety of images are proposed. The models take advantage of global (region) and local (edge) data of the image to be segmented. The first one is a region-based PDE model that incorporates a combination of global and local statistics. The influence of each statistic is controlled using weights obtained via an asymptotically stable exponential function. Through incorporation of edge information, the second model extends the capabilities of a strictly region-based variational formulation, making it able to process more general images. Several examples are provided showing the improvements of the proposed models over recent methods along with an application to dermoscopy imaging. A number of avenues for future research are also discussed
Development of a Novel Dataset and Tools for Non-Invasive Fetal Electrocardiography Research
This PhD thesis presents the development of a novel open multi-modal dataset
for advanced studies on fetal cardiological assessment, along with a set of signal
processing tools for its exploitation. The Non-Invasive Fetal Electrocardiography
(ECG) Analysis (NInFEA) dataset features multi-channel electrophysiological
recordings characterized by high sampling frequency and digital resolution,
maternal respiration signal, synchronized fetal trans-abdominal pulsed-wave
Doppler (PWD) recordings and clinical annotations provided by expert
clinicians at the time of the signal collection. To the best of our knowledge,
there are no similar dataset available.
The signal processing tools targeted both the PWD and the non-invasive
fetal ECG, exploiting the recorded dataset. About the former, the study focuses
on the processing aimed at the preparation of the signal for the automatic
measurement of relevant morphological features, already adopted in the
clinical practice for cardiac assessment. To this aim, a relevant step is the automatic
identification of the complete and measurable cardiac cycles in the PWD
videos: a rigorous methodology was deployed for the analysis of the different
processing steps involved in the automatic delineation of the PWD envelope,
then implementing different approaches for the supervised classification of the
cardiac cycles, discriminating between complete and measurable vs. malformed
or incomplete ones. Finally, preliminary measurement algorithms were also developed
in order to extract clinically relevant parameters from the PWD.
About the fetal ECG, this thesis concentrated on the systematic analysis of
the adaptive filters performance for non-invasive fetal ECG extraction processing,
identified as the reference tool throughout the thesis. Then, two studies
are reported: one on the wavelet-based denoising of the extracted fetal ECG
and another one on the fetal ECG quality assessment from the analysis of the
raw abdominal recordings.
Overall, the thesis represents an important milestone in the field, by promoting
the open-data approach and introducing automated analysis tools that
could be easily integrated in future medical devices
Heart beat variability analysis in perinatal brain injury and infection
Tese de mestrado integrado, Engenharia Biomédica e BiofÃsica (Engenharia ClÃnica e Instrumentação Médica) Universidade de Lisboa, Faculdade de Ciências, 2018Todos os anos, mais de 95 mil recém-nascidos são admitidos nas Unidades de Cuidados Intensivos Neonatais (UCIN) do Reino Unido, devido principalmente a partos prematuros ou outras complicações que pudessem ter ocorrido, como é o caso da encefalopatia hipóxico-isquémica (EHI), que assume 3% de todas as admissões nas unidades referidas. EHI é o termo que define uma complicação inesperada durante o parto, que resulta em lesões neurológicas a longo prazo e até em morte neonatal, devido à privação de oxigénio e fluxo sanguÃneo ao recém-nascido durante o nascimento. Estima-se que tenha uma incidência de um a seis casos por 1000 nascimentos. Nos paÃses desenvolvidos, a hipotermia é utilizada como método preventivo-terapêutico para esta condição. No entanto, existem dois grandes obstáculos para a obtenção da neuroprotecção pretendida e totalmente benéfica, na prática clÃnica. Em primeiro lugar, esta técnica é eficaz se for iniciada dentro de seis horas após o parto. Visto que o estado clÃnico da encefalopatia neonatal evolui nos dias posteriores ao nascimento, a sua deteção precoce é um grande desafio. Tal situação pode levar a diversos erros nas UCIN, tal como indivÃduos sujeitos à terapia de hipotermia desnecessariamente, ou ainda mais grave, casos em que recém-nascidos foram inicialmente considerados como saudáveis, não tendo sido submetidos à terapia referida, apresentarem sinais de EHI após seis horas de vida. A segunda questão prende-se com o facto de a neuroprotecção poder ser perdida se o bebé estiver stressado durante o tratamento. Para além disso, não existe nenhuma ferramenta válida para a avaliação da dor dos recém-nascidos submetidos a esta terapia. Os obstáculos frisados anteriormente demonstram duas necessidades ainda não correspondidas: a carência de um método não invasivo e largamente adaptável a diferentes cenários para uma correta identificação de recém-nascidos com maior probabilidade de HIE, dentro de uma margem de seis horas após o parto, mas também um método preciso de stress em tempo real, não invasivo, que possa orientar tanto pessoal médico, como pais, de modo a oferecer um tratamento mais responsável, célere e individualizado. Deste modo, a análise do ritmo cardÃaco demostra um enorme potencial para ser um biomarcador de encefalopatia neonatal, bem como um medidor de stress, através da eletrocardiografia (ECG), visto que é um importante indicador de homeostase, mas também de possÃveis condições que podem afetar o sistema nervoso autónomo e, consequentemente, o equilÃbrio do corpo humano. É extremamente difÃcil a obtenção de um parâmetro fisiológico, sem a presença de artefactos, especialmente no caso de recém-nascidos admitidos nas UCIN. Tanto no caso da aquisição de ECGs, como de outros parâmetros, existe uma maior probabilidade de o sinal ser corrompido por artefactos, visto que são longas aquisições, normalmente dias, onde o bebé é submetido a diversas examinações médicas, está rodeado de equipamentos eletrónicos, entre outros. Artefactos são definidos como uma distorção do sinal, podendo ser causados por diversas fontes, fisiológicas ou não. A sua presença nos dados adquiridos influencia e dissimula as informações corretas e reais, podendo mesmo levar a diagnósticos e opções terapêuticas erradas e perigosas para o paciente. Apesar de existirem diversos algoritmos de identificação de artefactos adequados para o sinal cardÃaco adulto, são poucos os que funcionam corretamente para o de recém-nascido. Para além disso, é necessário bastante tempo tanto para o staff clÃnico, como para os investigadores, para o processo de visualização e identificação de artefactos no eletrocardiograma manualmente. Deste modo, o projeto desenvolvido na presente dissertação propõe um novo algoritmo de identificação e marcação de artefactos no sinal cardÃaco de recém-nascidos. Para tal, foi criado um modelo hÃbrido de um método que tem em consideração todas as relações matemáticas de batimento para batimento cardÃaco, com outro que tem como objetivo a remoção de spikes no mesmo sinal. O algoritmo final para além de cumprir com o objetivo descrito acima, é também adaptável a diferentes tipos de artefactos presentes no sinal, permitindo ao utilizador, de uma forma bastante intuitiva, escolher o tipo de parâmetros e passos a aplicar, podendo ser facilmente utilizado por profissionais de diferentes áreas. Deste modo, este algoritmo é uma mais-valia quando aplicado no processamento de sinal pretendido, evitando assim uma avaliação visual demorada de todo o sinal. Para obter a melhor performance possÃvel, durante o desenvolvimento do algoritmo foram sempre considerados os resultados de validação, tais como exatidão, sensibilidade, entre outros. Para tal, foram analisados e comparados eletrocardiogramas de 4 recém-nascidos saudáveis e 4 recém-nascidos com encefalopatia. Todos possuÃam aproximadamente 5 horas de sinal cardÃaco adquirido após o nascimento, com diferentes nÃveis de presença de artefactos. O algoritmo final, obteve uma taxa de sensibilidade de 96.2% (±2.4%) e uma taxa de exatidão de 92.6% (±3.2%). Como se pode verificar pelos valores obtidos, o algoritmo obteve percentagens altas nos vários parâmetros de classificação, o que significa uma deteção correta. A taxa de exatidão apresenta um valor mais baixo, comparativamente ao parâmetro da sensibilidade, pois em diversas situações, normalmente perto de artefactos, os batimentos normais são considerados como artefactos, pelo algoritmo. Contudo, essa taxa não é alarmante, tendo sido considerada uma taxa reduzida, pelo pessoal médico. Após o processamento do sinal cardÃaco dos grupos mencionados acima, um estudo comparativo, utilizando parâmetros da variabilidade do ritmo cardÃaco, foi realizado. Diferenças significativas foram encontradas entre os dois grupos, onde o saudável assumiu sempre valores maiores. SDNN e baixa frequência foram os parâmetros que traduziram uma diferença maior entre os dois grupos, com um p-value <0.01. De modo a corresponder ao segundo obstáculo referido nesta dissertação, outro objetivo desta tese foi a criação de um algoritmo que pudesse identificar e diferenciar uma situação de stress nesta faixa etária, com recurso ao ritmo cardÃaco. Um estudo multidimensional foi aplicado aos diferentes métodos de entropia utilizados nesta tese (approximate entropy, sample entropy, multiscales entopy e fuzzy entropy) de modo a estudar como os diferentes métodos de entropia interagem entre si e quais são os resultados dessa relação, especialmente na distinção de estados normais e stressantes. Para tal, a utilização de clusters foi essencial. Dado que para todos os ECGs de bebés saudáveis analisados neste projeto foram registados todas as possÃveis situações de stress, como é o caso de choro, examinações médicas, mudança de posição, entre outros, foram escolhidos 10 minutos do sinal do ritmo cardÃaco adquirido, antes da situação, para análise. Infelizmente, associado a um evento stressante, na maioria dos casos encontra-se uma percentagem bastante alta do sinal corrompida por artefactos. No entanto, em alguns casos foi possÃvel observar uma clara distinção de grupos de clusters, indicando que naquele perÃodo de tempo, houve uma mudança de estado. Foi também realizado um estudo intensivo de diversos métodos de entropia aplicados ao grupo de sujeitos apresentados nesta dissertação, onde foi provado que o método mais adequado a nÃvel de diferenciação é a Fuzzy Entropy (p=0.0078). Ainda é possÃvel sugerir alguns aspetos e apontar algumas limitações, no âmbito de poderem ser ultrapassadas no futuro. Em primeiro lugar, é necessária a aquisição de mais eletrocardiogramas, quer de recém-nascidos saudáveis, quer com encefalopatia hipóxico-isquémica, de modo a aumentar o tamanho da amostra e, deste modo diminuir os valores do desvio-padrão em todos os parâmetros calculados. Relativamente ao estudo do stress, seria interessante, com uma amostra maior, a definição de clusters, de modo a ter uma identificação precisa de situações stressantes. Para além disso, a transformação do software atualmente escrito em MATLAB para GUI (interface gráfica do utilizador), a fim de tornar mais acessÃvel a sua utilização por profissionais de diversas áreas.In Neonatal Intensive Care Unit (NICU), the heart rate (HR) offers significant insight into the autonomic function of sick newborns, especially with hypoxic ischemic encephalopathy condition (HIE). However, the intensity of clinical care and monitoring contributes to the electrocardiogram (ECG) to be often noisy and contaminated with artefacts from various sources. These artefacts, defined as any distortion of the signal caused by diverse sources, being physiological or non-physiological features, interfere with the characterization and subsequent evaluation of the heart rate, leading to grave consequences, both in diagnostic and therapeutic decisions. Besides, its manual inspection in the ECG trace is highly time-consuming, which is not feasible in clinical monitoring, especially in NICU. In this dissertation, it is proposed an algorithm capable of automatically detect and mark artefacts in neonatal ECG data, mainly dealing with mathematical aspects of the heart rate, starting from the raw signal. Also, it is proposed an adjacent algorithm, using complexity science applied to HR data, with the objective of identifying stress scenarios. Periods of 10-minute ECG were considered from 8 newborns (4 healthy and 4 HIE) to the identification of stress situations, whereas for the artefacts removal algorithm small portions varying in time length according to the amount of noise present in the originally 5 hours long samples were utilised. In this report it is also present several comparisons utilising heart rate parameters between healthy and HIE groups. Fuzzy Entropy was considered the best method to differentiate both groups (p=0.00078). In this report, substantial differences in heart rate variability were found between healthy and HIE groups, especially in SDNN and low frequency (p<0.01), confirming results of previous literature. For the final artefact removal algorithm, it is illustrated significant differences between raw and post-processed ECG signals. This method had a Recall rate of 96.2% (±2.4%) and a Precision Rate of 92.6% (±3.2%), demonstrating high efficiency in ECG noise removal. Regarding stress measures, associated with a stressful event, in most cases there is a high percentage of the signal corrupted by artefacts. However, in some cases it was possible to see a clear distinction between groups of clusters, indicating that in that period, there was a change of state. Not all the time segments from subjects demonstrated differences in stress stages, indicating that there is still room for improvement in the method developed
Nested sampling for materials
Abstract
We review the materials science applications of the nested sampling (NS) method, which was originally conceived for calculating the evidence in Bayesian inference. We describe how NS can be adapted to sample the potential energy surface (PES) of atomistic systems, providing a straightforward approximation for the partition function and allowing the evaluation of thermodynamic variables at arbitrary temperatures. After an overview of the basic method, we describe a number of extensions, including using variable cells for constant pressure sampling, the semi-grand-canonical approach for multicomponent systems, parallelizing the algorithm, and visualizing the results. We cover the range of materials applications of NS from the past decade, from exploring the PES of Lennard–Jones clusters to that of multicomponent condensed phase systems. We highlight examples how the information gained via NS promotes the understanding of materials properties through a novel way of visualizing the PES, identifying thermodynamically relevant basins, and calculating the entire pressure–temperature(–composition) phase diagram.
Graphic abstract
</jats:sec
- …