6 research outputs found

    The Issue of Vital Signs Monitoring in the MRI

    Get PDF
    Import 05/08/2014Monitorování životních funkcí pacienta během vyšetření magnetickou rezonancí (MR) bývá zásadní hlavně u těžkých traumatických případů. Z pohledu monitorovacích přístrojů se však MR chová jako významný zdroj elektromagnetického rušení. Práce se zabývá popisem a měřením tohoto rušení přisuzovaného zejména rychlému přepínání gradientní magnetických polí u problematických sekvencí DYN-kt-BTFE a DWI. Následně jsou navržena opatření k omezení těchto vlivů, v programovacím prostředí Matlab jsou vytvořeny funkce pro postprocessingovou korekci defektních záznamů EKG.Monitoring of patient vital signs during the magnetic resonance MR investigation is crucial mainly for serious traumatic cases. However, MR machine is also an important source of electromagnetic interference. The Master Thesis is dealing with description and measurement of this interference ascribed to fast switching of gradient magnetic fields of problematic sequences DYN-kt-BTFE and DWI. Afterwards, the precautions for minimalization of MR influence are proposed, and in programming environment Matlab the functions for post processing corrections of defective ECG recordings are developed.450 - Katedra kybernetiky a biomedicínského inženýrstvívýborn

    Evaluation and impact of gating methods for clinical and ultra-high-field magnetic resonance imaging

    Get PDF
    Hintergrund Die Synchronisation des kardialen Zyklus mit der Bildakquise (kardiales Gating) spielt in der kardiovaskulären Magnetresonanztomographie (CMR) eine große Rolle. Das dafür häufig verwendete Elektrokardiogram (EKG) unterliegt in der Umgebung des Magnetresonanztomographen häufig multiplen Störfaktoren. Insbesondere die Parameter Magnetfeldstärke, verwendete Gating-Methode und Positionierung der Elektroden scheinen die Güte des Gatings zu beeinflussen. Deren quantitativer Einfluss ist bis jetzt nicht hinreichend erforscht. Diesen abschätzen zu können, wäre jedoch für die Planung von Studien und die Evaluierung von neu entwickelten Gating-Methoden von großem Interesse. Daher war es Ziel dieser Studie, den Einfluss von 1.5T, 3T und insbesondere auch ultra-hohen Feldstärken von 7T, der EKG- und Vektorkardiogramm(VKG)-basierten Gating-Methode sowie von vier standardisierten Elektrodenpositionen auf die Güte des Gatings zu untersuchen. Methoden EKG-Signale von 16 gesunden Proband*innen wurden bei Feldstärken von 1.5T, 3T und 7T, jeweils mit zwei verschiedenen Gatingmethoden und vier standardisierten Elektrodenpositionen in einem standardisierten CMR-Protokoll aufgenommen. Die quantitative Güte des Gatings wurde mittels spezialisierter Software analysiert, wobei eine manuelle Annotation der QRS-Komplexe als Goldstandard zur Berechnung der Metriken für die Gating-Güte diente. Die statistische Analyse erfolgte in einem dreistufigen Testmodell. Ergebnisse In der globalen Analyse konnte ein signifikanter Einfluss der Magnetfeldstärke für alle untersuchten Gütemetriken gezeigt werden, wobei ultra-hohe Feldstärken zu einer deutlichen Verminderung der Gating-Güte führten (p<0.0001). Für die untersuchten Gating-Methoden zeigte sich in unseren Daten insgesamt eine Überlegenheit der EKG-Methode gegenüber der VKG-Methode für die Metriken: Sensitivität: p<0.0001, positiv prädiktiver Wert: p=0.0005, Propagation Delay: p>0.0001 und Jitter: p>0.0001 Die untersuchten alternativen Elektrodenpositionen zeigten in der Subgruppenanalyse eine ähnliche Gating-Güte wie die Standardpositionen. Zusammenfassung Zusammenfassend konnte der Einfluss von Magnetfeldstärken von 1.5T, 3T und 7T, der EKG- und VKG-Gating-Methode und von vier standardisierten Elektrodenposition auf die Gating-Güte quantifiziert werden. Die Ergebnisse erlauben eine verbesserte Abschätzung der Abbruchraten und Gesamtmesszeiten in CMR-Studien sowie eine Optimierung des Gatings für verschiedene Messkonfigurationen.Purpose Synchronizing the cardiac cycle with image acquisition (cardiac gating) is of paramount importance in cardiovascular magnetic resonance (CMR). Inside the scanner the electrocardiogram (ECG) generally utilized in gating is often compromised by several factors. Magnetic field-strength, gating method and electrode positioning seem to influence gating performance. Their quantitative impact, however, is not yet fully understood. An estimation of this impact, however, could facilitate study design and evaluation of newly developed gating methods. Therefore, the aim of this study was to systematically assess and quantify the impact of field-strengths of 1.5T, 3T and 7T, the ECG-based and the vectorcardiogram(VCG)-based gating-method, as well as four standardized electrode positions on gating performance. Methods ECG-Signals of 16 healthy volunteers were recorded at field-strengths of 1.5T, 3T and 7T, with the ECG-method and the VCG-method and with four standardized electrode positions during a standardized CMR-protocol. Gating-performance was assessed and quantified via specialized software with manual annotation of the QRS-complexes serving as the reference standard for the calculation of performance metrics. The statistical analysis was performed in a hierarchical test-strategy with three levels. Results In the global analysis a significant impact of magnetic field strengths on gating performance was found for all performance metrics, with ultra-high field-strengths leading to a significant decrease in gating performance (p0.0001 and jitter: p>0.0001. In the subgroup-analysis, the assessed alternative electrode positions provided similar gating-performance to the standard-positions. Conclusion We successfully quantified the influence of 1.5T, 3T and 7T, the ECG- and the VCG-method and four standardized electrode positions on gating-performance. Our results allow an improved estimation of drop-out rates and scan durations for CMR-studies, as well as an optimization of the gating procedure for specific gating-configurations

    Caractérisation et modélisation des potentiels induits par les commutations des gradients de champ magnétique sur les signaux électrophysiologiques en IRM

    Get PDF
    Les développements récents des techniques IRM engendre des sources de potentiels induits qui polluent les signaux électrophysiologiques, utilisé simultanément en IRM pour surveiller le patient et synchroniser les images. Le système élaboré dans ce travail est compose de deux modules émetteur-récepteur IRM-compatibles. Le premier permet d introduire dans le tunnel d IRM des signaux EPS dont on connait les caractéristiques. Les signaux sont injectés dans un tissu conducteur placé dans le tunnel. Le second module permet de recueillir les signaux après leur contamination par les artéfacts générés par les séquences d imagerie. Il comporte 20 canaux répartis en quatre bandes fréquentielles (40, 80, 160 et 350 Hz). Des mesures du potentiel induit ont été réalisées en environnements 1,5 T et 3 T. Nous pouvons ainsi analyser les modifications des paramètres des signaux selon les séquences, mais aussi à l intérieur des différentes bandes de fréquences. Dans ce travail, nous présentons une caractérisation et modélisation des potentiels induits par les commutations de gradients de champ magnétique recueilli par notre dispositif expérimental. La caractérisation et la modélisation permettent d obtenir des informations pertinentes à prendre en compte pour l élaboration des algorithmes de filtrage efficaces et robustes.New developments in MRI techniques create sources of induced voltages that pollute the simultaneously acquired electrophysiological signals (EPS), used to monitor patients and/or synchronize images. We developed a device to allow a deep study of the contamination mechanism, which would assist in elaborating new tools to obtain higher quality EPS. The system consists of three main modules: (i) a signal transmission system composed of an EPS generator and a transmission box, which transmits the EPS to a MR-compatible receiver inside the tunnel, (ii) an electro-conductive tissue-mimicking phantom in which the EPS is injected, (iii) a signal collection module composed of a MR compatible amplifier-transmitter that emits, via an optical cable, the collected signal to a receiver box placed outside the MRI room. The receiver box comprises 20 channels distributed into four frequency bands (40, 80, 160, and 350 Hz). Measurements of the induced voltages were performed in 1.5 T and 3 T MRI environments. An algorithm to extract and analyze and model the induced voltages was developed. The modeling algorithm is based on a sinusoidal decomposition of the induced voltages. This work aimed to assess the disturbance level of the EPS, when using larger bandwidth amplifiers. The characterization and modeling of the induced voltages, which represent the dominant noise, reveal relevant information which can be used to develop robust and efficient noise reduction algorithms.COMPIEGNE-BU (601592101) / SudocSudocFranceF

    Redução de ruído em sensores de monitoramento usando separação cega de fontes

    Get PDF
    Blind Source Separation (BSS) is known to be an efficient and powerful process to separate and estimate individual mutually independent signals acquired by various types of monitoring sensors. Theses monitoring sensors capture signals that are composed of various types of sources, the desired sources, unwanted sources and noisy sources. Thus, the desired signal is compromised so that it can be analyzed, this can lead to inefficient decision making. Ideally, the analyzed signals should be composed of the higher level of desired sources, and lower level of unwanted sources and noisy sources. This paper proposes an algorithm to identify and reduce noise in monitoring sensor signals using Blind Source Separation. This algorithm can be applied in any area of monitoring. It can identify noise without any kind of previous information of the signal analyzed. Initially, the algorithm makes the separation of the signals that were acquired by the sensors. These signals may have suffered influence from several noise sources. Different from the standard BSS, which requires at least two sources, this algorithm removes the noise from each signal separately applying the Maximum Signal-to-Noise Ratio and Temporal Predictability algorithms. The proposed algorithm also produces two outputs for each signal, the estimated original signal and the estimated noise. The results satisfy all the proposed objectives of this work. All the metrics used as parameters to evaluate the results obtained by the proposed algorithm were satisfactory. Specifically, for the thermal profile data, the most interesting results were the thermal gradients and their respective standard deviations, which showed a significant improvementTese (Doutorado)Separação Cega de Fonte (BSS) é conhecida por ser um processo eficiente e poderoso em separar e estimar sinais mutuamente independentes adquiridos por vários tipos de sensores de monitoramento. Esses sensores de monitoramento captam sinais que são compostos por vários tipos de fontes, as fontes desejadas, as fontes indesejadas e as fontes ruidosas. Assim, o sinal desejado está comprometido para que possa ser analisado, isso pode levar a tomadas de decisões não eficientes. O ideal seria que os sinais analisados fossem compostos do maior nível de fontes desejadas, e menor nível de fontes indesejadas e fontes ruidosas. Este trabalho propõe um algoritmo para identificar e reduzir os níveis de ruído em sinais monitorados por sensores usando Separação Cega de Fonte. Este algoritmo pode ser aplicado em várias áreas de monitoramento. Ele é capaz de identificar o ruído sem qualquer tipo de informação prévia do sinal analisado. Inicialmente, o algoritmo realiza uma separação dos sinais que foram monitorados por sensores. Estes sinais podem ter sofrido influência (interferência) de seus sensores vizinhos. Diferentemente da BSS padrão, que requer pelo menos duas fontes, este algoritmo reduz os níveis de ruído de cada fonte separadamente aplicando os algoritmos de Taxa Máxima Sinal Ruído e Previsibilidade Temporal. O algoritmo proposto também produz duas saídas para cada sinal (fonte), o sinal original estimado e o ruído estimado. Os resultados satisfazem todos os objetivos proposto neste trabalho. Todas as métricas utilizadas como parâmetros (SNR – Relação Sinal Ruído, SDR – Relação Sinal Distorção e SIR – Relação Sinal Interferência) de avaliação dos resultados obtidos pelo algoritmo proposto foram satisfatórias. Em específico, para os dados de perfilagem térmica, os resultados mais interessantes foram os gradientes térmicos e seus respectivos desvios padrões, que apresentaram maior ganho de precisão

    Análisis de señales biomédicas para aplicación de terapias en la fibrilación ventricular cardiaca

    Get PDF
    La muerte súbita es una muerte natural, inesperada y rápida en un tiempo límite de 24 horas después del comienzo de un proceso patológico. Las causas más comunes de la muerte súbita son las enfermedades Cardiovasculares (ECV) que resultan estar entre las principales causas de muerte en todo el mundo. En 2012, la Organización Mundial de la Salud (OMS) registró 17,5 millones de muertes por ECV, que representan el 31 % de todas las muertes registradas en el mundo . Una de las enfermedades cardiovasculares con mayor mortalidad es la Fibrilación Ventricular (FV), que es una arritmia cardíaca producida por una actividad eléctrica desorganizada del corazón. Durante la FV, los ventrículos se contraen de forma asíncrona con ausencia de latido efectivo, fallando el bombeo sanguíneo, lo que produce la muerte súbita en el paciente, si no se trata de forma adecuada en un plazo de pocos minutos. Las desfibrilación es el único tratamiento definitivo posible de la FV, que consiste en la aplicación de un choque eléctrico de alta energía sobre el pecho del paciente, facilitando así el reinicio de la actividad eléctrica cardíaca normal. El éxito de la desfibrilación es inversamente proporcional al intervalo de tiempo desde el comienzo del episodio hasta la aplicación de la descarga. Aparecen muchas dificultades a la hora de diagnosticar la FV: por una parte están las características intrínsecas de la FV (falta de organización, irregularidad, etc.), y por otra, la gran similitud entre la FV y otras patologías cardíacas entre ellas la Taquicardia Ventricular (TV). La diferenciación entre la TV y la FV es bastante complicada: el diagnóstico de la TV como FV en un paciente puede ocasionarle graves lesiones a la hora de aplicarle la terapia correspondiente a FV (descarga eléctrica de alto voltaje), es más, puede causarle una FV. Por el contrario, si la FV se interpreta incorrectamente como TV, el resultado puede ser también peligroso para la vida. Por lo tanto, un método de detección eficaz para distinguir FV de TV tiene mucha importancia en la investigación clínica. Con el fin de diagnosticar y tratar las enfermedades cardiovasculares (FV por ejemplo), se establecen dos grandes grupos de métodos diagnósticos en cardiología: métodos diagnósticos invasivos y no invasivos. Las técnicas invasivas requieren introducir catéteres en el organismo, con el objetivo de medir presiones de las cavidades cardíacas, para registrar la actividad eléctrica. Las técnicas no invasivas están enfocadas a caracterizar el estado fisiopatológico del corazón a través de electrodos colocados directamente sobre la piel del paciente. El electrocardiograma (ECG) es un examen no invasivo, de bajo costo, que se ha utilizado como el método básico de diagnóstico de desórdenes cardíacos de conducción eléctrica, mediante el estudio de la frecuencia cardíaca y la morfología de diferentes ondas que constituyen el ciclo cardíaco. El análisis ECG constituye una buena fuente de información a partir de la cual se pueden detectar diferentes tipos de enfermedades cardíacas. Debido a que la señal de ECG es una señal aleatoria no estacionaria, el análisis en el dominio del tiempo no resulta ser suficientemente sensible a las distorsiones de las formas de la onda ECG. Sin embargo estos métodos no siempre presentan todas las informaciones que pueden ser extraídas de las señales ECG, con lo cual, se pierde la información sobre la frecuencia, la cual muestra una información más adicional de la señal. El diagnóstico en el dominio de la frecuencia utiliza métodos como la transformada de Fourier. Por lo tanto, el análisis en el dominio de la frecuencia permite determinar las frecuencias de la señal. Por otro lado, se pierde la información de tipo temporal de la señal, con lo cual es un método muy limitado y no es útil para el análisis de señales no estacionarias. Varios estudios han utilizado modelos matemáticos que combinan la información temporal y espectral en la misma representación. Esta técnica Representación Tiempo-Frecuencia (RTF) es muy importante en el tratamiento de las señales no estacionarias como la señal de ECG, ya que distribuye la energía de la señal en el espacio bidimensional tiempo-frecuencia. Además, múltiples factores alteran la adquisición y registro de la señal ECG: por un lado está la influencia del medio ambiente (la interferencia de red 50-60 Hz, la línea base, etc.), y por otro lado están las perturbaciones de origen fisiológico como los de la electromiografía (EMG). La reducción del ruido en el ECG ha sido uno de los principales campos de investigación en las últimas décadas, ya que una adecuada reducción permite realizar un buen pre-procesado de la señal, extrayendo de ésta la máxima cantidad de información posible y eliminando la no deseable. El uso de imágenes de representación de tiempo-frecuencia (t-f) como la entrada directa al clasificador es lo novedoso de esta tesis doctoral. Se plantea la hipótesis de que este método facilita mejorar los resultados de la clasificación ya que permite eliminar la extracción de características típicas, y su correspondiente pérdida de información, que además se utilizan para la evaluación y la comparación con otros autores. Materiales y Métodos: se ha utilizado las bases de datos estándar del MIT-BIH Malignant Ventricular Arrhytmia Data base y AHA (2000 series) para obtener los registros de las señales ECG, creando a partir de ellos un conjunto de entrenamiento y uno de prueba para los algoritmos de clasificación empleados. Un total de 24 registros de monitorización continua (22 registros de MIT-BIH más dos adicionales de la base de datos AHA) se ha empleado, con frecuencia de muestreo de 125 Hz. Como método se ha implementado un algoritmo de filtro, con el fin de reducir la línea base, se desarrolla un enventanado que indica el comienzo de la Ventana de tiempo (Vt) de la señal del ECG. A cada ventana obtenida se le aplicó la Transformada de Hilbert (TH), después se le aplicó la RTF como entrada a los cinco clasificadores: las Redes Neuronales Artificiales de clasificación (ANNC-Artificial Neural Networks Classification), máquina de vector de soporte de tipo Smooth (SSVM-Smooth Support Vector Machine), (BAGG-Bagging), regresión logística (L2_RLR-L_2-Regularized Logistic Regression) y K vecinos más cercanos (KNN-K Nearest Neighbors). Se realizó sus respectivos entrenamientos y pruebas individuales eligiendo el clasificador KNN por su mejor calidad de detección. La RTF fue convertida en Imagen de RTF (IRTF) e IRTF de dimensionalidad reducida mediante técnicas de reducción del tamaño de imágenes (Media de la Intensidad de los Píxeles (MIP), KNN, Bilineal, Bicúbica) y de la técnica de Selección de Características (SC) de tipo (SFS-Sequential Forward Selection). Se realizaron combinaciones de los algoritmos de clasificación al aplicarse sobre un mismo conjunto de datos (IRTF, IRTF reducida, SC), con el fin de comparar el comportamiento entre ellos y con los resultados logrados de los clasificadores individuales. Estas estrategias y metodologías utilizadas fueron comparadas con diferentes métodos citados en la bibliografía y así comprobar en qué medida los resultados obtenidos apoyan nuestra hipótesis. Resultados: usando parámetros de evaluación del rendimiento (sensibilidad, especificidad y exactitud) como metodología para validar los resultados que obtuvo cada una de las estrategias empleadas, se encontró que el clasificador KNN alcanza el mejor rendimiento para RTF. Se logró para ‘FV’ una sensibilidad del 94,97% y una especificidad global del 99,27%, exactitud global del 98,47 %, y para ‘TV’ una sensibilidad del 93,47%, especificidad global del 99,39%, exactitud global del 98,97% y un tiempo de ejecución 0,1763s. Los principales resultados de la clasificación para la detección de FV obtenidos usando la técnica IRTF reducida (MIP) como entrada al clasificador KNN, mostraron un 88,27% de sensibilidad, 98,22% de especificidad global y 96,35% de exactitud global. En el caso de ‘TV’ 88,31% de sensibilidad, 98,80% de especificidad global, 98,05% de exactitud global y un tiempo de ejecución 0,024s. Al realizar combinaciones de los clasificadores, se obtuvo que la combinación ANNC_KNN_ANNC al utilizar el Método de Jerárquica (MJ) dieron una sensibilidad del 92,14%, especificidad del 98,07% y 97,07% de exactitud global para ‘FV’, una sensibilidad del 89,03%, una especificidad del 80,78%, 98,08% de exactitud global para ‘TV’ y un tiempo de ejecución entre [0,0239s; 0,0241s]. Conclusiones: la clasificación realizada en la discriminación de FV y TV demostró cómo se comportan los distintos algoritmos de clasificación tanto individuales como combinados al aplicarse sobre un mismo conjunto de características. Los resultados obtenidos mediante el algoritmos de combinación ANNC_KNN_ANNC usando los datos de IRTF reducidas fueron mejores en la detección comparado con los obtenidos mediante los algoritmos utilizados individualmente y otros multiclasificadores aplicando sobre un mismo conjunto de datos de IRTF reducidas. Además al comparar los resultados de la combinación con los obtenidos mediante KNN empleando la RTF y IRTF no reducidas son ligeramente inferiores en combinación, pero en cambio se obtiene un tiempo de ejecución menor, por lo que es de mejor utilidad para sistemas de detección en tiempo real. Después de un largo análisis es posible concluir que la metodología propuesta brinda información útil para la detección de FV con un bajo tiempo de cómputo, la cual la puede separar satisfactoriamente del resto de patologías cardiacas a la hora de diagnosticar, mejorando significativamente las posibilidades del paciente de ser manejado eficazmente al presentar un episodio con alguna de estas arritmias, lo que convierte a este trabajo en una fuente de aporte clínico en la ayuda para el diagnóstico de arritmias.Sudden death is a natural, unexpected and rapid death that occurs within a time frame of 24 Hours after the beginning of the pathological process. The most common causes of sudden death are Cardiovascular Diseases (CVD) that happen to be among the leading causes of death worldwide. In 2012, the World Health Organization (WHO) recorded 17.5 million CVD deaths, accounting for 31% of all deaths recorded in the world. One of the cardiovascular diseases with the highest mortality is Ventricular Fibrillation (VF), which is a cardiac arrhythmia caused by a disorganized electrical activity in the heart. During VF, the ventricles contract asynchronously causing an absence of an effective beat as well as a failure of blood pumping. This could result in a sudden death of the patient, if not treated properly within a few minutes. Defibrillation is the only definitive treatment of VF. It consists of the application of a high-energy electric shock to the patient's chest, thus restarting the normal cardiac electrical activity. The success of defibrillation is Inversely proportional to the interval of time it takes from the beginning of the episode to the application of the electrical charge. There are many difficulties in diagnosing VF: on the one hand there are some Intrinsic characteristics of the VF (lack of organization, irregularity, etc.), and on the other, there is a great similarity between VF and other cardiac pathologies including Ventricular Tachycardia (VT). The differentiation between VT and VF is quite complex. A wrongful diagnosis of VT instead of VF can cause serious injuries when applying the therapy to the patient. VT treatment consist of giving a high voltage electric shock to the patient, which could cause a VF. Conversely, if the VT is incorrectly interpreted as a VF, the result might be also dangerous for the patient´s life. Therefore, an effective detection method to distinguish VF from VT is very important in clinical research. In order to diagnose and treat cardiovascular diseases (for example VF), two major groups of diagnostic methods are established in cardiology: Invasive and noninvasive diagnoses. Invasive techniques require the introduction of catheters into the body, to measure the pressures in the cardiac chambers in order to record the electrical activity. Non-invasive techniques are focused on characterizing the pathophysiological state of the heart through electrodes placed directly on the patient's skin. The electrocardiogram (ECG) is a non invasive, low cost, examination which has been used as the basic diagnostic method for cardiac conduction disorders, by studying the frequency and the morphology of different waves that constitute the cardiac cycle. The ECG analysis is a good source of information to detect different types of heart disease. Due to the fact that the ECG signal is a non-stationary random signal, the time domain analysis does not prove to be sufficiently sensitive to the distortions of the waveforms on the ECG. However, these methods not always show all the information that can be extracted from ECG signals. Thereby, the frequency information, which shows additional data from the signal, is lost. Diagnosis within the frequency domain uses methods such as the fourier transform.Therefore, an analysis in the frequency domain allows to determine the frequencies within the ECG signal. On the other hand, using a frequency domain method losses the time information from the signal, resulting in a very limited method which is not useful for the analysis of non-stationary signals. Several studies have used mathematical models that combine time and spectral information in the same representation. This is Time-Frequency Representation (TFR) technique, very important in the treatment of non-stationary signals such as the ECG signal, as it distributes signal energy in a two-dimensional time-frequency space. In addition, multiple factors affect the acquisition and recording of the ECG signal: on the one hand there is the influence of the environment (50-60 Hz interference from the electrical grid, baseline, etc.), and on the other hand, physiological disturbances such as an electromyography (EMG). In the last decades, ECG noise reduction has been one of the main fields of research, since an adequate reduction of noise allows a good pre-processing of the signal, extracting from it the maximum amount of relevant information while eliminating the irrelevant one. The use of time-frequency representation images (t-f) as the direct input to the classifier is the novelty of this doctoral thesis. It is hypothesized that this method makes it easier to improve the classification results by eliminating the extraction of typical characteristics, and their corresponding loss of information. They are also used for evaluation and comparison with other authors. Materials and Methods: MIT-BIH´s Malignant Ventricular Arrhytmia and AHA (2000 series) standard data bases have been used to obtain the records of ECG signals, creating from them one set for training and one for testing the classification algorithms used. A total of 24 monitoring records (22 MIT-BIH records plus two additional from the AHA data) have been used, with a sampling frequency of 125 Hz. As part of the method a filter algorithm has been implemented in order to reduce the base line. A report that indicates the beginning of the time Window (tW) of the ECG signal is developed. First, the Hilbert Transform (HT) was applied to each window obtained. Then the RTF was applied as input to the five classifiers: Artificial Neural Networks Classification (ANNC), Smooth-type support vector machine (SSVM), bagging (BAGG), \u1d43f2Regularized Logistic Regression (L2_RLR) and K Nearest Neighbors (KNN).Their respective training and individual tests were made by choosing the KNN classifier for best quality detection. The RTF was converted into an IRTF and a reduced dimensionality IRTF by means of image size reduction techniques (Average Intensity of the Pixels (AIP), KNN, Bilineal, Bicubic) and the techniques of Selection of Characteristics (SC), specifically the Sequential Forward Selection technique (SFS). Combinations of the classification algorithms were performed when applied over the same set of data (TFRI, reduced TFRI, SC), in order to compare their behavior with the results obtained from the individual classifiers. These strategies and methodologies were compared with different methods cited in the literature to verify to what extent the results obtained support our hypothesis. Results: using performance evaluation parameters (sensitivity, specificity and accuracy) as a methodology to validate the results obtained by each one of the strategies employed, it was found that the KNN classifier achieves the best performance for TFR. For 'VF' it was obtained a sensitivity of 94.97% an overall specificity of 99.21%, and an overall accuracy of 98.47%. Whereas for 'VT, it was obtained a Sensitivity of 93.47%, an overall specificity of 99.39%, and an overall accuracy of 98.97% within a time of execution 0,1763s. The main results of the classification for the detection of VF obtained using the reduced TFRI technique (AIP) as input to the KNN classifier, showed an 88.27% of sensitivity, a 98.22% of overall specificity and a 96.35% of overall accuracy. For ´VT', it was obtained an 88.31% sensitivity, a 98.80% for global specificity, and a 98.05% of global accuracy within a runtime of 0.024s. When the classifiers were combined, it resulted that the ANNC_KNN_ANNC combination when using the Hierarchical Method (MJ) gave a sensitivity of 92.6%, a specificity of 98.68% and an overall accuracy of 97.52% for 'VF'. Whereas a Sensitivity of 89.3%, a specificity of 99.01%, and a 98.32% of overall accuracy for 'VT 'were obtained with a runtime between [0,0487s; 0,0492s]. Conclusions: the classification of VF and VT discrimination showed how the different classification algorithms (both individual and combined) behave over the same set of characteristics. The results obtained by the ANNC_KNN_ANNC combination of algorithms using the reduced TFRI data were better at detection when compared to those obtained by the algorithms used individually as well as to other multi classifiers applied over a single set of reduced TFRI data. In addition, when comparing the results of the combination with those obtained by the KNN using the non-reduced TFR and the TFRI, the latter are slightly lower. On the other hand, a shorter execution time is obtained, so the method is more useful for Real-time detection systems. After a long analysis it is possible to conclude that the proposed methodology provides useful information for the detection of VF with a low computation time. Furthermore it can separate satisfactorily the VF from the rest of cardiac pathologies at the time of diagnosis, significantly improving the patient's ability to be effectively treated when presenting an episode with one of these arrhythmias. Thus making this work a source of clinical help in the diagnosis of arrhythmias

    Magnetic resonance coronary vessel wall imaging with highly efficient respiratory motion correction

    No full text
    There is a need for a noninvasive imaging technique for use in longitudinal studies of sub-clinical coronary artery disease. Magnetic resonance (MR) can be used to selectively and non-invasively image the coronary wall without the use of ionising radiation. However, high-resolution 3D studies are often time consuming and unreliable, as data acquisition is generally gated to a small window of diaphragm positions around end-expiration which results in inherently poor and variable respiratory efficiency. This thesis describes the development and application of a novel technique (beat-to-beat respiratory motion correction (B2B-RMC)) for correcting respiratory motion in 3D spiral MR coronary imaging. This technique uses motion of the epicardial fat surrounding the artery as a surrogate for the motion of the artery itself and enables retrospective motion correction with respiratory efficiency close to 100%. This thesis first describes an assessment of the performance of B2B-RMC using a purpose built respiratory motion phantom with realistic coronary artery test objects. Subsequently, MR coronary angiography studies in healthy volunteers show that the respiratory efficiency of B2B-RMC far exceeds that of conventional navigator gating, yet the respiratory motion correction is equally effective. The performance and reproducibility of 3D spiral imaging with B2B-RMC for assessment of the coronary artery vessel wall is subsequently compared to that of commonly used 2D navigator gated techniques. The results demonstrate the high performance, reproducibility and reliability of 3D spiral imaging with B2B-RMC when data acquisition is gated to alternate cardiac cycles. Using this technique, a further in-vivo study demonstrates thickening of the coronary vessel wall with age in healthy subjects and these results are shown to be consistent with outward remodelling of the vessel wall. Finally, the performance of B2B-RMC in a variety of coronary vessel wall applications, including in a small cohort of patients with confirmed coronary artery disease, is presented
    corecore