69 research outputs found

    Electrocardiogram pattern recognition and analysis based on artificial neural networks and support vector machines: a review.

    Get PDF
    Computer systems for Electrocardiogram (ECG) analysis support the clinician in tedious tasks (e.g., Holter ECG monitored in Intensive Care Units) or in prompt detection of dangerous events (e.g., ventricular fibrillation). Together with clinical applications (arrhythmia detection and heart rate variability analysis), ECG is currently being investigated in biometrics (human identification), an emerging area receiving increasing attention. Methodologies for clinical applications can have both differences and similarities with respect to biometrics. This paper reviews methods of ECG processing from a pattern recognition perspective. In particular, we focus on features commonly used for heartbeat classification. Considering the vast literature in the field and the limited space of this review, we dedicated a detailed discussion only to a few classifiers (Artificial Neural Networks and Support Vector Machines) because of their popularity; however, other techniques such as Hidden Markov Models and Kalman Filtering will be also mentioned

    Individual identification via electrocardiogram analysis

    Get PDF
    Background: During last decade the use of ECG recordings in biometric recognition studies has increased. ECG characteristics made it suitable for subject identification: it is unique, present in all living individuals, and hard to forge. However, in spite of the great number of approaches found in literature, no agreement exists on the most appropriate methodology. This study aimed at providing a survey of the techniques used so far in ECG-based human identification. Specifically, a pattern recognition perspective is here proposed providing a unifying framework to appreciate previous studies and, hopefully, guide future research. Methods: We searched for papers on the subject from the earliest available date using relevant electronic databases (Medline, IEEEXplore, Scopus, and Web of Knowledge). The following terms were used in different combinations: electrocardiogram, ECG, human identification, biometric, authentication and individual variability. The electronic sources were last searched on 1st March 2015. In our selection we included published research on peer-reviewed journals, books chapters and conferences proceedings. The search was performed for English language documents. Results: 100 pertinent papers were found. Number of subjects involved in the journal studies ranges from 10 to 502, age from 16 to 86, male and female subjects are generally present. Number of analysed leads varies as well as the recording conditions. Identification performance differs widely as well as verification rate. Many studies refer to publicly available databases (Physionet ECG databases repository) while others rely on proprietary recordings making difficult them to compare. As a measure of overall accuracy we computed a weighted average of the identification rate and equal error rate in authentication scenarios. Identification rate resulted equal to 94.95 % while the equal error rate equal to 0.92 %. Conclusions: Biometric recognition is a mature field of research. Nevertheless, the use of physiological signals features, such as the ECG traits, needs further improvements. ECG features have the potential to be used in daily activities such as access control and patient handling as well as in wearable electronics applications. However, some barriers still limit its growth. Further analysis should be addressed on the use of single lead recordings and the study of features which are not dependent on the recording sites (e.g. fingers, hand palms). Moreover, it is expected that new techniques will be developed using fiducials and non-fiducial based features in order to catch the best of both approaches. ECG recognition in pathological subjects is also worth of additional investigations

    Revisiting QRS detection methodologies for portable, wearable, battery-operated, and wireless ECG systems

    Get PDF
    Cardiovascular diseases are the number one cause of death worldwide. Currently, portable battery-operated systems such as mobile phones with wireless ECG sensors have the potential to be used in continuous cardiac function assessment that can be easily integrated into daily life. These portable point-of-care diagnostic systems can therefore help unveil and treat cardiovascular diseases. The basis for ECG analysis is a robust detection of the prominent QRS complex, as well as other ECG signal characteristics. However, it is not clear from the literature which ECG analysis algorithms are suited for an implementation on a mobile device. We investigate current QRS detection algorithms based on three assessment criteria: 1) robustness to noise, 2) parameter choice, and 3) numerical efficiency, in order to target a universal fast-robust detector. Furthermore, existing QRS detection algorithms may provide an acceptable solution only on small segments of ECG signals, within a certain amplitude range, or amid particular types of arrhythmia and/or noise. These issues are discussed in the context of a comparison with the most conventional algorithms, followed by future recommendations for developing reliable QRS detection schemes suitable for implementation on battery-operated mobile devices.Mohamed Elgendi, Björn Eskofier, Socrates Dokos, Derek Abbot

    Normal Versus Abnormal ECG Classification by the Aid of Deep Learning

    Get PDF
    With the development of telemedicine systems, collected ECG records are accumulated on a large scale. Aiming to lessen domain experts’ workload, we propose a new method based on lead convolutional neural network (LCNN) and rule inference for classification of normal and abnormal ECG records with short duration. First, two different LCNN models are obtained through different filtering methods and different training methods, and then the multipoint-prediction technology and the Bayesian fusion method are successively applied to them. As beneficial complements, four newly developed disease rules are also involved. Finally, we utilize the bias-average method to output the predictive value. On the Chinese Cardiovascular Disease Database with more than 150,000 ECG records, our proposed method yields an accuracy of 86.22% and 0.9322 AUC (Area under ROC curve), comparable to the state-of-the-art results for this subject

    Assessment of ventricular repolarization instability and cardiac risk stratification in different pathological and abnormal conditions

    Get PDF
    Cardiovascular diseases (CVDs) represents the leading cause of mortality worldwide [1,2]. These pathological conditions are mainly characterized by a structurally abnormal heart, that is, a vulnerable substrate, prone to the abnormal generation and/or propagation of the electrical impulse, determining the onset of ventricular arrhythmias, which can result in sudden cardiac death (SCD) [3]. In this context, the assessment of ventricular repolarization from the electrocardiogram (ECG) signal has been shown to provide with valuable information for risk stratification and several electrocardiographic indices have been proposed in the literature [4]. The main objective of this thesis is to propose methodological advances for the assessment of ventricular repolarization instability in pathological and abnormal conditions. These contributions are aimed at improving the prediction of ventricular arrhythmias and, consequently, better identifying SCD risk. In particular, we have addressed this objective by developing robust methodologies for the assessment of T-wave alternans (TWA) and ventricular repolarization instability, in invasive and non-invasive cardiac signals, that have been evaluated in both experimental and clinical conditions. In the first part of the thesis, TWA was simultaneously characterized (prevalence, magnitude, time-course, and alternans waveform) in body-surface ECG and intracardiac electrograms (EGMs) signals during coronary artery occlusion. Signals from both body surface ECG and intracardiac EGMs recorded from 4 different anatomical heart locations (coronary sinus, epicardial space and left and right ventricles) were analyzed following a multilead strategy. Leads were linearly combined using the periodic component analysis (πCA) [5], which maximizes the 2-beat periodicity (TWA periodicity) content present on the available leads. Then the Laplacian Likelihood Ratio method (LLRM) [6] was applied for TWA detection and estimation. A sensitivity study for TWA detection from the 5 different locations of leads was performed, revealing that it is the combination of the ECG leads that better performs. In addition, this multilead approach allowed us to find the optimal combination of intracardiac leads usable for in-vivo monitorization of TWA directly from an implantable device, with a sensitivity comparable to the ECG analysis. These results encourage further research to determine the feasibility of predicting imminent VT/VF episodes by TWA analysis implemented in implantable cardioverter defibrillator’s (ICD) technology.Then, we have studied the potential changes induced by a prolonged exposure to simulated microgravity on ventricular repolarization in structurally normal hearts. It is well known that this environmental condition affects the control of autonomic and cardiovascular systems [7], with a potential increase on cardiac electrical instability. The effects of short- (5 days), mid- (21 days) and long- (60 days) exposure to simulated microgravity on TWA using the head-down bed-rest (HDBR) model [8] were assessed. TWA was evaluated before (PRE), during and after (POST) the immobilization period, by the long-term averaging technique in ambulatory ECG Holter recordings [9]. Additionally, we proposed an adapted short-term averaging approach for shorter, non-stationary ECG signals obtained during two stress manoeuvres (head-up tilt-table and bicycle exercise tests). Both approaches are based on the multilead analysis used in the previous study. The absence of significant changes between PRE and POST-HDBR on TWA indices suggests that a long-term exposure to simulated microgravity is not enough to induce alterations in healthy myocardial substrate up to the point of reflecting electrical instability in terms of TWA on the ECG. Finally, methodological advances were proposed for the assessment of ventricular repolarization instability from the ECG signal in the presence of sporadic (ventricular premature contractions, VPCs) and sustained (atrial fibrillation) rhythm disturbances.On the one hand, a methodological improvement for the estimation of TWA amplitude in ambulatory ECG recordings was proposed, which deals with the possible phase reversal on the alternans sequence induced by the presence of VPCs [10]. The performance of the algorithm was first evaluated using synthetic signals. Then, the effect of the proposed method in the prognostic value of TWA amplitude was assessed in real ambulatory ECG recordings from patients with chronic heart failure (CHF). Finally, circadian TWA changes were evaluated as well as the prognostic value of TWA at different times of the day. A clinical study demonstrated the enhancement in the predictive value of the index of average alternans (IAA) [9] for SCD stratification. In addition, results suggested that alternans activity is modulated by the circadian pattern, preserving its prognostic information when computed just during the morning, which is also the day interval with the highest reported SCD incidence. Thus, suggesting that time of the day should be considered for SCD risk prediction. On the other hand, the high irregularity of the ventricular response in atrial fibrillation (AF) limits the use of the most common ECG-derived markers of repolarization heterogeneity, including TWA, under this clinical condition [11]. A new method for assessing ventricular repolarization changes based on a selective averaging technique was developed and new non-invasive indices of repolarization variation were proposed. The positive impact in the prognostic value of the computed indices was demonstrated in a clinical study, by analyzing ECG Holter recordings from CHF patients with AF. To the best of our knowledge, this is the first study that attempts a non-invasive SCD stratification of patients under AF rhythm by assessing ventricular repolarization instability from the ECG signal. To conclude, the research presented in this thesis sheds some light in the identification of pro-arrhythmic factors, which plays an important role in adopting efficient therapeutic strategies. In particular, the optimal configuration for real-time monitoring of repolarization alternans from intracardiac EGMs, together with the prognostic value of the proposed non-invasive indices of alternans activity and ventricular instability variations in case of AF rhythms demonstrated in two clinical studies, would increase the effectiveness of (ICD) therapy. Finally, the analysis of ECG signals recorded during HDBR experiments in structurally healthy hearts, also provides interesting information on cardiovascular alterations produced in immobilized or bedridden patients.<br /

    Signal processing for automatic heartbeat classification and patient adaptation in the electrocardiogram

    Get PDF
    Las enfermedades cardiovasculares son en la actualidad la mayor causa de muerte individual en los países desarrollados, por lo tanto cualquier avance en las metodologías para el diagnóstico podrían mejorar la salud de muchas personas. Dentro de las enfermedades cardiovasculares, la muerte súbita cardíaca es una de las causas de muerte más importantes, por su número y por el impacto social que provoca. Sin lugar a duda se trata uno de los grandes desafíos de la cardiología moderna. Hay evidencias para relacionar las arritmias con la muerte súbita cardíaca. Por otro lado, la clasificación de latidos en el electrocardiograma (ECG) es un análisis previo para el estudio de las arritmias. El análisis del ECG proporciona una técnica no invasiva para el estudio de la actividad del corazón en sus distintas condiciones. Particularmente los algoritmos automáticos de clasificación se focalizan en el análisis del ritmo y la morfología del ECG, y específicamente en las variaciones respecto a la normalidad. Justamente, las variaciones en el ritmo, regularidad, lugar de origen y forma de conducción de los impulsos cardíacos, se denominan arritmias. Mientras que algunas arritmias representan una amenaza inminente (Ej. fibrilación ventricular), existen otras más sutiles que pueden ser una amenaza a largo plazo sin el tratamiento adecuado. Es en estos últimos casos, que registros ECG de larga duración requieren una inspección cuidadosa, donde los algoritmos automáticos de clasificación representan una ayuda significativa en el diagnóstico. En la última década se han desarrollado algunos algoritmos de clasificación de ECG, pero solo unos pocos tienen metodologías y resultados comparables, a pesar de las recomendaciones de la AAMI para facilitar la resolución de estos problemas. De dichos métodos, algunos funcionan de manera completamente automática, mientras que otros pueden aprovechar la asistencia de un experto para mejorar su desempeño. La base de datos utilizada en todos estos trabajos ha sido la MIT-BIH de arritmias. En cuanto a las características utilizadas, los intervalos RR fueron usados por casi todos los grupos. También se utilizaron muestras del complejo QRS diezmado, o transformado mediante polinomios de Hermite, transformada de Fourier o la descomposición wavelet. Otros grupos usaron características que integran la información presente en ambas derivaciones, como el máximo del vectocardiograma del complejo QRS, o el ángulo formado en dicho punto. El objetivo de esta tesis ha sido estudiar algunas metodologías para la clasificación de latidos en el ECG. En primer lugar se estudiaron metodologías automáticas, con capacidad para contemplar el análisis de un número arbitrario de derivaciones. Luego se estudió la adaptación al paciente y la posibilidad de incorporar la asistencia de un experto para mejorar el rendimiento del clasificador automático. En principio se desarrolló y validó un clasificador de latidos sencillo, que utiliza características seleccionadas en base a una buena capacidad de generalización. Se han considerado características de la serie de intervalos RR (distancia entre dos latidos consecutivos), como también otras calculadas a partir de ambas derivaciones de la señal de ECG, y escalas de su transformada wavelet. Tanto el desempeño en la clasificación como la capacidad de generalización han sido evaluados en bases de datos públicas: la MIT-BIH de arritmias, la MIT-BIH de arritmias supraventriculares y la del Instituto de Técnicas Cardiológicas de San Petersburgo (INCART). Se han seguido las recomendaciones de la Asociación para el Avance de la Instrumentación Médica (AAMI) tanto para el etiquetado de clases como para la presentación de los resultados. Para la búsqueda de características se adoptó un algoritmo de búsqueda secuencial flotante, utilizando diferentes criterios de búsqueda, para luego elegir el modelo con mejor rendimiento y capacidad de generalización en los sets de entrenamiento y validación. El mejor modelo encontrado incluye 8 características y ha sido entrenado y evaluado en particiones disjuntas de la MIT-BIH de arritmias. Todas las carácterísticas del modelo corresponden a mediciones de intervalos temporales. Esto puede explicarse debido a que los registros utilizados en los experimentos no siempre contienen las mismas derivaciones, y por lo tanto la capacidad de clasificación de aquellas características basadas en amplitudes se ve seriamente disminuida. Las primeras 4 características del modelo están claramente relacionadas a la evolución del ritmo cardíaco, mientras que las otras cuatro pueden interpretarse como mediciones alternativas de la anchura del complejo QRS, y por lo tanto morfológicas. Como resultado, el modelo obtenido tiene la ventaja evidente de un menor tamaño, lo que redunda tanto en un ahorro computacional como en una mejor estimación de los parámetros del modelo durante el entrenamiento. Como ventaja adicional, este modelo depende exclusivamente de la detección de cada latido, haciendo este clasificador especialmente útil en aquellos casos donde la delineación de las ondas del ECG no puede realizarse de manera confiable. Los resultados obtenidos en el set de evaluación han sido: exactitud global (A) de 93%; para latidos normales: sensibilidad (S) 95% valor predictivo positivo (P^{+}) 98%; para latidos supraventriculares, S 77%, P^{+} 39%; y para latidos ventriculares S 81%, P^{+} 87%. Para comprobar la capacidad de generalización, se evaluó el rendimiento en la INCART obteniéndose resultados comparables a los del set de evaluación. El modelo de clasificación obtenido utiliza menos características, y adicionalmente presentó mejor rendimiento y capacidad de generalización que otros representativos del estado del arte. Luego se han estudiado dos mejoras para el clasificador desarrollado en el párrafo anterior. La primera fue adaptarlo a registros ECG de un número arbitrario de derivaciones, o extensión multiderivacional. En la segunda mejora se buscó cambiar el clasificador lineal por un perceptrón multicapa no lineal (MLP). Para la extensión multiderivacional se estudió si conlleva alguna mejora incluir información del ECG multiderivacional en el modelo previamente validado. Dicho modelo incluye características calculadas de la serie de intervalos RR y descriptores morfológicos calculados en la transformada wavelet de cada derivación. Los experimentos se han realizado en la INCART, disponible en Physionet, mientras que la generalización se corroboró en otras bases de datos públicas y privadas. En todas las bases de datos se siguieron las recomendaciones de la AAMI para el etiquetado de clases y presentación de resultados. Se estudiaron varias estrategias para incorporar la información adicional presente en registros de 12 derivaciones. La mejor estrategia consistió en realizar el análisis de componentes principales a la transformada wavelet del ECG. El rendimiento obtenido con dicha estrategia fue: para latidos normales: S98%, P^{+}93%; para latidos supraventriculares, S86%, P^{+}91%; y para latidos ventriculares S90%, P^{+}90%. La capacidad de generalización de esta estrategia se comprobó tras evaluarla en otras bases de datos, con diferentes cantidades de derivaciones, obteniendo resultados comparables. En conclusión, se mejoró el rendimiento del clasificador de referencia tras incluir la información disponible en todas las derivaciones disponibles. La mejora del clasificador lineal por medio de un MLP se realizó siguiendo una metodología similar a la descrita más arriba. El rendimiento obtenido fue: A 89%; para latidos normales: S90%, P^{+}99% para latidos supraventriculares, S83%, P^{+}34%; para latidos ventriculares S87%, P^{+}76%. Finalmente estudiamos un algoritmo de clasificación basado en las metodologías descritas en los anteriores párrafos, pero con la capacidad de mejorar su rendimiento mediante la ayuda de un experto. Se presentó un algoritmo de clasificación de latidos en el ECG adaptable al paciente, basado en el clasificador automático previamente desarrollado y un algoritmo de clustering. Tanto el clasificador automático, como el algoritmo de clustering utilizan características calculadas de la serie de intervalos RR y descriptores de morfología calculados de la transformada wavelet. Integrando las decisiones de ambos clasificadores, este algoritmo puede desempeñarse automáticamente o con varios grados de asistencia. El algoritmo ha sido minuciosamente evaluado en varias bases de datos para facilitar la comparación. Aún en el modo completamente automático, el algoritmo mejora el rendimiento del clasificador automático original; y con menos de 2 latidos anotados manualmente (MAHB) por registro, el algoritmo obtuvo una mejora media para todas las bases de datos del 6.9% en A, de 6.5\%S y de 8.9\% en P^{+}. Con una asistencia de solo 12 MAHB por registro resultó en una mejora media de 13.1\%en A, de 13.9\% en S y de 36.1\% en P^{+}. En el modo asistido, el algoritmo obtuvo un rendimiento superior a otros representativos del estado del arte, con menor asistencia por parte del experto. Como conclusiones de la tesis, debemos enfatizar la etapa del diseño y análisis minucioso de las características a utilizar. Esta etapa está íntimamente ligada al conocimiento del problema a resolver. Por otro lado, la selección de un subset de características ha resultado muy ventajosa desde el punto de la eficiencia computacional y la capacidad de generalización del modelo obtenido. En último lugar, la utilización de un clasificador simple o de baja capacidad (por ejemplo funciones discriminantes lineales) asegurará que el modelo de características sea responsable en mayor parte del rendimiento global del sistema. Con respecto a los sets de datos para la realización de los experimentos, es fundamental contar con un elevado numero de sujetos. Es importante incidir en la importancia de contar con muchos sujetos, y no muchos registros de pocos sujetos, dada la gran variabilidad intersujeto observada. De esto se desprende la necesidad de evaluar la capacidad de generalización del sistema a sujetos no contemplados durante el entrenamiento o desarrollo. Por último resaltaremos la complejidad de comparar el rendimiento de clasificadores en problemas mal balanceados, es decir que las clases no se encuentras igualmente representadas. De las alternativas sugeridas en esta tesis probablemente la más recomendable sea la matriz de confusión, ya que brinda una visión completa del rendimiento del clasificador, a expensas de una alta redundancia. Finalmente, luego de realizar comparaciones justas con otros trabajos representativos del estado actual de la técnica, concluimos que los resultados presentados en esta tesis representan una mejora en el campo de la clasificación de latidos automática y adaptada al paciente, en la señal de ECG

    P Wave Detection in Pathological ECG Signals

    Get PDF
    Důležitou součástí hodnocení elektrokardiogramu (EKG) a následné detekce srdečních patologií, zejména v dlouhodobém monitorování, je detekce vln P. Výsledky detekce vln P umožňují získat ze záznamu EKG více informací o srdeční činnosti. Podle správně detekovaných pozic vln P je možné detekovat a odlišit patologie, které současné programy používané v medicínské praxi identifikovat neumožňují (např. atrioventrikulární blok 1., 2. a 3. stupně, cestující pacemaker, Wolffův-Parkinsonův-Whiteův syndrom). Tato dizertační práce představuje novou metodu detekce vln P v záznamech EKG během fyziologické a zejména patologické srdeční činnosti. Metoda je založena na fázorové transformaci, inovativních pravidlech detekce a identifikaci možných patologií zpřesňující detekci vln P. Dalším důležitým výsledkem práce je vytvoření dvou veřejně dostupných databází záznamů EKG s obsahem patologií a anotovanými vlnami P. Dizertační práce je rozdělena na teoretickou část a soubor publikací představující příspěvek autora v oblasti detekce vlny P.Accurate software for the P wave detection, mainly in long-term monitoring, is an important part of electrocardiogram (ECG) evaluation and subsequent cardiac pathological events detection. The results of P wave detection allow us to obtain more information from the ECG records. According to the correct P wave detection, it is possible to detect and distinguish cardiac pathologies which are nowadays automatically undetectable by commonly used software in medical practice (events e.g. atrioventricular block 1st, 2nd and 3rd degree, WPW syndrome, wandering pacemaker, etc.). This thesis introduces a new method for P wave detection in ECG signals during both physiological and pathological heart function. This novel method is based on a phasor transform, innovative rules, and identification of possible pathologies that improve P wave detection. An equally important part of the work is the creation of two publicly available databases of physiological and pathological ECG records with annotated P waves. The dissertation is divided into theoretical analysis and a set of publications representing the contribution of the author in the area of P wave detection.

    ECG Biometric for Human Authentication using Hybrid Method

    Get PDF
    Recently there is more usage of deep learning in biometrics. Electrocardiogram (ECG) for person authentication is not the exception. However the performance of the deep learning networks purely relay on the datasets and trainings, In this work we propose a fusion of pretrained Convolutional Neural Networks (CNN) such as Googlenet with SVM for person authentication using there ECG as biometric. The one dimensional ECG signals are filtered and converted into a standard size with suitable format before it is used to train the networks. An evaluation of performances shows the good results with the pre-trained network that is Googlenet. The accuracy results reveal that the proposed fusion method outperforms with an average accuracy of 95.0%

    Automated ECG Analysis for Localizing Thrombus in Culprit Artery Using Rule Based Information Fuzzy Network

    Get PDF
    Cardio-vascular diseases are one of the foremost causes of mortality in today’s world. The prognosis for cardiovascular diseases is usually done by ECG signal, which is a simple 12-lead Electrocardiogram (ECG) that gives complete information about the function of the heart including the amplitude and time interval of P-QRST-U segment. This article recommends a novel approach to identify the location of thrombus in culprit artery using the Information Fuzzy Network (IFN). Information Fuzzy Network, being a supervised machine learning technique, takes known evidences based on rules to create a predicted classification model with thrombus location obtained from the vast input ECG data. These rules are well-defined procedures for selecting hypothesis that best fits a set of observations. Results illustrate that the recommended approach yields an accurateness of 92.30%. This novel approach is shown to be a viable ECG analysis approach for identifying the culprit artery and thus localizing the thrombus

    Electrocardiogram Pattern Recognition and Analysis Based on Artificial Neural Networks and Support Vector Machines: A Review

    Full text link
    corecore