15 research outputs found

    BEAT CLASSIFICATION USING HYBRID WAVELET TRANSFORM BASED FEATURES AND SUPERVISED LEARNING APPROACH

    Get PDF
    This paper describes an automatic heartbeat recognition based on QRS detection, feature extraction and classification. In this paper five different type of ECG beats of MIT BIH arrhythmia database are automatically classified. The proposed method involves QRS complex detection based on the differences and approximation derivation, inversion and threshold method. The computation of combined Discrete Wavelet Transform (DWT) and Dual Tree Complex Wavelet Transform (DTCWT) of hybrid features coefficients are obtained from the QRS segmented beat from ECG signal which are then used as a feature vector. Then the feature vectors are given to Extreme Learning Machine (ELM) and k- Nearest Neighbor (kNN) classifier for automatic classification of heartbeat. The performance of the proposed system is measured by sensitivity, specificity and accuracy measures

    A Powerful Paradigm for Cardiovascular Risk Stratification Using Multiclass, Multi-Label, and Ensemble-Based Machine Learning Paradigms: A Narrative Review

    Get PDF
    Background and Motivation: Cardiovascular disease (CVD) causes the highest mortality globally. With escalating healthcare costs, early non-invasive CVD risk assessment is vital. Conventional methods have shown poor performance compared to more recent and fast-evolving Artificial Intelligence (AI) methods. The proposed study reviews the three most recent paradigms for CVD risk assessment, namely multiclass, multi-label, and ensemble-based methods in (i) office-based and (ii) stress-test laboratories. Methods: A total of 265 CVD-based studies were selected using the preferred reporting items for systematic reviews and meta-analyses (PRISMA) model. Due to its popularity and recent development, the study analyzed the above three paradigms using machine learning (ML) frameworks. We review comprehensively these three methods using attributes, such as architecture, applications, pro-and-cons, scientific validation, clinical evaluation, and AI risk-of-bias (RoB) in the CVD framework. These ML techniques were then extended under mobile and cloud-based infrastructure. Findings: Most popular biomarkers used were office-based, laboratory-based, image-based phenotypes, and medication usage. Surrogate carotid scanning for coronary artery risk prediction had shown promising results. Ground truth (GT) selection for AI-based training along with scientific and clinical validation is very important for CVD stratification to avoid RoB. It was observed that the most popular classification paradigm is multiclass followed by the ensemble, and multi-label. The use of deep learning techniques in CVD risk stratification is in a very early stage of development. Mobile and cloud-based AI technologies are more likely to be the future. Conclusions: AI-based methods for CVD risk assessment are most promising and successful. Choice of GT is most vital in AI-based models to prevent the RoB. The amalgamation of image-based strategies with conventional risk factors provides the highest stability when using the three CVD paradigms in non-cloud and cloud-based frameworks

    Risk Stratification with Extreme Learning Machine: A Retrospective Study on Emergency Department Patients

    Get PDF
    This paper presents a novel risk stratification method using extreme learning machine (ELM). ELM was integrated into a scoring system to identify the risk of cardiac arrest in emergency department (ED) patients. The experiments were conducted on a cohort of 1025 critically ill patients presented to the ED of a tertiary hospital. ELM and voting based ELM (V-ELM) were evaluated. To enhance the prediction performance, we proposed a selective V-ELM (SV-ELM) algorithm. The results showed that ELM based scoring methods outperformed support vector machine (SVM) based scoring method in the receiver operation characteristic analysis

    Examination of the applicability of Support Vector Machines in the context of ischaemia detection

    Get PDF
    Projecte final de carrera fet en col.laboració amb Technische Universität Dresden. Fakultät Elektrotechnik und InformationstechnikCatalà: El present treball constitueix una proposta per la detecció d'episodis isquemics ST-T basada en la classificació de batecs càrdiacs. Per classificar els batecs de la European ST-T Database (EDB) s'ha aplicat Support Vector Machines (SVMs). Diferents experiments respecte variants de SVM (SVM binària - multi-classe SVM, nucli lineal - nucli RBF, dades d'entrenament balancejades - dades d'entrenament desbalancejades) s'han dut a terme per tal d'extreure la informació adequada sobre els models de SVM. Els resultats obtinguts demostren l'aplicabilitat del SVM en el context donat. No obstant això, la comparació d'aquests resultats amb els resultats prèviament obtinguts en la detecció d'episodis de ST-T demostren la necessitat d'una major investigació sobre el tema. Les observacions que es dedueix d'aquesta tesi són motiu de la suposició que el nombre relativament reduit del patró d'entrenament és la principal raó de les limitacions que s'examinen en els resultats. No obstant això, l'ampliació del conjunt d'entrenament no és una tasca fàcil. Les futures línies de treball haurien d'abordar aquesta qüestió. De tal manera, dues estratègies es poden dur a terme: 1. El subconjunt d'entrenament podria ser ampliat mitjançant la inclusió de més morfologies però mantenint la mateixa mida; això implicaria que el nombre de registres d'entrenament ha de ser major i de cada registre un nombre menor nombre de batecs és seleccionat i mantenint LIBSVM com a mètode aplicat. 2. El subconjunt d'entrenament podria ser ampliat mitjançant la inclusió de més morfologies i l'augment de la mida; això implicaria que el nombre de registres d'entrenament ha de ser major, el total nombre de batecs és major i nous mètodes d?enstrenament han de ser aplicats. L'última estratègia, òbviament, constitueix l'enfocament més integral. Aquesta estratègia s'ha de dur a terme si l'aplicació de SVM està previst fins i tot en altres contextos dins del grup de treball. A més, un possible enfocament podria avaluar la utilitat i eficiència, respectivament, de LaSVM com a paquet base de programari. LaSVM esta especialment destinat a ser utilitzat en el cas de grans conjunts de dades (en el sentit d'un gran nombre de model d'entrenament). Com que LaSVM suporta el mateix format de dades que LIBSVM la majoria de l'experiència i alguns mètodes que s'han ideat en aquest treball podrien ser integrats fàcilment en les funcions de LaSVM.Castellano: El presente trabajo constituye una propuesta para la detección de episodios isquémicos ST-T basada en la clasificación de latidos cardíacos. Para clasificar los latidos de la European ST-T Database (EDB) se ha aplicado Support Vector Machines (SVMs). Diferentes experimentos respecto variantes de SVM (SVM binaria - multi-clase SVM, núcleo lineal - núcleo RBF, datos de entrenamiento balanceadas - datos de entrenamiento desbalanceadas) se han llevado a cabo para extraer la información adecuada sobre los modelos de SVM. Los resultados obtenidos demuestran la aplicabilidad del SVM en el contexto dado. Sin embargo, la comparación de estos resultados con los resultados previamente obtenidos en la detección de episodios de ST-T demuestran la necesidad de una mayor investigación sobre el tema. Las observaciones que se deducen de esta tesis son motivo de la suposición de que el número relativamente reducido del patrón de entrenamiento es la principal razón de las limitaciones que se examinan en los resultados. Sin embargo, la ampliación del conjunto de entrenamiento no es una tarea fácil. Las futuras líneas de trabajo deberían abordar esta cuestión. De tal modo, dos estrategias se pueden llevar a cabo: 1. El subconjunto de entrenamiento podría ser ampliado mediante la inclusión de más morfologías pero manteniendo el mismo tamaño, lo que implicaría que el número de registros de entrenamiento debe ser mayor y de cada registro un número menor de latidos es seleccionado y manteniendo LIBSVM como método aplicado. 2. El subconjunto de entrenamiento podría ser ampliado mediante la inclusión de más morfologías y el aumento del tamaño, lo que implicaría que el número de registros de entrenamiento debe ser mayor, el total número de latidos es mayor y nuevos métodos de enstrenament deben ser aplicados. La última estrategia, obviamente, constituye el enfoque más integral. Esta estrategia debe llevarse a cabo si la aplicación de SVM está previsto incluso en otros contextos dentro del grupo de trabajo. Además, un posible enfoque podría evaluar la utilidad y eficiencia, respectivamente, de LaSVM como paquete base de software. LaSVM está especialmente destinado a ser utilizado en el caso de grandes conjuntos de datos (en el sentido de un gran número de modelo de entrenamiento). Como LaSVM soporta el mismo formato de datos que LIBSVM la mayoría de la experiencia y algunos métodos que se han ideado en este trabajo podrían ser integrados fácilmente en las funciones de LaSVM.English: The presented work constitutes an approach to detect ST-T- ischaemic episodes based on beat classes. To classify the beats of the European ST-T Database (EDB) Support Vector Machines (SVMs) have been applied. Diferent experiments regarding variants of SVMs (binary SVM - multi-class SVM, linear Kernel - RBF Kernel, balanced training data - unbalanced training data) have been carried out in order to extract information on suitable SVM models. The obtained results show the applicability of SVMs in the given context. However, the comparison of these results to previously obtained results on the detection of ST-T-episodes even clarifies the need for further investigation on the topic. The observations which may be deduced from this thesis give cause for the assumption that the relatively small number of training pattern is the main reason of the limitations which are examined within the results. However, expanding the training set is not an easy task. Future works should address this issue. Thereby, two strategies may be pursued: 1. The training subset could be expanded by including more morphologies but maintaining the same size; this would imply that the number of training records should be increased, from each record a smaller number of beats is selected and the applied methods (LibSVM) could be maintained. 2. The training subset could be expanded by including more morphologies and increasing the size; this would imply that the number of training records should be increased, the overall number of beats is increased and new training methods must be applied. The latter strategy obviously constitutes the more comprehensive approach. This strategy should be pursued if the application of SVMs is planned even in other contexts within the working group. Thereto, a possible approach could evaluate the usability and eficiency, respectively, of the software package LaSVM. LaSVM especially is intended to be used in the case of large datasets (in the sense of a big number of training pattern). As LaSVM supports the same data formats as LibSVM most of the experience and some methods which have been devised in this work could be transfered thus allowing an easy integration of LaSVM functions

    Avaliação do ritmo cardíaco em eletrocardiogramas de curta duração utilizando análise dos intervalos RR e aprendizado supervisionado

    Get PDF
    Atrial fibrillation is a condition that often does not show itself through symptoms and is strongly related to infarction and sudden cardiac death. This work aims at developing an algorithm that differentiates atrial fibrillation rhythm from noise, normal and other rhythms in single short ECG leads collected by a mobile device. A total of 36 features were collected mostly from the sequence of beat-to-beat intervals. Neighborhood component analysis (NCA) feature selection technique was applied, and several supervised learning algorithms were compared and optimized using cross validation approach. Performances were compared with an index F1 that considers both sensitivity and specificity. NCA allowed selecting 11 features. The classifier based on support vector machines gave the best overall result (F1 = 72,9%), were the best performance occurred for the atrial fibrillation class (F1 = 82,5)Fibrilação atrial é uma condição que frequentemente não exibe sintomas e está fortemente relacionada com infarto e morte súbita cardíaca. O objetivo deste trabalho foi desenvolver um algoritmo que diferencia fibrilação atrial de ritmo normal e outros ritmos presentes em sinais de curta duração e de derivação única, coletados por um dispositivo móvel. Um total de 36 características foram coletadas, principalmente da sequência de intervalos batimento-a-batimento. Seleção de características por análise de componentes vizinhos (ACV) foi aplicada e quatro algoritmos de aprendizado supervisionado foram comparados e otimizados, utilizando-se treinamento com validação cruzada. A comparação dos desempenhos foi realizada por meio de um índice F1 que leva em conta sensibilidade e especificidade. A ACV permitiu selecionar 11 variáveis do conjunto inicial. O classificador que utilizou máquina de vetores de suporte forneceu o melhor índice geral (F1 = 72,9), onde o melhor desempenho ocorreu na detecção de fibrilação atrial (F1 = 82,5)

    Contribuciones de las técnicas machine learning a la cardiología. Predicción de reestenosis tras implante de stent coronario

    Get PDF
    [ES]Antecedentes: Existen pocos temas de actualidad equiparables a la posibilidad de la tecnología actual para desarrollar las mismas capacidades que el ser humano, incluso en medicina. Esta capacidad de simular los procesos de inteligencia humana por parte de máquinas o sistemas informáticos es lo que conocemos hoy en día como inteligencia artificial. Uno de los campos de la inteligencia artificial con mayor aplicación a día de hoy en medicina es el de la predicción, recomendación o diagnóstico, donde se aplican las técnicas machine learning. Asimismo, existe un creciente interés en las técnicas de medicina de precisión, donde las técnicas machine learning pueden ofrecer atención médica individualizada a cada paciente. El intervencionismo coronario percutáneo (ICP) con stent se ha convertido en una práctica habitual en la revascularización de los vasos coronarios con enfermedad aterosclerótica obstructiva significativa. El ICP es asimismo patrón oro de tratamiento en pacientes con infarto agudo de miocardio; reduciendo las tasas de muerte e isquemia recurrente en comparación con el tratamiento médico. El éxito a largo plazo del procedimiento está limitado por la reestenosis del stent, un proceso patológico que provoca un estrechamiento arterial recurrente en el sitio de la ICP. Identificar qué pacientes harán reestenosis es un desafío clínico importante; ya que puede manifestarse como un nuevo infarto agudo de miocardio o forzar una nueva resvascularización del vaso afectado, y que en casos de reestenosis recurrente representa un reto terapéutico. Objetivos: Después de realizar una revisión de las técnicas de inteligencia artificial aplicadas a la medicina y con mayor profundidad, de las técnicas machine learning aplicadas a la cardiología, el objetivo principal de esta tesis doctoral ha sido desarrollar un modelo machine learning para predecir la aparición de reestenosis en pacientes con infarto agudo de miocardio sometidos a ICP con implante de un stent. Asimismo, han sido objetivos secundarios comparar el modelo desarrollado con machine learning con los scores clásicos de riesgo de reestenosis utilizados hasta la fecha; y desarrollar un software que permita trasladar esta contribución a la práctica clínica diaria de forma sencilla. Para desarrollar un modelo fácilmente aplicable, realizamos nuestras predicciones sin variables adicionales a las obtenidas en la práctica rutinaria. Material: El conjunto de datos, obtenido del ensayo GRACIA-3, consistió en 263 pacientes con características demográficas, clínicas y angiográficas; 23 de ellos presentaron reestenosis a los 12 meses después de la implantación del stent. Todos los desarrollos llevados a cabo se han hecho en Python y se ha utilizado computación en la nube, en concreto AWS (Amazon Web Services). Metodología: Se ha utilizado una metodología para trabajar con conjuntos de datos pequeños y no balanceados, siendo importante el esquema de validación cruzada anidada utilizado, así como la utilización de las curvas PR (precision-recall, exhaustividad-sensibilidad), además de las curvas ROC, para la interpretación de los modelos. Se han entrenado los algoritmos más habituales en la literatura para elegir el que mejor comportamiento ha presentado. Resultados: El modelo con mejores resultados ha sido el desarrollado con un clasificador extremely randomized trees; que superó significativamente (0,77; área bajo la curva ROC a los tres scores clínicos clásicos; PRESTO-1 (0,58), PRESTO-2 (0,58) y TLR (0,62). Las curvas exhaustividad sensibilidad ofrecieron una imagen más precisa del rendimiento del modelo extremely randomized trees que muestra un algoritmo eficiente (0,96) para no reestenosis, con alta exhaustividad y alta sensibilidad. Para un umbral considerado óptimo, de 1,000 pacientes sometidos a implante de stent, nuestro modelo machine learning predeciría correctamente 181 (18%) más casos en comparación con el mejor score de riesgo clásico (TLR). Las variables más importantes clasificadas según su contribución a las predicciones fueron diabetes, enfermedad coronaria en 2 ó más vasos, flujo TIMI post-ICP, plaquetas anormales, trombo post-ICP y colesterol anormal. Finalmente, se ha desarrollado una calculadora para trasladar el modelo a la práctica clínica. La calculadora permite estimar el riesgo individual de cada paciente y situarlo en una zona de riesgo, facilitando la toma de decisión al médico en cuanto al seguimiento adecuado para el mismo. Conclusiones: Aplicado inmediatamente después de la implantación del stent, un modelo machine learning diferencia mejor a aquellos pacientes que presentarán o no reestenosis respecto a los discriminadores clásicos actuales

    Data science, analytics and artificial intelligence in e-health : trends, applications and challenges

    Get PDF
    Acknowledgments. This work has been partially supported by the Divina Pastora Seguros company.More than ever, healthcare systems can use data, predictive models, and intelligent algorithms to optimize their operations and the service they provide. This paper reviews the existing literature regarding the use of data science/analytics methods and artificial intelligence algorithms in healthcare. The paper also discusses how healthcare organizations can benefit from these tools to efficiently deal with a myriad of new possibilities and strategies. Examples of real applications are discussed to illustrate the potential of these methods. Finally, the paper highlights the main challenges regarding the use of these methods in healthcare, as well as some open research lines

    Feature Grouping-based Feature Selection

    Get PDF

    An Approach to Pattern Recognition by Evolutionary Computation

    Get PDF
    Evolutionary Computation has been inspired by the natural phenomena of evolution. It provides a quite general heuristic, exploiting few basic concepts: reproduction of individuals, variation phenomena that affect the likelihood of survival of individuals, inheritance of parents features by offspring. EC has been widely used in the last years to effectively solve hard, non linear and very complex problems. Among the others, EC–based algorithms have also been used to tackle classification problems. Classification is a process according to which an object is attributed to one of a finite set of classes or, in other words, it is recognized as belonging to a set of equal or similar entities, identified by a label. Most likely, the main aspect of classification concerns the generation of prototypes to be used to recognize unknown patterns. The role of prototypes is that of representing patterns belonging to the different classes defined within a given problem. For most of the problems of practical interest, the generation of such prototypes is a very hard problem, since a prototype must be able to represent patterns belonging to the same class, which may be significantly dissimilar each other. They must also be able to discriminate patterns belonging to classes different from the one that they represent. Moreover, a prototype should contain the minimum amount of information required to satisfy the requirements just mentioned. The research presented in this thesis, has led to the definition of an EC–based framework to be used for prototype generation. The defined framework does not provide for the use of any particular kind of prototypes. In fact, it can generate any kind of prototype once an encoding scheme for the used prototypes has been defined. The generality of the framework can be exploited to develop many applications. The framework has been employed to implement two specific applications for prototype generation. The developed applications have been tested on several data sets and the results compared with those obtained by other approaches previously presented in the literature
    corecore