240 research outputs found

    Assessment of automatic strategies for combining QRS detections by multiple algorithms in multiple leads

    Get PDF
    Objective: To develop and evaluate an algorithm for the selection of the best-performing QRS detections from multiple algorithms and ECG leads. Approach: The detections produced by several publicly available single-lead QRS detectors are segmented in 20 s consecutive windows; then a statistical model is trained to estimate a quality metric that is used to rank each 20 s segment of detections. The model describes each heartbeat in terms of six features calculated from the RR interval series, and one feature proportional to the number of heartbeats detected in other leads in a neighborhood of the current heartbeat. With the highest ranked segments, we defined several lead selection strategies (LSS) that were evaluated in a set of 1754 ECG recordings from 14 ECG databases. The LSS proposed were compared with simple strategies such as selecting lead II or the first lead available in a recording. The performance was calculated in terms of the average sensitivity, positive predictive value, and F score. Main results: The best-performing LSS, based on wavedet algorithm, achieved an F score of 98.7, with sensitivity S¿¿=¿¿99.2 and positive predictive value P¿¿=¿¿98.3. The F score for the simpler strategy using the same algorithm was 92.7. The LSS studied in this work have been made available in an open-source toolbox to ease the reproducibility and result comparison. Significance: The results suggest that the use of LSS is convenient for purposes of selecting the best heartbeat locations among those provided by different detectors in different leads, obtaining better results than any of the algorithms individually

    Signal processing for automatic heartbeat classification and patient adaptation in the electrocardiogram

    Get PDF
    Las enfermedades cardiovasculares son en la actualidad la mayor causa de muerte individual en los países desarrollados, por lo tanto cualquier avance en las metodologías para el diagnóstico podrían mejorar la salud de muchas personas. Dentro de las enfermedades cardiovasculares, la muerte súbita cardíaca es una de las causas de muerte más importantes, por su número y por el impacto social que provoca. Sin lugar a duda se trata uno de los grandes desafíos de la cardiología moderna. Hay evidencias para relacionar las arritmias con la muerte súbita cardíaca. Por otro lado, la clasificación de latidos en el electrocardiograma (ECG) es un análisis previo para el estudio de las arritmias. El análisis del ECG proporciona una técnica no invasiva para el estudio de la actividad del corazón en sus distintas condiciones. Particularmente los algoritmos automáticos de clasificación se focalizan en el análisis del ritmo y la morfología del ECG, y específicamente en las variaciones respecto a la normalidad. Justamente, las variaciones en el ritmo, regularidad, lugar de origen y forma de conducción de los impulsos cardíacos, se denominan arritmias. Mientras que algunas arritmias representan una amenaza inminente (Ej. fibrilación ventricular), existen otras más sutiles que pueden ser una amenaza a largo plazo sin el tratamiento adecuado. Es en estos últimos casos, que registros ECG de larga duración requieren una inspección cuidadosa, donde los algoritmos automáticos de clasificación representan una ayuda significativa en el diagnóstico. En la última década se han desarrollado algunos algoritmos de clasificación de ECG, pero solo unos pocos tienen metodologías y resultados comparables, a pesar de las recomendaciones de la AAMI para facilitar la resolución de estos problemas. De dichos métodos, algunos funcionan de manera completamente automática, mientras que otros pueden aprovechar la asistencia de un experto para mejorar su desempeño. La base de datos utilizada en todos estos trabajos ha sido la MIT-BIH de arritmias. En cuanto a las características utilizadas, los intervalos RR fueron usados por casi todos los grupos. También se utilizaron muestras del complejo QRS diezmado, o transformado mediante polinomios de Hermite, transformada de Fourier o la descomposición wavelet. Otros grupos usaron características que integran la información presente en ambas derivaciones, como el máximo del vectocardiograma del complejo QRS, o el ángulo formado en dicho punto. El objetivo de esta tesis ha sido estudiar algunas metodologías para la clasificación de latidos en el ECG. En primer lugar se estudiaron metodologías automáticas, con capacidad para contemplar el análisis de un número arbitrario de derivaciones. Luego se estudió la adaptación al paciente y la posibilidad de incorporar la asistencia de un experto para mejorar el rendimiento del clasificador automático. En principio se desarrolló y validó un clasificador de latidos sencillo, que utiliza características seleccionadas en base a una buena capacidad de generalización. Se han considerado características de la serie de intervalos RR (distancia entre dos latidos consecutivos), como también otras calculadas a partir de ambas derivaciones de la señal de ECG, y escalas de su transformada wavelet. Tanto el desempeño en la clasificación como la capacidad de generalización han sido evaluados en bases de datos públicas: la MIT-BIH de arritmias, la MIT-BIH de arritmias supraventriculares y la del Instituto de Técnicas Cardiológicas de San Petersburgo (INCART). Se han seguido las recomendaciones de la Asociación para el Avance de la Instrumentación Médica (AAMI) tanto para el etiquetado de clases como para la presentación de los resultados. Para la búsqueda de características se adoptó un algoritmo de búsqueda secuencial flotante, utilizando diferentes criterios de búsqueda, para luego elegir el modelo con mejor rendimiento y capacidad de generalización en los sets de entrenamiento y validación. El mejor modelo encontrado incluye 8 características y ha sido entrenado y evaluado en particiones disjuntas de la MIT-BIH de arritmias. Todas las carácterísticas del modelo corresponden a mediciones de intervalos temporales. Esto puede explicarse debido a que los registros utilizados en los experimentos no siempre contienen las mismas derivaciones, y por lo tanto la capacidad de clasificación de aquellas características basadas en amplitudes se ve seriamente disminuida. Las primeras 4 características del modelo están claramente relacionadas a la evolución del ritmo cardíaco, mientras que las otras cuatro pueden interpretarse como mediciones alternativas de la anchura del complejo QRS, y por lo tanto morfológicas. Como resultado, el modelo obtenido tiene la ventaja evidente de un menor tamaño, lo que redunda tanto en un ahorro computacional como en una mejor estimación de los parámetros del modelo durante el entrenamiento. Como ventaja adicional, este modelo depende exclusivamente de la detección de cada latido, haciendo este clasificador especialmente útil en aquellos casos donde la delineación de las ondas del ECG no puede realizarse de manera confiable. Los resultados obtenidos en el set de evaluación han sido: exactitud global (A) de 93%; para latidos normales: sensibilidad (S) 95% valor predictivo positivo (P^{+}) 98%; para latidos supraventriculares, S 77%, P^{+} 39%; y para latidos ventriculares S 81%, P^{+} 87%. Para comprobar la capacidad de generalización, se evaluó el rendimiento en la INCART obteniéndose resultados comparables a los del set de evaluación. El modelo de clasificación obtenido utiliza menos características, y adicionalmente presentó mejor rendimiento y capacidad de generalización que otros representativos del estado del arte. Luego se han estudiado dos mejoras para el clasificador desarrollado en el párrafo anterior. La primera fue adaptarlo a registros ECG de un número arbitrario de derivaciones, o extensión multiderivacional. En la segunda mejora se buscó cambiar el clasificador lineal por un perceptrón multicapa no lineal (MLP). Para la extensión multiderivacional se estudió si conlleva alguna mejora incluir información del ECG multiderivacional en el modelo previamente validado. Dicho modelo incluye características calculadas de la serie de intervalos RR y descriptores morfológicos calculados en la transformada wavelet de cada derivación. Los experimentos se han realizado en la INCART, disponible en Physionet, mientras que la generalización se corroboró en otras bases de datos públicas y privadas. En todas las bases de datos se siguieron las recomendaciones de la AAMI para el etiquetado de clases y presentación de resultados. Se estudiaron varias estrategias para incorporar la información adicional presente en registros de 12 derivaciones. La mejor estrategia consistió en realizar el análisis de componentes principales a la transformada wavelet del ECG. El rendimiento obtenido con dicha estrategia fue: para latidos normales: S98%, P^{+}93%; para latidos supraventriculares, S86%, P^{+}91%; y para latidos ventriculares S90%, P^{+}90%. La capacidad de generalización de esta estrategia se comprobó tras evaluarla en otras bases de datos, con diferentes cantidades de derivaciones, obteniendo resultados comparables. En conclusión, se mejoró el rendimiento del clasificador de referencia tras incluir la información disponible en todas las derivaciones disponibles. La mejora del clasificador lineal por medio de un MLP se realizó siguiendo una metodología similar a la descrita más arriba. El rendimiento obtenido fue: A 89%; para latidos normales: S90%, P^{+}99% para latidos supraventriculares, S83%, P^{+}34%; para latidos ventriculares S87%, P^{+}76%. Finalmente estudiamos un algoritmo de clasificación basado en las metodologías descritas en los anteriores párrafos, pero con la capacidad de mejorar su rendimiento mediante la ayuda de un experto. Se presentó un algoritmo de clasificación de latidos en el ECG adaptable al paciente, basado en el clasificador automático previamente desarrollado y un algoritmo de clustering. Tanto el clasificador automático, como el algoritmo de clustering utilizan características calculadas de la serie de intervalos RR y descriptores de morfología calculados de la transformada wavelet. Integrando las decisiones de ambos clasificadores, este algoritmo puede desempeñarse automáticamente o con varios grados de asistencia. El algoritmo ha sido minuciosamente evaluado en varias bases de datos para facilitar la comparación. Aún en el modo completamente automático, el algoritmo mejora el rendimiento del clasificador automático original; y con menos de 2 latidos anotados manualmente (MAHB) por registro, el algoritmo obtuvo una mejora media para todas las bases de datos del 6.9% en A, de 6.5\%S y de 8.9\% en P^{+}. Con una asistencia de solo 12 MAHB por registro resultó en una mejora media de 13.1\%en A, de 13.9\% en S y de 36.1\% en P^{+}. En el modo asistido, el algoritmo obtuvo un rendimiento superior a otros representativos del estado del arte, con menor asistencia por parte del experto. Como conclusiones de la tesis, debemos enfatizar la etapa del diseño y análisis minucioso de las características a utilizar. Esta etapa está íntimamente ligada al conocimiento del problema a resolver. Por otro lado, la selección de un subset de características ha resultado muy ventajosa desde el punto de la eficiencia computacional y la capacidad de generalización del modelo obtenido. En último lugar, la utilización de un clasificador simple o de baja capacidad (por ejemplo funciones discriminantes lineales) asegurará que el modelo de características sea responsable en mayor parte del rendimiento global del sistema. Con respecto a los sets de datos para la realización de los experimentos, es fundamental contar con un elevado numero de sujetos. Es importante incidir en la importancia de contar con muchos sujetos, y no muchos registros de pocos sujetos, dada la gran variabilidad intersujeto observada. De esto se desprende la necesidad de evaluar la capacidad de generalización del sistema a sujetos no contemplados durante el entrenamiento o desarrollo. Por último resaltaremos la complejidad de comparar el rendimiento de clasificadores en problemas mal balanceados, es decir que las clases no se encuentras igualmente representadas. De las alternativas sugeridas en esta tesis probablemente la más recomendable sea la matriz de confusión, ya que brinda una visión completa del rendimiento del clasificador, a expensas de una alta redundancia. Finalmente, luego de realizar comparaciones justas con otros trabajos representativos del estado actual de la técnica, concluimos que los resultados presentados en esta tesis representan una mejora en el campo de la clasificación de latidos automática y adaptada al paciente, en la señal de ECG

    Zeharo: Servicios integrales de empleo para personas con discapacidad

    Get PDF
    El presente artículo describe en detalle el trabajo que en el ámbito de la integración laboral de personas con discapacidad realiza el Grupo Gureak a través de Zeharo y del Programa Aukera. Elaborado por el coordinador de la iniciativa, el artículo da cuenta en primer lugar del papel que Gureak desempeña como centro de recursos laborales para personas con discapacidad. Posteriormente, se explican los servicios que desde Zeharo se prestan tanto a los demandantes de empleo como a las empresas ordinarias en las que éstos se integran y describen las principales dificultades encontradas en el desarrollo de los servicios de mediación y acompañamiento. Finalmente, se proponen algunas medidas para favorecer el proceso de inserción en el medio ordinario y se enumeran los principales logros del proyecto, que ha posibilitado, según sus responsables, el acceso a numerosos ciudadanos guipuzcoanos con discapacidad a un conjunto amplio de itinerarios y alternativas específicas y ordinarias de inserción laboral

    EL SERVICIO DE LIMPIEZAS DE MADRID.

    Get PDF

    LA VIDA MUNICIPAL DEL MADRID FILIPINO.

    Get PDF

    EL GRAN MADRID EN VIAS DE CONSTITUCION.

    Get PDF

    EL MARQUES VIUDO DE PONTEJOS, CORREGIDOR EJEMPLAR DE MADRID.

    Get PDF

    LA GESTION ECONOMICA DEL CONCEJO MADRILEÑO.

    Get PDF

    Construcción de una almazara para la elaboración de aceite de oliva virgen en el municipio de Sena (Huesca)

    Get PDF
    El presente proyecto tiene como fin diseñar y justificar las infraestructuras e instalaciones necesarias para la elaboración de aceite de oliva virgen. La almazara tiene capacidad para molturar 400 toneladas anuales de aceituna, empleándose un sistema de extracción continuo de dos fases. La almazara ocupará una superficie de 720 m2. El objetivo del proyecto es diseñar y justificar las infraestructuras e instalaciones requeridas con los elementos necesarios para la manipulación y el procesado de la aceituna con el fin de obtener aceite de oliva virgen. Para ello es necesario cumplir con los siguientes objetivos específicos: -Diseño y cálculo de las construcciones necesarias. -Diseño y cálculo del equipamiento a instalar. -Diseño y cálculo de la instalación eléctrica necesaria. -Diseño y cálculo de las instalaciones de fontanería, saneamiento, así como de protección contra incendios necesarias. Se trata de un proyecto técnico que consta de las siguientes partes: 1. Memoria y Anejos. Aquí se incluirán entre otros apartados el objeto del proyecto, el emplazamiento, el diseño del proceso y el equipamiento. Por último, se añadirán los anejos a la memoria con la documentación necesaria. 2. Planos. Figurarán todos los planos necesarios, entre otros: de situación y emplazamiento, planos de distribución, fontanería y saneamiento de la instalación, cimentación, estructura, diagrama unifilar,... 3. Pliego de condiciones. Contemplará la normativa o legislación aplicable, una breve descripción de la obra a realizar, condiciones de materiales y equipos, condiciones a cumplir durante la ejecución de la obra, medición y abono de las obras y, por último, se describirán las responsabilidades y facultades de cada una de las partes (promotor, instalador, dirección de obra, …). 4. Presupuesto. Aquí se detallarán los precios unitarios, los descompuestos y los presupuestos parciales por capítulos (resumen del presupuesto). 5. Estudio de seguridad y salud. Se describirán las normas de seguridad y salud aplicables durante el desarrollo de la obra, la identificación de los riesgos laborables evitables y los que no pueden eliminarse, especificando en este último caso las medidas preventivas y protecciones técnicas a aplicar para reducir riesgos

    Proyecto de construcción de una planta de almacenamiento y envasado de cebolla en la localidad de Fuentes de Ebro.

    Get PDF
    El objeto del presente proyecto fue definir y diseñar todas las obras e instalaciones necesarias para poner en funcionamiento una central hortofrutícola destinada al almacenamiento y envasado de cebolla Fuentes de Ebro D.O.P.La planta de almacenamiento se localizó en la localidad de Fuentes de Ebro (Zaragoza), ya que este tipo de cebolla sólo se cultivan en la zona geográfica que abarca los municipios de Fuentes de Ebro, Mediana de Aragón, Osera de Ebro, Pina de Ebro, Quinto y Villafranca de Ebro.Se construyó una nave con unas dimensiones en planta de 96 x 40 m2 con cuatro cámaras de conservación y una zona de trabajo donde se ubicó la línea de manipulación.La construcción de la nave tuvo como principales estructuras cerchas metálicas con una altura de pilar de 8 metros y altura de coronación de 12,5 metros y zapatas de unas dimensiones de 2,50 x 2,0 x 0,8 metros calculadas a partir de los datos obtenidos del estudio geotécnico que se realizó en el terreno de emplazamiento de la nave. Se consideró una producción máxima anual de 2.000 toneladas, siendo la mayor parte de esta producción la cosecha recogida durante los meses de julio y agosto y mínima el resto del año. A partir del dato de máxima producción se dimensionaron las cámaras de conservación quedando 4 cámaras de 20 x 15 m.Las cebollas necesitan conservarse a una temperatura determinada según en el punto en el que están de su procesado, esto hace necesario la disminución y aumento de su temperatura superficial, por lo que se calcularon las necesidades frigoríficas y caloríficas siendo 408,0 kW, en las 4 cámaras de conservación para mantener una temperatura de 2 ºC, y 77,81 kW en una de las cámaras de conservación para mantener una temperatura de 15ºC. A partir de estas necesidades se seleccionaron los equipos más apropiados para conseguir la adecuada conservación de las cebollas. Como establecimiento industrial, la presente nave cuenta con su instalación contraincendios en la que se concluyó tras el oportuno proceso de estudio y análisis del riesgo que los elementos de protección a instalar eran: Sistema automático de detección de incendios, sistema de bocas de incendios, extintores, alumbrado de emergencia y señalización de las salidas de evacuación.La instalación de fontanería y saneamiento fue sencilla dado que no se requieren en el proceso productivo de equipos con altas necesidades de consumo de agua. Por un lado, la instalación de fontanería se dividió en la red de distribución de agua fría y en la red de distribución de agua caliente. Por otro lado, la instalación de saneamiento se dividió en la red de evacuación de aguas pluviales y la red de evacuación de aguas residuales. La instalación eléctrica se determinó a partir del software Ecodial ES V4.9 mediante el cual se dimensionó la instalación eléctrica necesaria para abastecer al conjunto de motores de la central, a la red de alumbrado y a las tomas de corriente y a partir del software DIALux evo para la selección de las luminarias más precisas según las necesidades de iluminación de las diferentes zonas de la planta.El coste total del proyecto asciende a unos 2.030.557,89 €. Tras la elaboración del presupuesto del proyecto de construcción se realizó un estudio económico en el que a partir de los parámetros VAN, TIR, y PayBack se determinó que la inversión era viable económicamente.<br /
    • …
    corecore