2 research outputs found

    Análisis de señales biomédicas para aplicación de terapias en la fibrilación ventricular cardiaca

    Get PDF
    La muerte súbita es una muerte natural, inesperada y rápida en un tiempo límite de 24 horas después del comienzo de un proceso patológico. Las causas más comunes de la muerte súbita son las enfermedades Cardiovasculares (ECV) que resultan estar entre las principales causas de muerte en todo el mundo. En 2012, la Organización Mundial de la Salud (OMS) registró 17,5 millones de muertes por ECV, que representan el 31 % de todas las muertes registradas en el mundo . Una de las enfermedades cardiovasculares con mayor mortalidad es la Fibrilación Ventricular (FV), que es una arritmia cardíaca producida por una actividad eléctrica desorganizada del corazón. Durante la FV, los ventrículos se contraen de forma asíncrona con ausencia de latido efectivo, fallando el bombeo sanguíneo, lo que produce la muerte súbita en el paciente, si no se trata de forma adecuada en un plazo de pocos minutos. Las desfibrilación es el único tratamiento definitivo posible de la FV, que consiste en la aplicación de un choque eléctrico de alta energía sobre el pecho del paciente, facilitando así el reinicio de la actividad eléctrica cardíaca normal. El éxito de la desfibrilación es inversamente proporcional al intervalo de tiempo desde el comienzo del episodio hasta la aplicación de la descarga. Aparecen muchas dificultades a la hora de diagnosticar la FV: por una parte están las características intrínsecas de la FV (falta de organización, irregularidad, etc.), y por otra, la gran similitud entre la FV y otras patologías cardíacas entre ellas la Taquicardia Ventricular (TV). La diferenciación entre la TV y la FV es bastante complicada: el diagnóstico de la TV como FV en un paciente puede ocasionarle graves lesiones a la hora de aplicarle la terapia correspondiente a FV (descarga eléctrica de alto voltaje), es más, puede causarle una FV. Por el contrario, si la FV se interpreta incorrectamente como TV, el resultado puede ser también peligroso para la vida. Por lo tanto, un método de detección eficaz para distinguir FV de TV tiene mucha importancia en la investigación clínica. Con el fin de diagnosticar y tratar las enfermedades cardiovasculares (FV por ejemplo), se establecen dos grandes grupos de métodos diagnósticos en cardiología: métodos diagnósticos invasivos y no invasivos. Las técnicas invasivas requieren introducir catéteres en el organismo, con el objetivo de medir presiones de las cavidades cardíacas, para registrar la actividad eléctrica. Las técnicas no invasivas están enfocadas a caracterizar el estado fisiopatológico del corazón a través de electrodos colocados directamente sobre la piel del paciente. El electrocardiograma (ECG) es un examen no invasivo, de bajo costo, que se ha utilizado como el método básico de diagnóstico de desórdenes cardíacos de conducción eléctrica, mediante el estudio de la frecuencia cardíaca y la morfología de diferentes ondas que constituyen el ciclo cardíaco. El análisis ECG constituye una buena fuente de información a partir de la cual se pueden detectar diferentes tipos de enfermedades cardíacas. Debido a que la señal de ECG es una señal aleatoria no estacionaria, el análisis en el dominio del tiempo no resulta ser suficientemente sensible a las distorsiones de las formas de la onda ECG. Sin embargo estos métodos no siempre presentan todas las informaciones que pueden ser extraídas de las señales ECG, con lo cual, se pierde la información sobre la frecuencia, la cual muestra una información más adicional de la señal. El diagnóstico en el dominio de la frecuencia utiliza métodos como la transformada de Fourier. Por lo tanto, el análisis en el dominio de la frecuencia permite determinar las frecuencias de la señal. Por otro lado, se pierde la información de tipo temporal de la señal, con lo cual es un método muy limitado y no es útil para el análisis de señales no estacionarias. Varios estudios han utilizado modelos matemáticos que combinan la información temporal y espectral en la misma representación. Esta técnica Representación Tiempo-Frecuencia (RTF) es muy importante en el tratamiento de las señales no estacionarias como la señal de ECG, ya que distribuye la energía de la señal en el espacio bidimensional tiempo-frecuencia. Además, múltiples factores alteran la adquisición y registro de la señal ECG: por un lado está la influencia del medio ambiente (la interferencia de red 50-60 Hz, la línea base, etc.), y por otro lado están las perturbaciones de origen fisiológico como los de la electromiografía (EMG). La reducción del ruido en el ECG ha sido uno de los principales campos de investigación en las últimas décadas, ya que una adecuada reducción permite realizar un buen pre-procesado de la señal, extrayendo de ésta la máxima cantidad de información posible y eliminando la no deseable. El uso de imágenes de representación de tiempo-frecuencia (t-f) como la entrada directa al clasificador es lo novedoso de esta tesis doctoral. Se plantea la hipótesis de que este método facilita mejorar los resultados de la clasificación ya que permite eliminar la extracción de características típicas, y su correspondiente pérdida de información, que además se utilizan para la evaluación y la comparación con otros autores. Materiales y Métodos: se ha utilizado las bases de datos estándar del MIT-BIH Malignant Ventricular Arrhytmia Data base y AHA (2000 series) para obtener los registros de las señales ECG, creando a partir de ellos un conjunto de entrenamiento y uno de prueba para los algoritmos de clasificación empleados. Un total de 24 registros de monitorización continua (22 registros de MIT-BIH más dos adicionales de la base de datos AHA) se ha empleado, con frecuencia de muestreo de 125 Hz. Como método se ha implementado un algoritmo de filtro, con el fin de reducir la línea base, se desarrolla un enventanado que indica el comienzo de la Ventana de tiempo (Vt) de la señal del ECG. A cada ventana obtenida se le aplicó la Transformada de Hilbert (TH), después se le aplicó la RTF como entrada a los cinco clasificadores: las Redes Neuronales Artificiales de clasificación (ANNC-Artificial Neural Networks Classification), máquina de vector de soporte de tipo Smooth (SSVM-Smooth Support Vector Machine), (BAGG-Bagging), regresión logística (L2_RLR-L_2-Regularized Logistic Regression) y K vecinos más cercanos (KNN-K Nearest Neighbors). Se realizó sus respectivos entrenamientos y pruebas individuales eligiendo el clasificador KNN por su mejor calidad de detección. La RTF fue convertida en Imagen de RTF (IRTF) e IRTF de dimensionalidad reducida mediante técnicas de reducción del tamaño de imágenes (Media de la Intensidad de los Píxeles (MIP), KNN, Bilineal, Bicúbica) y de la técnica de Selección de Características (SC) de tipo (SFS-Sequential Forward Selection). Se realizaron combinaciones de los algoritmos de clasificación al aplicarse sobre un mismo conjunto de datos (IRTF, IRTF reducida, SC), con el fin de comparar el comportamiento entre ellos y con los resultados logrados de los clasificadores individuales. Estas estrategias y metodologías utilizadas fueron comparadas con diferentes métodos citados en la bibliografía y así comprobar en qué medida los resultados obtenidos apoyan nuestra hipótesis. Resultados: usando parámetros de evaluación del rendimiento (sensibilidad, especificidad y exactitud) como metodología para validar los resultados que obtuvo cada una de las estrategias empleadas, se encontró que el clasificador KNN alcanza el mejor rendimiento para RTF. Se logró para ‘FV’ una sensibilidad del 94,97% y una especificidad global del 99,27%, exactitud global del 98,47 %, y para ‘TV’ una sensibilidad del 93,47%, especificidad global del 99,39%, exactitud global del 98,97% y un tiempo de ejecución 0,1763s. Los principales resultados de la clasificación para la detección de FV obtenidos usando la técnica IRTF reducida (MIP) como entrada al clasificador KNN, mostraron un 88,27% de sensibilidad, 98,22% de especificidad global y 96,35% de exactitud global. En el caso de ‘TV’ 88,31% de sensibilidad, 98,80% de especificidad global, 98,05% de exactitud global y un tiempo de ejecución 0,024s. Al realizar combinaciones de los clasificadores, se obtuvo que la combinación ANNC_KNN_ANNC al utilizar el Método de Jerárquica (MJ) dieron una sensibilidad del 92,14%, especificidad del 98,07% y 97,07% de exactitud global para ‘FV’, una sensibilidad del 89,03%, una especificidad del 80,78%, 98,08% de exactitud global para ‘TV’ y un tiempo de ejecución entre [0,0239s; 0,0241s]. Conclusiones: la clasificación realizada en la discriminación de FV y TV demostró cómo se comportan los distintos algoritmos de clasificación tanto individuales como combinados al aplicarse sobre un mismo conjunto de características. Los resultados obtenidos mediante el algoritmos de combinación ANNC_KNN_ANNC usando los datos de IRTF reducidas fueron mejores en la detección comparado con los obtenidos mediante los algoritmos utilizados individualmente y otros multiclasificadores aplicando sobre un mismo conjunto de datos de IRTF reducidas. Además al comparar los resultados de la combinación con los obtenidos mediante KNN empleando la RTF y IRTF no reducidas son ligeramente inferiores en combinación, pero en cambio se obtiene un tiempo de ejecución menor, por lo que es de mejor utilidad para sistemas de detección en tiempo real. Después de un largo análisis es posible concluir que la metodología propuesta brinda información útil para la detección de FV con un bajo tiempo de cómputo, la cual la puede separar satisfactoriamente del resto de patologías cardiacas a la hora de diagnosticar, mejorando significativamente las posibilidades del paciente de ser manejado eficazmente al presentar un episodio con alguna de estas arritmias, lo que convierte a este trabajo en una fuente de aporte clínico en la ayuda para el diagnóstico de arritmias.Sudden death is a natural, unexpected and rapid death that occurs within a time frame of 24 Hours after the beginning of the pathological process. The most common causes of sudden death are Cardiovascular Diseases (CVD) that happen to be among the leading causes of death worldwide. In 2012, the World Health Organization (WHO) recorded 17.5 million CVD deaths, accounting for 31% of all deaths recorded in the world. One of the cardiovascular diseases with the highest mortality is Ventricular Fibrillation (VF), which is a cardiac arrhythmia caused by a disorganized electrical activity in the heart. During VF, the ventricles contract asynchronously causing an absence of an effective beat as well as a failure of blood pumping. This could result in a sudden death of the patient, if not treated properly within a few minutes. Defibrillation is the only definitive treatment of VF. It consists of the application of a high-energy electric shock to the patient's chest, thus restarting the normal cardiac electrical activity. The success of defibrillation is Inversely proportional to the interval of time it takes from the beginning of the episode to the application of the electrical charge. There are many difficulties in diagnosing VF: on the one hand there are some Intrinsic characteristics of the VF (lack of organization, irregularity, etc.), and on the other, there is a great similarity between VF and other cardiac pathologies including Ventricular Tachycardia (VT). The differentiation between VT and VF is quite complex. A wrongful diagnosis of VT instead of VF can cause serious injuries when applying the therapy to the patient. VT treatment consist of giving a high voltage electric shock to the patient, which could cause a VF. Conversely, if the VT is incorrectly interpreted as a VF, the result might be also dangerous for the patient´s life. Therefore, an effective detection method to distinguish VF from VT is very important in clinical research. In order to diagnose and treat cardiovascular diseases (for example VF), two major groups of diagnostic methods are established in cardiology: Invasive and noninvasive diagnoses. Invasive techniques require the introduction of catheters into the body, to measure the pressures in the cardiac chambers in order to record the electrical activity. Non-invasive techniques are focused on characterizing the pathophysiological state of the heart through electrodes placed directly on the patient's skin. The electrocardiogram (ECG) is a non invasive, low cost, examination which has been used as the basic diagnostic method for cardiac conduction disorders, by studying the frequency and the morphology of different waves that constitute the cardiac cycle. The ECG analysis is a good source of information to detect different types of heart disease. Due to the fact that the ECG signal is a non-stationary random signal, the time domain analysis does not prove to be sufficiently sensitive to the distortions of the waveforms on the ECG. However, these methods not always show all the information that can be extracted from ECG signals. Thereby, the frequency information, which shows additional data from the signal, is lost. Diagnosis within the frequency domain uses methods such as the fourier transform.Therefore, an analysis in the frequency domain allows to determine the frequencies within the ECG signal. On the other hand, using a frequency domain method losses the time information from the signal, resulting in a very limited method which is not useful for the analysis of non-stationary signals. Several studies have used mathematical models that combine time and spectral information in the same representation. This is Time-Frequency Representation (TFR) technique, very important in the treatment of non-stationary signals such as the ECG signal, as it distributes signal energy in a two-dimensional time-frequency space. In addition, multiple factors affect the acquisition and recording of the ECG signal: on the one hand there is the influence of the environment (50-60 Hz interference from the electrical grid, baseline, etc.), and on the other hand, physiological disturbances such as an electromyography (EMG). In the last decades, ECG noise reduction has been one of the main fields of research, since an adequate reduction of noise allows a good pre-processing of the signal, extracting from it the maximum amount of relevant information while eliminating the irrelevant one. The use of time-frequency representation images (t-f) as the direct input to the classifier is the novelty of this doctoral thesis. It is hypothesized that this method makes it easier to improve the classification results by eliminating the extraction of typical characteristics, and their corresponding loss of information. They are also used for evaluation and comparison with other authors. Materials and Methods: MIT-BIH´s Malignant Ventricular Arrhytmia and AHA (2000 series) standard data bases have been used to obtain the records of ECG signals, creating from them one set for training and one for testing the classification algorithms used. A total of 24 monitoring records (22 MIT-BIH records plus two additional from the AHA data) have been used, with a sampling frequency of 125 Hz. As part of the method a filter algorithm has been implemented in order to reduce the base line. A report that indicates the beginning of the time Window (tW) of the ECG signal is developed. First, the Hilbert Transform (HT) was applied to each window obtained. Then the RTF was applied as input to the five classifiers: Artificial Neural Networks Classification (ANNC), Smooth-type support vector machine (SSVM), bagging (BAGG), \u1d43f2Regularized Logistic Regression (L2_RLR) and K Nearest Neighbors (KNN).Their respective training and individual tests were made by choosing the KNN classifier for best quality detection. The RTF was converted into an IRTF and a reduced dimensionality IRTF by means of image size reduction techniques (Average Intensity of the Pixels (AIP), KNN, Bilineal, Bicubic) and the techniques of Selection of Characteristics (SC), specifically the Sequential Forward Selection technique (SFS). Combinations of the classification algorithms were performed when applied over the same set of data (TFRI, reduced TFRI, SC), in order to compare their behavior with the results obtained from the individual classifiers. These strategies and methodologies were compared with different methods cited in the literature to verify to what extent the results obtained support our hypothesis. Results: using performance evaluation parameters (sensitivity, specificity and accuracy) as a methodology to validate the results obtained by each one of the strategies employed, it was found that the KNN classifier achieves the best performance for TFR. For 'VF' it was obtained a sensitivity of 94.97% an overall specificity of 99.21%, and an overall accuracy of 98.47%. Whereas for 'VT, it was obtained a Sensitivity of 93.47%, an overall specificity of 99.39%, and an overall accuracy of 98.97% within a time of execution 0,1763s. The main results of the classification for the detection of VF obtained using the reduced TFRI technique (AIP) as input to the KNN classifier, showed an 88.27% of sensitivity, a 98.22% of overall specificity and a 96.35% of overall accuracy. For ´VT', it was obtained an 88.31% sensitivity, a 98.80% for global specificity, and a 98.05% of global accuracy within a runtime of 0.024s. When the classifiers were combined, it resulted that the ANNC_KNN_ANNC combination when using the Hierarchical Method (MJ) gave a sensitivity of 92.6%, a specificity of 98.68% and an overall accuracy of 97.52% for 'VF'. Whereas a Sensitivity of 89.3%, a specificity of 99.01%, and a 98.32% of overall accuracy for 'VT 'were obtained with a runtime between [0,0487s; 0,0492s]. Conclusions: the classification of VF and VT discrimination showed how the different classification algorithms (both individual and combined) behave over the same set of characteristics. The results obtained by the ANNC_KNN_ANNC combination of algorithms using the reduced TFRI data were better at detection when compared to those obtained by the algorithms used individually as well as to other multi classifiers applied over a single set of reduced TFRI data. In addition, when comparing the results of the combination with those obtained by the KNN using the non-reduced TFR and the TFRI, the latter are slightly lower. On the other hand, a shorter execution time is obtained, so the method is more useful for Real-time detection systems. After a long analysis it is possible to conclude that the proposed methodology provides useful information for the detection of VF with a low computation time. Furthermore it can separate satisfactorily the VF from the rest of cardiac pathologies at the time of diagnosis, significantly improving the patient's ability to be effectively treated when presenting an episode with one of these arrhythmias. Thus making this work a source of clinical help in the diagnosis of arrhythmias

    Representaciones tiempo-frecuencia para el análisis de sonidos torácicos

    Get PDF
    La importancia del estudio de los sonidos generados en el tórax ha sido tal que, hace un par de siglos, Laennec mismo clasificó los eventos acústicos generados por la ventilación de los pulmones que escuchaba e intentó relacionarlos con los hallazgos anatómicos y patológicos que encontraba tras la autopsia. Aún en nuestros días, el médico usualmente describe estas señales acústicas mediante adjetivos relacionados con sonidos que le resulten cotidianos. Así, sólo la experiencia y el acuerdo mutuo han permitido cierto grado de uniformidad en la descripción de estos sonidos. Las enfermedades del sistema cardiovascular y del sistema respiratorio han incrementado su incidencia alrededor del mundo, a tal punto que actualmente éstas se encuentran entre las 10 principales causas de morbi-mortalidad a nivel mundial. Es por ello que la auscultación del tórax con el estetoscopio constituye una técnica de aplicación sencilla desde el primer contacto con el paciente, no invasiva y de bajo costo, que posibilita la detección oportuna de algunos padecimientos cardio-respiratorios. Más aún, el campo de estudio de los sonidos cardiacos y de los sonidos respiratorios ha sido favorecido por el rápido crecimiento tecnológico y de procesamiento digital de señales, a tal grado que muchas de las limitaciones presentes en la auscultación torácica mediante el estetoscopio han sido superadas con la ayuda de métodos computarizados para la adquisición, procesamiento, análisis y visualización de los sonidos torácicos, entendidos como todas aquellas variaciones de presión acústicas que caen dentro del espectro audible y que se relacionan con eventos mecánicos fundamentales tales como la contracción cardiaca, el flujo sanguíneo, la mecánica respiratoria y el flujo en vías aéreas. Estos eventos funcionales generan sonidos que por la parte cardiovascular incluyen a los sonidos cardiacos (S1-S4), los murmullos y los soplos; en tanto que por la parte respiratoria corresponden a los sonidos ventilatorios normales, los sonidos adventicios y los sonidos producidos por los músculos respiratorios. La complejidad de las estructuras biológicas de la cavidad torácica se ve reflejada en la complejidad de los sonidos que estas emiten. Estos sonidos, entre los que se cuentan los respiratorios y los cardiacos, son no estacionarios, lo que nos indica que poseen diversas estructuras e información cambiantes en el tiempo. Esta característica ha complicado la determinación de los mecanismos que dan génesis a algunos de ellos, aunque se han realizado desarrollos importantes, tanto en la fonocardiografía como en la fononeumografía, gracias a la creciente aplicación de técnicas de procesamiento digital de señales, tales como el análisis espectral, el reconocimiento de patrones y el análisis tiempo-frecuencia. La principal motivación del análisis tiempo-frecuencia radica en que los espectros variantes en el tiempo existen en la naturaleza y por lo tanto debe entenderse su descripción y sus propiedades. La necesidad del análisis tiempo-frecuencia tiene sus semillas en el análisis clásico de las señales en los dominios temporal y espectral, y en particular en la comprensión de que el análisis aislado en estos dominios no es suficiente para describir completamente la naturaleza de estas señales, y que para ello se requiere obtener una distribución que represente la energía o la intensidad de la señal simultáneamente en el tiempo y en la frecuencia. En otras palabras se requiere una técnica de procesamiento capaz de tomar la información unidimensional de la señal y proporcionar simultáneamente el contenido en frecuencia, duración e intensidad de cada uno de sus componentes bien delimitados en una región del plano tiempo-frecuencia. En el campo de los sonidos respiratorios el análisis tiempo-frecuencia ha sido una herramienta valiosa, y se han realizado diversos esfuerzos por encontrar una representación tiempo-frecuencia adecuada para analizarlos, e incluso para propósitos de reconocimiento automático de patrones. Desafortunadamente, en el campo de los sonidos respiratorios la herramienta clásica de análisis tiempo-frecuencia continúa siendo el espectrograma, cuya principal desventaja es su inherente compromiso entre su resolución temporal y su resolución espectral, el cual puede derivar en resultados pobres en registros de corta duración. Y a pesar de algunos esfuerzos por aplicar otras técnicas de representación tiempo-frecuencia para analizar los sonidos respiratorios, aún no se ha realizado una comparación cuantitativa entre la técnica clásica y otras de más reciente desarrollo. Así, el principal objetivo de esta tesis es realizar una comparación cuantitativa de diversas representaciones tiempo-frecuencia para el análisis de sonidos respiratorios, objetivo motivado por los prometedores resultados obtenidos en el campo de los sonidos cardiacos. Las representaciones tiempo-frecuencia empleadas en esta tesis provienen de una gran variedad de técnicas de estimación, técnicas que podrían clasificarse de la forma siguiente: a) a) la clase general de distribuciones bilineales invariantes a corrimientos (el espectrograma, la distribución Wigner-Ville, y la distribución Choi-Williams), b) método de la reasignación (espectrograma reasignado), c) modelado autorregresivo variante en el tiempo (algoritmo de Burg, algoritmo de mínimos cuadrados recursivo, algoritmo de mínimos cuadrados recursivo con factor de olvido variable, y el filtro de Kalman), d) la clase afín de distribuciones (el escalograma), y e) descomposición de la señal en funciones base (el espectro de HilbertHuang). En general, el cómputo de una representación tiempo-frecuencia mediante cada técnica depende de diferentes parámetros tales como el tipo y longitud de la ventana, o el orden del modelo. Como consecuencia, el desempeño de cada técnica tiempo-frecuencia dependerá de la adecuada selección de dichos parámetros. Así, tanto para la selección de parámetros como para la comparación de las diversas representaciones tiempo-frecuencia se emplearon señales de sonidos simulados, dado que su representación tiempo-frecuencia ideal se conoce de antemano, permitiendo la obtención de medidas de desempeño. Posteriormente, la técnica de análisis tiempo-frecuencia resultante fue aplicada a señales de sonidos torácicos reales adquiridos. Las señales de sonido torácicos consideradas en esta tesis incluyen a los dos primeros sonidos cardiacos (S1 y S2), sonidos respiratorios adventicios discontinuos (estertores crepitantes) y discontinuos (estertores sibilantes), así como sonidos pulmonares y traqueales normales. Las representaciones tiempo-frecuencia ideales ofrecen una referencia contra la cual comparar el desempeño de los diversos métodos tiempo-frecuencia; sin embargo, para algunas señales no se contó con dicha referencia, por lo que el conocimiento obtenido de las señales previas resultó valioso. Los índices empleados para evaluar el desempeño de las representaciones son: la correlación bidimensional central, aplicada de forma local (rpromedio) y global (r), el error cuadrático medio normalizado (NRMSE) y la correlación (rFI) de la frecuencia instantánea estimada mediante el primer momento en el tiempo del centroide de la representación, y la resolución tiempo-frecuencia (resTF). Previo a la selección de las representaciones tiempo-frecuencia, cada una de estas fue adecuada tanto en dimensiones como en valores de intensidad, y su contenido visualizado adecuadamente mediante el diseño de una paleta de colores. Las señales de sonidos respiratorios normales y adventicios se obtuvieron de dos bases de datos conformadas por los laboratorios de Fisiología Humana e Investigación en Procesamiento de Señales e Imágenes Biomédicas (LIPSIB) de la Universidad Autónoma Metropolitana Unidad Iztapalapa (UAM-I). La primera de ellas conformada por registros de pacientes con neumopatías intersticiales difusas (NID) y cuya adquisición se realizó en el Instituto Nacional de Enfermedades Respiratorias (INER); y la segunda conformada por registros de sujetos sanos y no fumadores adquirida en una cámara subamortiguada en la UAM-I. Además, se adquirieron registros cardíacos de un sujeto sano sin antecedentes de cardiopatías en el INER. Ejemplos de los resultados obtenidos se presentan a continuación. Para el primer sonido cardiaco simulado: espectrograma reasignado (r=0.6545, rpromedio=0.7750, resTF=0.0002), espectro de Hilbert-Huang (r=0.5321, rpromedio=0.7668, resTF=5.75x10-7), y espectrograma clásico (r=0.4303, rpromedio=0.7450, resTF=0.0037). Para el segundo cardiaco simulado: espectro de Hilbert-Huang (r=0.6226, rpromedio=0.7258, NRMSE=0.1225, rFI=0.9925, resTF=8.39x10-7), espectrograma reasignado (r=0.6825, rpromedio=0.6914, NRMSE=0.1771, rFI=0.9842, resTF=2.11x10-5), y espectrograma clásico (r=0.4743, rpromedio=0.6239, NRMSE=0.1742, rFI=0.9851, resTF=0.0074). Para la sibilancia simulada: espectro de Hilbert-Huang (r=0.9247, rpromedio=0.9521, NRMSE=0.0601, rFI=0.9982, resTF=2.47x10-6), espectrograma reasignado (r=0.8821, rpromedio=0.9163, NRMSE=0.1400, rFI=0.9903, resTF=5.83x10-5), y espectrograma clásico (r=0.5300, rpromedio=0.8851, NRMSE=0.0074, rFI=1, resTF=0.0029). Además de estos valores cuantitativos, los resultados de esta tesis corroboraron algunas propiedades y características de las técnicas tiempo-frecuencia empleadas, y mostraron además las dificultades que sufre cada una de ellas para la estimación del espectro variante en el tiempo. De acuerdo a los índices de desempeño empleados, para diferentes señales resultaron diferentes representaciones tiempo-frecuencia como las más adecuadas, y además cada índice de desempeño señaló diferentes representaciones tiempo-frecuencia para una misma señal. Es decir, debido a las diferentes estructuras de las señales torácicas analizadas se encontró que diferentes representaciones tiempo-frecuencia resultaban más adecuadas para cada una señal particular, aunque en general destacan el Espectro de HilbertHuang, el espectrograma reasignado y la representación paramétrica obtenida por el método de Burg. Sin embargo, el espectro de Hilbert-Huang resulta, debido a las características de su método de descomposición, y al margen de sus limitantes, la técnica de análisis tiempofrecuencia más adecuada y prometedora para el análisis de los sonidos respiratorios normales y adventicios de entre aquellas comparadas en este estudio
    corecore