5,827 research outputs found

    Monitoring environmental catastrophe area through change detection techniques

    Get PDF
    The use of satellite images has been very effective for monitoring the dynamics of the land use and occupation over time. For this purpose , the change detection techniques have been strong allies. These techniques have multiple complexities depending on the objective to be achieved. This study aims to evaluate the technique for land use and land cover changing detection in areas affected by the environmental disaster of November 2008 in the region of Morro do Baú, Santa Catarina, Brazil. A total of 04 (four) images from different dates between 1992 and 2009 (post-disaster) were used. The images were processed in vegetation index using bands 7 and 4 in order to minimize atmospheric and radiometric distortions. Shadow mask, construted from the digital terrain model, was developed to avoid false changes caused by shade. It was concluded that the georeferencing must be very accurate in applying these techniques. The vegetation index by using bands 7 and 4and the shadow mask, were effective in minimizing false changes. It showed that the techniques applied are effective to detect changes in areas affected by the disaster

    Classificação de episódios de fibrilação atrial por análise do ECG com redes neuronais artificiais MLP e LSTM

    Get PDF
    Mestrado de dupla diplomação com a UTFPR - Universidade Tecnológica Federal do ParanáA fibrilação atrial (AF) é uma doença cardíaca que afeta aproximadamente 1% da população mundial, sendo a anomalia cardíaca mais comum. Apesar de não ser uma causa direta de morte, frequentemente está associada ou gera outros problemas que ameaçam a vida humana, como o derrame e a doença da artéria coronária. As principais características da AF são: a alta variação do ritmo cardíaco, o enfraquecimento ou desaparecimento da contração atrial e a ocorrência de irregularidades nas atividades dos ventrículos. O diagnóstico da AF é realizado por um médico especialista, principalmente através da inspeção visual de gravações de eletrocardiograma (ECG) de longo termo. Tais gravações podem chegar a várias horas, e são necessárias pois a AF pode ocorrer a qualquer momento do dia. Dessa forma surgem os problemas quanto ao grande volume de dados e as dependências de longo termo. Além disso, as particularidades e as variabilidades dos padrões de deformação de cada sujeito fazem com que o problema esteja também relacionado com a experiência do cardiologista. Assim, a proposta de um sistema computacional de auxílio ao diagnóstico médico baseado em inteligência artificial se torna muito interessante, uma vez que não sofre com a fadiga e é fortemente indicado para lidar com dados em grande quantidade e com alta variabilidade. Portanto, neste trabalho foi proposta a exploração de modelos de aprendizagem de máquina para análise e classificação de sinais ECG de longo termo, para auxiliar no diagnóstico da AF. Os modelos foram baseados em redes neuronais artificiais do tipo Multi-Layer Perceptron (MLP) e Long Short-Term Memory (LSTM). Utilizam-se os sinais da base de dados MIT-BIH Atrial Fibrillation, sem remoção de ruído, tendências ou artefatos, numa etapa de extração de características temporais, morfológicas, estatísticas e em tempo-frequência sobre segmentos de contexto variável (duração em segundos ou contagem de intervalos entre picos R). As características do sinal ECG utilizadas, foram: duração dos intervalos R-R (RRi) consecutivos, perturbação Jitter, perturbação Shimmer, entropias de Shannon e energia logarítmica, frequências instantâneas, entropia espectral e transformada Scattering. Sobre estes atributos foram aplicadas diferentes estratégias de normalização por Z-score e valor máximo absoluto, de forma a normalizar os indicadores de acordo com o contexto do sujeito ou local do segmento. Após a exploração de várias combinações destas características e dos parâmetros das redes MLP, obteve-se uma acurácia de classificação para a metodologia 10-fold cross-validation de 80,67%. Entretanto, notou-se que as marcações do pico das ondas R advindas da base de dados eram imprecisas. Dessa forma, desenvolveu-se um algoritmo de detecção do pico das ondas R baseado na combinação entre a derivada do sinal, a energia de Shannon e a transformada de Hilbert, resultado em uma acurácia de marcação dos picos R de 98,95%. A partir das novas marcações, determinou-se todas as características e em seguida foram exploradas diversas estruturas de redes neuronais MLP e LSTM, sendo que os melhores resultados em acurácia/exatidão para estas arquiteturas foram, respectivamente, 91,96% e 98,17%. Em todos os testes, a MLP demonstrou melhora de desempenho à medida que mais características foram sendo agregadas nos conjuntos de dados. A LSTM por outro lado, obteve os melhores resultados quando foram combinados 60 RRi e as respectivas entropias das ondas P, T e U.Atrial fibrillation (AF) is a heart disease that affects approximately 1% of the world population, being the most common cardiac anomaly. Although it is not a direct cause of death, it is often associated with or generates other problems that threaten human life, such as stroke and coronary artery disease. The main characteristics of AF are the high variation in heart rate, the weakening or disappearance of atrial contraction and the occurrence of irregularities in the activities of the ventricles. The diagnosis of AF is performed by a specialist doctor, mainly through visual inspection of long-term electrocardiogram (ECG) recordings. Such recordings can take several hours and are necessary because AF can occur at any time of the day. Thus, problems arise regarding the large amount of data and long-term dependencies. In addition, the particularities and variability of the deformation patterns of each subject make the problem also related to the cardiologist's experience. Thus, the proposal for a computational system to aid medical diagnosis based on artificial intelligence becomes very interesting, since it does not suffer from fatigue and is strongly indicated to deal with data in large quantities and with high variability. Therefore, in this work it was proposed to explore machine learning models for the analysis and classification of long-term ECG signals, to assist in the diagnosis of AF. The models were based on artificial neural networks Multi-Layer Perceptron (MLP) and Long Short-Term Memory (LSTM). The signals from the MIT-BIH Atrial Fibrillation database are used, without removing noise, trends or artifacts, in a stage of extracting temporal, morphological, statistical and time-frequency features over segments of variable context (duration in seconds or counting intervals between peaks R). The features of the ECG signal used were: duration of consecutive R-R (RRi) intervals, Jitter disturbance, Shimmer disturbance, Shannon entropies and logarithmic energy, instantaneous frequencies, spectral entropy and Scattering transform. On these attributes, different normalization strategies were applied by Z-score and absolute maximum value, to normalize the indicators according to the context of the subject or location of the segment. After exploring various combinations of these features and the parameters of the MLP networks, the accuracy of classification for the 10-fold cross-validation methodology was 80.67%. However, it was noted that the annotations of the peak of R waves from the database were inaccurate. Thus, an algorithm for detecting the peak of R waves was developed based on the combination of the derivative of the signal, the Shannon energy, and the Hilbert transform, resulting in an accuracy of marking the R peaks of 98.95%. From the new markings, all features were determined and then several structures of neural networks MLP and LSTM were explored, and the best results in accuracy for these architectures were, respectively, 91.96% and 98.17%. In all tests, MLP showed improvement in performance as more features were added to the data sets. LSTM, on the other hand, obtained the best result when 60 RRi and the respective entropies of the P, T and U waves were combined

    SEGBEE: Mobile Application for Honey Segmentation in Apiary Boards

    Get PDF
    Beekeeping is one of the most important activities for humans. Since ancient times, honey has been used in the treatment of several diseases and is an extremely powerful antioxidant. The process of visual analysis of the apiary requires trained specialists who try to obtain relevant information to make a decision about what to do with the honeycomb. Since the process is performed manually, given the complexity of the task, opportunities arise for the application of automated systems that can assist the beekeeper's decision making. Thus, this paper presents the development of the application \textit{SegBee}, a computational tool that performs the segmentation in the apiary plates, where there is the presence of honey, in an accessible, fast and practical way. To do this, the OpenCV library was used for the digital image processing part, and the Kivy library was used to develop the interface of the mobile application. The tests performed showed that the images were adequately segmented by \textit{SegBee}, indicating where the honey is located on each analyzed plate. A visual comparison was made between results obtained by \textit{SegBee} and another commercial application, demonstrating the effectiveness of the developed tool. The proposed solution contributes to the improvement of the beekeeping professionals' work, once the application is simple to use and fast to process, being able to help in the honey identification task in apiaries plates

    Sistema para análise de imagens de imuno-histoquímica para tecidos de carcinomas mamários utilizando técnicas de visão computacional e reconhecimento de padrões

    Get PDF
    TCC(graduação) - Universidade Federal de Santa Catarina. Campus Araranguá. Engenharia da Computação.A doença com maior incidência em mulheres no mundo e sua principal causa de óbito é o câncer de mama. As chances de sobrevivência podem ser aumentadas com o diagnóstico precoce, obtido através da análise de imagens do tecido canceroso por um profissional da área de patologia. Embora existam sistemas computacionais que atuem no auxílio ao diagnóstico, muitas vezes o esforço manual é preferível para detecção e contagem celular na amostra a fim de se obter métricas quantificáveis da expressão da doença no tecido. Nesse contexto, o trabalho em questão apresenta a modelagem de um sistema computacional, cujo objetivo é a detecção e contagem automatizada de células em amostras de câncer mamário, pigmentados por imuno-histoquímica utilizando técnicas de visão computacional e reconhecimento de padrões. Além do uso de métodos computacionais já difundidos, criou-se aqui um método iterativo para segmentação de núcleos celulares sobrepostos. Resultados preliminares demonstraram 94.66% de precisão do algoritmo na detecção nuclear.The disease with the highest worldwide incidence in women and their main cause of death is breast cancer. The chances of survival can be increased with early diagnosis, obtained through the analysis of images of cancerous tissue by a professional in the field of pathology. Although computational systems exist that can assist in the diagnosis, manual effort is often preferable for detecting and counting cells in the sample in order to obtain quantifiable metrics of the expression of the disease in the tissue. In this context, the work in question presents the modeling of a computer system whose objective is the detection and automated counting of cells in breast cancer samples, pigmented by immunohistochemistry using computer vision and pattern recognition techniques. In addition to the use of already-widespread computational methods, an iterative method was created here for the segmentation of overlapping cell nuclei. Preliminary results have demonstrated a 94, 66% accuracy of the algorithm in nuclear detection

    Detector híbrido de anomalias para agricultura inteligente

    Get PDF
    Orientador: Luiz Carlos Pessoa AlbiniCoorientador: Eduardo SilvaTese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa : Curitiba, 22/09/2022Inclui referênciasÁrea de concentração: Ciência da ComputaçãoResumo: As mudancas climaticas, a crise da agua e o crescimento populacional acrescentam novos desafios para a producao de alimentos. O aumento das taxas de producao e a preservacao de recursos naturais dependem da modernizacao dos metodos agricolas. A agricultura inteligente fornece recursos capazes de melhorar a atividade agricola por meio do controle eficiente de atuadores, otimizando o consumo de recursos e o gerenciamento da producao, otimizando seus resultados. Para que estas tecnologias se tornem populares, elas devem ter um alto nivel de confiabilidade e seguranca, o que nao e observado nos sistemas desenvolvidos ate o momento. Para melhorar a confiabilidade na Agricultura Inteligente, este documento propoe o CEIFA, um detector de anomalias hibrido de baixo custo capaz de identificar falhas, erros e ataques que afetam estes sistemas. Diferentemente dos detectores ja desenvolvidos, que tem seu escopo limitado a deteccao de intrusoes, o sistema proposto tem como alvo anomalias decorrentes de falhas e erros que acometem os dispositivos de coletas de dados e os ataques dentro do escopo do ciberagroterrorismo, podendo detectar outros ataques que causem alteracoes nos dados. O CEIFA utiliza uma arquitetura hibrida, combinando operacao na borda e na nuvem. Sua arquitetura modular permite que o sistema seja ajustado as necessidades e contextos do sistema agricola, que pode utilizar dispositivos com recursos computacionais limitados, servidores locais ou na nuvem. A deteccao e feita analisando os dados enviados pelos sensores do sistema agricola. A identificacao de anomalias e feita por meio de analise estatistica, correlacao de dados e aprendizagem de maquina. A analise estatistica incorpora avaliacao de tendencias e dispersao de dados, em um modelo matematico capaz de identificar falhas e erros de forma eficiente e com baixo custo computacional. Para maximizar a precisao e possibilitar a deteccao de intrusoes, foram incluidas a correlacao de dados e aprendizagem de maquina. A construcao do sistema utilizou como base uma rede composta por cinco transdutores, equipados com sensores que coletaram dados climaticos e ambientais. Os transdutores foram instalados em ambiente agricola em campo aberto, expostos aos eventos climaticos e ambientais, bem como acao de animais e humanos. Os sensores foram alvos de falhas e erros que permitiram mapear os padroes de dados. Ao final da coleta de dados, nao havia dispositivos integros em quantidade suficiente para serem utilizados nas fases seguintes. Para validar o sistema, foi utilizado um prototipo, composto por 19 sensores virtuais, um dispositivo de borda e um servidor na nuvem. Os resultados mostram que o detector utiliza pouca memoria, apresenta baixos niveis de processamento e ocupa pouco espaco em disco. Na borda os dados demoraram 355ms para serem processados, utilizando 111MB de memoria (considerando todas as operacoes de leitura e escrita) e 262KB de espaco em disco. Na nuvem, os mesmos dados sao processados em 4ms, consumindo 120MB de memoria e ocupando 2MB de espaco em disco. Quanto a acuracia, o detector superou 95% de acertos na deteccao de anomalias. A borda identificou 80% das anomalias alvo e a nuvem 93%. O CEIFA e, portanto, um detector de anomalias eficiente e de baixo custo, capaz de economizar recursos com alta eficiencia e latencia reduzida.Abstract: Climate change, the water crisis, and population growth include new challenges for food production. Increasing production rates while preserving natural resources requires the modernization of farming methods. Smart agriculture allows creating resources capable of improving agricultural activity. It permits the efficient control of actuators, optimizing resource consumption and production management, maximizing profit, and minimizing costs. For these technologies to become popular, they must have a high level of reliability and security, something lacking in the systems developed so far. This paper proposes CEIFA, a low-cost hybrid anomaly detector capable of identifying faults, errors, and attacks that affect these systems aiming to improve reliability in Smart Farming. Unlike existing anomaly detectors, which set out to detect intrusions, the CEIFA seeks to identify random failures, occurrences of saturation, degradation, damage, noise, and false data injection. It uses a hybrid architecture, combining operations at the edge and on the cloud. Its modular architecture permits adjusting the system to the needs and context of the farming system, which can use devices with limited computing resources, local servers, or the cloud. CEIFA performs detection by analyzing the data sent by the farming system’s sensors. It integrates data analysis, trend analysis, and data scattering with machine learning to identify anomalies. The modeling of the data generated by agricultural systems allowed creating a model capable of recognizing some anomalies. By joining the mathematical model, machine learning, and data analysis, it was possible to maximize the precision of the detector. The system design uses a network comprising five transducers with sensors for climatic and environmental parameters. The transducers were installed in an open field agricultural environment and exposed to climatic and weather events, animal and human action. The sensors were subject to fails, faults and errors that allowed mapping the behavior of the actual data. After data collection, there were insufficient operational devices to continue using the system. Validation used a prototype comprising 19 virtual sensors, an edge device, and a virtual server in the cloud. The results show lower memory, processing, and disk space consumption. The edge processes data in 355ms (CPU time), using 400KB of memory, 262KB of disk space. In the cloud, processing usage 4ms of CPU time, 6MB of memory, and 2MB of disk space. With these capabilities, the edge can identify 80% of the target anomalies and the cloud 93%, which gives the detector efficiency of over 95% in anomaly detection. CEIFA is an efficient, low-cost anomaly detector capable of saving resources with high efficiency and reduced latency

    Abordagens livres de segmentação para reconhecimento automático de cadeias numéricas manuscritas utilizando aprendizado profundo

    Get PDF
    Orientador: Prof Dr. Luiz Eduardo Soares de OliveiraCoorientador: Prof. Dr. Robert SabourinTese (doutorado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Tecnologia. Defesa : Curitiba, 12/03/2019Inclui referências: p.83-90Resumo: Nas ultimas decadas, o reconhecimento de cadeias numericas manuscritas tem sido abordado de maneira similar por varios autores, no que se refere ao tratamento de digitos conectados. A necessidade de segmentar esses componentes e um consenso. Dessa forma, as propostas se concentram em determinar os pontos de segmentacao aplicando heuristicas sobre caracteristicas extraidas do objeto, plano de fundo, contorno, entre outras. No entanto, a producao de digitos fragmentados, ocasionando a sobre-segmentacao da cadeia, e um problema comum entre essas abordagem. Assim, as metologias sao categorizadas pela forma como manipulam os componentes resultantes desse processo: (a) Naquelas que produzem apenas uma segmentacao possivel, ou (b) naquelas que definem um conjunto de hipoteses de segmentacao, alem de um metodo de fusao para determinar a hipotese mais provavel. Apesar da segunda categoria apresentar taxas de reconhecimento mais elevadas, o custo computacional torna-se um aspecto desfavoravel, devido as recorrentes consultas ao classificador pelas inumeras hipoteses produzidas. Alem disso, a variabilidade dos tipos de conexao entre os digitos e a falta de contexto, como a informacao sobre a quantidade de digitos, denotam a limitacao de abordagens baseadas em processos heuristicos. Visando evitar estes problemas, evidenciamos ser possivel superar os metodos tradicionais implementando modelos baseados em aprendizado profundo para classificar digitos conectados diretamente, reduzindo a etapa de segmentacao a um processo de deteccao de componente conexo. Alem disso, aproveitando os avancos na area de deteccao de objetos, apresentamos uma nova abordagem para o problema, na qual, digitos passam a ser compreendidos como objetos em uma imagem e neste cenario, uma sequencia de digitos e uma sequencia de objetos. Para validar nossas hipoteses, experimentos realizados em bases de conhecimento geral avaliaram nossas propostas com os trabalhos presentes na literatura em termos de reconhecimento, correta segmentacao e custo computacional. Os resultados atingiram taxas de reconhecimento em torno 97% quando aplicado a uma base de duplas de digitos conectados e 95% para as amostras de cadeias da base NIST SD19, superando os niveis do estado da arte. Alem das altas taxas de reconhecimento, tambem houve significativa reducao de consultas ao classificador (custo computacional), principalmente em casos complexos, superando o desempenho dos trabalhos presentes no estado da arte, denotando o potencial das abordagens propostas.Abstract: Over the last decades, the recognition of handwritten digit strings has been approached in a similar way by several authors, regarding the connected digits issue. The segmentation of these components is a consensus. In this way, the approaches attempt to determining the segmentation points by applying heuristics on features extracted from the object, background, contour, etc. However, the production of fragmented digits, causing the over-segmentation of the string is a common problem among these approaches. Thus, the methodologies are categorized by the way they manipulate the components resulting from this process: (a) those ones that produce only a possible segmentation, or (b) those ones that define a set of segmentation hypotheses and a fusion method to determine the best hypothesis. Although the second category has higher recognition rates, the computational cost becomes an unfavorable aspect, due to the recurrent classifier calls to classify the hypotheses produced. Therefore, the variability of the connection types and the lack of context, such as the number of digits present in the string, denote the limitation of approaches based on heuristic processes. In order to avoid these problems, we believe that is possible to overcome traditional methods by implementing models based on deep learning to classify connected digits directly, reducing the segmentation step to a connected component detection process. In addition, taking advantage of advances of object detection field, we propose a new approach to the problem, in which, digits are understood as objects in an image and in this scenario, a sequence of digits is a sequence of objects. To validate our hypotheses, experiments were carried out in well-known datasets, evaluating our proposals against state-of-art in terms of recognition, correct segmentation and computational cost. The results achieved recognition rates of 97% when applied to a base of connected digit pairs, and 95% for the NIST SD19 samples, surpassing state-of-art levels. Besides the high recognition rates, it has a significant reduction in terms of classifier calls (computational cost), especially in complex cases, surpassing the performance of the works present in the state of the art, denoting the potential of the proposed approaches

    Uma abordagem alternativa para Inspeção Preditiva não Invasiva em Linha Aérea de Distribuição de média tensão na área rural.

    Get PDF
    Essa abordagem propõe a utilização de instrumentos que captam os ruídos emitidos pelos componentes de uma linha aérea de distribuição de energia de média tensão na área rural. O componente investigado foi o isolador de porcelana do tipo pino, devido sua relevância no sistema de isolamento da linha. Os resultados foram obtidos a partir de inspeções realizadas na rede elétrica da AES Sul Distribuidora Gaúcha de Energia e de ensaios realizados no Laboratório de Alta Tensão da Universidade Federal de Itajubá. A duração inicial da pesquisa foi de dois anos, e prorrogada por igual período para investigação das influências das condições atmosféricas nos resultados obtidos na etapa inicial. Apresenta-se uma breve comparação com a consagrada técnica de inspeção não invasiva em instalações energizadas, que faz uso de instrumentos sensíveis às ondas de calor (termovisores). Afirma-se que as condições atmosféricas não tiveram influência nas medições de nível de ruídos. Por fim, recomenda-se a substituição de qualquer isolador que indique nível de ruídos maior que zero ao ser inspecionado a partir do solo, próximo à base da estrutura (poste)

    Detecção de câncer de mama utilizando imagens termográficas

    Get PDF
    Breast cancer is the leading cause of death in women worldwide. Early diagnosis is fundamental for a greater chance of recovery and healing of patients. The thermographic images due to the ability of early detecting the disease in young women, absence of radiation and the low cost has shown to be a promising technique. This thesis presents a methodology that classifies patients as normal, with benign and cancerous tumors (cancer) from thermographic images of the breast. The database used is composed of images of 70 patients. Some of the characteristics considered are statistical measures and fractal dimension. The classification is done through Artificial Neural Networks (ANN) and Support Vector Machines (SVM). The best result was 80.95% accuracy, 83.33% specificity for normal patients, 85.71% specificity for patients with benign alterations and 75% sensitivity. This result was obtained considering the characteristics: mean, standard deviation, median, minimum temperature, maximum temperature, thermal amplitude, skewness, kurtosis, entropy, contrast, correlation, moment 2, moment 3 and moment 4 to describe the images and using the classifier SVM. The results obtained are promising and confirmed the premise that thermographic images can be used in the detection of breast cancer.Trabalho de Conclusão de Curso (Graduação)O câncer de mama é a doença que mais mata mulheres em todo o mundo. O diagnóstico precoce é fundamental para maiores chances de cura e recuperação das pacientes. As imagens termográficas devido a potencialidade de detectar a doença precocemente em mulheres jovens, ausência de radiação e ao baixo custo tem se mostrado uma técnica promissora. Esta monografia apresenta uma metodologia que classifica as pacientes como normais, com alterações benignas e com câncer (alterações malignas) a partir de imagens termográficas da mama. A base de dados utilizada é composta por imagens de 70 pacientes. Algumas das características consideradas foram medidas estatísticas e dimensão fractal. A classificação é feita através de Redes Neurais Artificiais (RNA) e Máquina de Vetores de Suporte (SVM). O melhor resultado obtido foi 80.95% de acurácia, 83.33% de especificidade para pacientes normais, 85.71% de especificidade para pacientes com alterações benignas e 75% de sensibilidade. Este resultado foi obtido considerandos as características: média, desvio padrão, mediana, temperatura mínima, temperatura máxima, amplitude térmica, assimetria, curtose, entropia, contraste, correlação, momento 2, momento 3 e momento 4 para descrever as imagens e utilizando o classificador SVM. Os resultados obtidos se mostram promissores e confirmaram a premissa de que as imagens termográficas podem auxiliar na detecção do câncer de mama

    Modelo adaptativo baseado em sensor virtual para eletromiografia de superfície com sistema de classificação tolerante a falhas

    Get PDF
    Apenas alguns sistemas de controle protético na literatura científica são baseados em algoritmos de reconhecimento de padrões, os quais são adaptados às mudanças que ocorrem no sinal mioelétrico ao longo do tempo, e, frequentemente, tais sistemas não são naturais e intuitivos. As mudanças no sinal mioelétrico são alguns dos vários desafios para as próteses mioelétricas serem amplamente utilizadas. O conceito do sensor virtual, que tem como objetivo fundamental estimar medidas indisponíveis por trás de outras medidas disponíveis, vem sendo utilizado em outras áreas de pesquisa. O sensor virtual aplicado à eletromiografia de superfície (sEMG) pode ajudar a minimizar esses problemas, tipicamente relacionados à degradação do sinal mioelétrico, os quais geralmente provocam uma diminuição na taxa de acerto da classificação dos movimentos por sistemas de inteligência computacional. A principal contribuição deste trabalho é o desenvolvimento de um sistema de classificação de movimentos tolerante a falhas, o qual utiliza o conceito de sensores virtuais para reduzir o impacto de degradação de sinais de sEMG. A segunda contribuição é um modelo do sinal de sEMG dinâmico e adaptativo para o sensor virtual, o qual produz um modelo de saída de sinal independente da aquisição física do sinal de interesse. A modelagem do sinal de sEMG é projetada de forma a combinar os conceitos de multicanais e sua correlação cruzada, além de utilizar um sistema de ajuste dos coeficientes de correlação, a fim de substituir os canais de sinais degradados Dois modelos são avaliados e detalhados: Time-Varying Autoregressive Moving Average (TVARMA) e o Time- Varying Kalman Filter (TVK). A terceira contribuição é a combinação de uma análise e detecção da contaminação do sinal realizada por um sensor de detecção tolerante a falhas (Sensor Fault-Tolerant Detector – SFTD). Os resultados da classificação dos movimentos foram apresentados comparando as técnicas usuais de classificação com o método da substituição do sinal degradado e um processo de retreinamento do classificador simplificado. Os resultados foram avaliados para cinco tipos de ruído em 16 estudos de caso da degradação dos canais de sEMG. O sistema adaptativo proposto sem o uso de técnicas de retreinamento do classificador recuperou a taxa de acerto média de classificação em até 46% para os ruídos de deslocamento de eletrodos e de saturação. Devido às limitações do sistema proposto quanto aos ruídos de artefato de movimento, de interferência de linha de energia e ECG, o sistema apresentado pode ser utilizado como uma técnica complementar com outras técnicas de classificação para aumentar o impacto clínico da prótese mioelétrica. Entretanto, o sistema ainda requer uma análise quanto a diferentes níveis de SNR antes de uma otimização do algoritmo. Além disso, o modelo TVARMA do sensor virtual obteve uma taxa de acerto média superior em comparação ao modelo TVK na maioria das situações avaliadas neste trabalho.Nowadays, only a few prosthetic control systems in the scientific literature are founded on pattern recognition algorithms adapted to changes that occur in the myoelectric signal over time and, frequently, such systems are not natural and intuitive. These are some of the several challenges for myoelectric prostheses for everyday use. The concept of the virtual sensor, which has as its fundamental objective to estimate unavailable measures based on other available measures, is already being used in other fields of research. The virtual sensor technique applied to surface electromyography (sEMG) can help to mitigate these problems, typically related to the degradation of the myoelectric signal that usually leads to a decrease in the classification accuracy of the movements characterized by intelligent computational systems. Therefore, the main contribution of this work is the Fault-Tolerant Classification System, that was developed using the concept of virtual sensors to reduce the degradation impact of sEMG signals. The second contribution is a dynamic and adaptive virtual sensor model, which produces a signal output model independent of the physical acquisition of the interest signal. The sEMG signal modeling was designed to combine multichannel concepts and their cross-correlation, in addition to the use of the correlation coefficient adjustment system to replace degraded signal channels. Two models were evaluated and detailed: Time-Varying Autoregressive Moving Average (TVARMA) and Time-Varying Kalman Filter (TVK) The third contribution is the analysis and detection of signal contamination by a Sensor Fault-Tolerant Detector (SFTD). The classification results of the movements were compared to the traditional classification techniques, the classification with the degraded signal replacement method and a simplified retraining process of the classifier. The results were evaluated for five noise types in 16 case studies of the sEMG channels degradation. The adaptive system proposed, without the classifier re-training techniques, was able to recover 46% of the mean classification accuracy for the electrodes displacement and saturation noise. Moreover, the proposed system can be used as a complementary technique with other classification techniques to increase the clinical impact of the myoelectric prosthesis since there are still limitations in the proposed method regarding the movement artifact noise, power line, and ECG interference. However, the system still requires an analysis of different SNR levels before the algorithm optimization. Also, the TVARMA model of the virtual sensor obtained a higher classification accuracy compared to the TVK model in most of the evaluated situations

    Sistema computacional para o processamento, a análise e a classificação do sinal eletrocardiográfico de neonatos e adultos

    Get PDF
    Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica.O eletrocardiograma (ECG) é uma ferramenta utilizada para o diagnóstico de cardiopatias e outras doenças. Sua análise pode ser realizada automaticamente por sistemas computacionais. No entanto, algoritmos desenvolvidos para análise do ECG de pacientes adultos não podem ser aplicados em neonatos, devido às diferenças entre os padrões do ECG de um adulto e de um neonato. Este trabalho tem como objetivo apresentar técnicas, agrupadas em um sistema computacional (NeoCard), que possibilitem o processamento, a análise e a classificação do eletrocardiograma tanto de neonatos quanto adultos. Este sistema é dividido em três etapas. Na primeira, são removidos os principais ruídos que acometem o ECG. Em seguida, são detectados os intervalos, os segmentos e as ondas do sinal. Com base nas informações extraídas durante a detecção, o ECG é analisado e classificado segundo as arritmias de maior freqüência. Na etapa de pré-processamento, a eliminação da linha de base e ruído impulsivo é realizada por métodos não lineares de filtragem. Para a detecção das ondas, as wavelets são empregadas. Por fim, a análise utiliza um conjunto de regras para indicação de um diagnóstico, enquanto os batimentos são classificados por uma rede neural entre três categorias (batimento normal ou duas classes de arritmias). O desempenho alcançado com a detecção das ondas R atingiu uma sensibilidade de 99,94%. A classificação dos batimentos cardíacos alcançou os valores de 92,55% para sensibilidade e 99,71% para especificidade. Os resultados obtidos mostram a capacidade do sistema desenvolvido em processar, analisar e classificar o ECG de pacientes adultos e neonatos
    corecore