2 research outputs found

    Real-Time Classification of Pain Level Using Zygomaticus and Corrugator EMG Features

    Get PDF
    The real-time recognition of pain level is required to perform an accurate pain assessment of patients in the intensive care unit, infants, and other subjects who may not be able to communicate verbally or even express the sensation of pain. Facial expression is a key pain-related behavior that may unlock the answer to an objective pain measurement tool. In this work, a machine learning-based pain level classification system using data collected from facial electromyograms (EMG) is presented. The dataset was acquired from part of the BioVid Heat Pain database to evaluate facial expression from an EMG corrugator and EMG zygomaticus and an EMG signal processing and data analysis flow is adapted for continuous pain estimation. The extracted pain-associated facial electromyography (fEMG) features classification is performed by K-nearest neighbor (KNN) by choosing the value of k which depends on the nonlinear models. The presentation of the accuracy estimation is performed, and considerable growth in classification accuracy is noticed when the subject matter from the features is omitted from the analysis. The ML algorithm for the classification of the amount of pain experienced by patients could deliver valuable evidence for health care providers and aid treatment assessment. The proposed classification algorithm has achieved a 99.4% accuracy for classifying the pain tolerance level from the baseline (P0 versus P4) without the influence of a subject bias. Moreover, the result on the classification accuracy clearly shows the relevance of the proposed approach.</p

    Reconocimiento de expresiones faciales a través de un análisis de patrones de movimientos musculares faciales por medio de técnicas de aprendizaje profundo

    Get PDF
    Desarrollar un sistema electrónico de reconocimiento de expresiones faciales basado en técnicas de aprendizaje profundo que permita determinar seis emociones básicas en personas con limitada movilidad por medio de una aplicación en tiempo real que valide el funcionamiento.El presente proyecto consiste en el desarrollo de SIREF, el cual es un sistema electrónico para el reconocimiento de expresiones faciales a través de un análisis de patrones de movimientos musculares por medio de técnicas de aprendizaje profundo (DL), el objetivo principal es reconocer seis emociones básicas en personas con limitada movilidad, por medio de una aplicación en tiempo real que valide el funcionamiento. El sistema está conformado por tres sensores musculares MyoWare de electromiografía (EMG) que miden la actividad eléctrica filtrada y rectificada de un músculo. En tal sentido, SIREF consta de una interfaz hombre máquina (HMI), a través de la cual se muestra el tipo de expresión facial detectada y los valores en porcentaje de contracción musculares que reciben el rostro. En cuanto al diseño del dispositivo se emplea hardware y software libre, así como para el correcto ciclo de vida de desarrollo de SIREF basado en el “Modelo en Cascada”, donde, se divide cada uno de los procesos en sucesivas fases del proyecto, como el análisis, diseño e implementación del sistema. Para finalizar, el funcionamiento y validación del sistema está enfocado en el capítulo IV del documento a través de diferentes pruebas realizadas al sistema, a fin de lograr que la calidad y efectividad de SIREF sea lo mejor posible.Ingenierí
    corecore