5 research outputs found

    بررسی تغییرات ریتم آلفا به منظور ردیابی خستگی ذهنی راننده در روی شبیه ساز رانندگی

    Get PDF
    مقدمه: خستگی ذهنی یکی از علل اصلی حوادث جاده­ای است. بیش از 30 درصد حوادث به علت خواب­آلودگی و خستگی راننده اتفاق می­افتد، لذا شناسایی ابزارها و روش­هایی به منظور تشخیص زود هنگام خستگی و خواب ­آلودگی از اهمیت بسیاری در پیشگیری از حوادث برخورداراست. در این میان استفاده از روش­های بیولوژیکی مانند EEG می­تواند از معتبرترین روش­ها باشد. مواد و روش­ها: مطالعه حاضر به روش توصیفی-تحلیلی در روی 19 نفر از رانندگان سواری مرد انجام­گردید. به منظور القای بیشتر خستگی از رانندگان خواسته­شد که حداقل 18 ساعت قبل از آزمایش نخوابند و 12 ساعت پیش از آن از خوردن نوشیدنی­های کافیین­دار و مواد محرک خودداری نمایند. وضعیت خواب رانندگان از طریق فرم یادداشت خواب از یک هفته قبل کنترل می­شد. رانندگان می­بایست یک جاده 110 کیلومتری را با سرعت 90 کیلومتر در ساعت با حفظ مسیر حرکت طی­کنند. میزان خستگی ذهنی در هر 10 دقیقه با مقیاس خواب­آلودگی کرولینسکا ثبت می­شد. همچنین ارزشیابی ویدیویی از چهره راننده از لحاظ خستگی در هر 10 دقیقه توسط دو نفر از پژوهشگران آموزش­دیده انجام می­شد. در طول رانندگی روی شبیه­ساز، امواج مغزی با 16 کانال ثبت می­شد. پس از فیلترکردن و حذف سیگنال­های مزاحم، توان نسبی و مطلق آلفا در کانال­های مختلف محاسبه گردید. سپس از آمار توصیفی و ضریب همبستگی اسپیرمن و آزمون تی زوجی برای آزمون همبستگی و مقایسه میانگین­ها در 10 دقیقه ابتدایی و انتهایی رانندگی استفاده شد. یافته ­ها: این مطالعه نشان­داد که بین میزان خودارزیابی خستگی در 10 دقیقه ابتدایی و انتهایی مسیر اختلاف معنادار وجود داشت(001/0>P). این امر در مورد ارزشیابی ویدیویی نیز صدق می­کرد. میانگین توان مطلق آلفا در 10 دقیقه انتهایی نسبت به 10 دقیقه ابتدایی مسیر افزایش معنادار داشت(001/0>P) ، در حالی­که توان نسبی آلفا در 10 دقیقه انتهایی نسبت به 10 دقیقه ابتدایی مسیر تفاوتی نداشت. نتیجه­ گیری: خستگی ذهنی راننده یکی از مشکلات بسیار مهم رانندگان از دیدگاه ایمنی جاده به حساب می­آید. این مطالعه حاکی­است که امواج مغزی و بویژه توان مطلق آلفا می­تواند شاخص خوبی برای پیش­بینی زودهنگام خستگی ذهنی راننده باشد. Normal 0 false false false EN-US X-NONE F

    MODIFIED LOCAL TERNARY PATTERN WITH CONVOLUTIONAL NEURAL NETWORK FOR FACE EXPRESSION RECOGNITION

    Get PDF
    Facial expression recognition (FER) on images with illumination variation and noises is a challenging problem in the computer vision field. We solve this using deep learning approaches that have been successfully applied in various fields, especially in uncontrolled input conditions. We apply a sequence of processes including face detection, normalization, augmentation, and texture representation, to develop FER based on Convolutional Neural Network (CNN). The combination of TanTriggs normalization technique and Adaptive Gaussian Transformation Method is used to reduce light variation. The number of images is augmented using a geometric augmentation technique to prevent overfitting due to lack of training data. We propose a representation of Modified Local Ternary Pattern (Modified LTP) texture image that is more discriminating and less sensitive to noise by combining the upper and lower parts of the original LTP using the logical AND operation followed by average calculation. The Modified LTP texture images are then used to train a CNN-based classification model. Experiments on the KDEF dataset show that the proposed approach provides a promising result with an accuracy of 81.15%

    Perbandingan AlexNet dan VGG untuk Pengenalan Ekspresi Wajah pada Dataset Kelas Komputasi Lanjut

    Get PDF
    Pengenalan emosi memainkan peran penting dalam komunikasi yang dapat dikenali dari ekspresi wajah. Terdapat banyak metode yang dapat digunakan untuk mengenali ekspresi wajah secara automatis, seperti convolutional neural network (CNN). Penelitian ini bertujuan untuk mengimplementasikan dan membandingkan model CNN dengan arsitektur AlexNet dan VGG untuk pengenalan ekspresi wajah menggunakan bahasa pemrograman Julia. Model CNN akan digunakan untuk mengklasifikasikan tiga ekspresi yang berbeda dari tujuh orang pengekspresi. Data diproses dengan beberapa teknik augmentasi data untuk mengatasi masalah keterbatasan data. Hasil penelitian menunjukkan bahwa ketiga arsitektur dapat mengklasifikasikan ekspresi wajah dengan sangat baik, yang ditunjukkan oleh nilai rata-rata akurasi pada data training dan testing yang lebih dari 94%. Untuk memenuhi nilai cross-entropy sebesar 0.1, arsitektur VGG-11 memerlukan jumlah epoch yang paling sedikit dibandingkan arsitektur lainnya, sedangkan arsitektur AlexNet memerlukan waktu komputasi yang paling sedikit. Waktu komputasi pada proses pelatihan sebanding dengan jumlah parameter yang terkandung pada model CNN. Akan tetapi, jumlah epoch yang sedikit belum tentu membutuhkan waktu komputasi yang sedikit. Selain itu, nilai recall, presisi, dan F1-score untuk masalah klasifikasi multi-class menunjukkan hasil yang baik, yaitu lebih dari 94%

    DeepFN: Towards Generalizable Facial Action Unit Recognition with Deep Face Normalization

    Full text link
    Facial action unit recognition has many applications from market research to psychotherapy and from image captioning to entertainment. Despite its recent progress, deployment of these models has been impeded due to their limited generalization to unseen people and demographics. This work conducts an in-depth analysis of performance across several dimensions: individuals(40 subjects), genders (male and female), skin types (darker and lighter), and databases (BP4D and DISFA). To help suppress the variance in data, we use the notion of self-supervised denoising autoencoders to design a method for deep face normalization(DeepFN) that transfers facial expressions of different people onto a common facial template which is then used to train and evaluate facial action recognition models. We show that person-independent models yield significantly lower performance (55% average F1 and accuracy across 40 subjects) than person-dependent models (60.3%), leading to a generalization gap of 5.3%. However, normalizing the data with the newly introduced DeepFN significantly increased the performance of person-independent models (59.6%), effectively reducing the gap. Similarly, we observed generalization gaps when considering gender (2.4%), skin type (5.3%), and dataset (9.4%), which were significantly reduced with the use of DeepFN. These findings represent an important step towards the creation of more generalizable facial action unit recognition systems

    Підходи до розпізнавання емоцій за обличчям із застосуванням активної моделі форми

    Get PDF
    Магістерська дисертація: 94 с., 1 ч., 28 табл., 15 рис., 3 дод., 29 джерел. Об’єкт дослідження – розпізнавання емоцій за обличчям людини за допомогою активної моделі форми та класифікатора. Мета роботи – покращення розпізнавання емоцій за обличчям при умові наявності обмеженої кількості даних та обмеженого обчислювального ресурсу. Методи дослідження – моделювання системи знаходження обличчя на фото, системи виділення ключових ознак обличчя, системи класифікації з опорою на добуті ознаки обличчя. Зроблено приклад системи, що проводить обробку фото та розпізнає базову емоцію обличчя. Визначена ефективність використання активної моделі форми у якості генератора ознак обличчя для подальшого навчання класифікатора. Здійснено моделювання повної системи обробки та розпізнавання даних, на основі 68 ключових точок обличчя, тріангуляції обличчя та навчання рекурентної нейронної мережі. Досягнуто точності в 72% правильності розпізнавання емоцій. Упровадження розробленого алгоритму в системах продажу товарів та послуг дозволяє отримувати інформацію щодо задоволення клієнта товаром чи послугою для подальшої оцінки попиту та якості послуг.Master's Thesis: 94 p., 1 part, 28 tabl., 15 fig., 3 appendixes., 29 bibliographic references. Object of research – facial emotion recognition using active shape model. Purpose of the work – improving facial emotion recognition with limited data and limited computing resources. Methods of research – modeling of the system to find the face in the photo, also the system to detect the key facial features, and the classification system based on the obtained facial features. The example of the system was done that performs photo processing and recognizes the basic emotion of the face. The effectiveness of using the active form model as a generator of facial features for further training of the classifier is determined. A complete data processing and recognition system was modeled on the basis of 68 key face points, face triangulation and recurrent neural network training. 72% accuracy of emotion recognition is achieved. The implementation of the current system for sales and services systems will help to obtain information about customers satisfaction with a product or service for further evaluation of demand and quality of services
    corecore