5 research outputs found
بررسی تغییرات ریتم آلفا به منظور ردیابی خستگی ذهنی راننده در روی شبیه ساز رانندگی
مقدمه: خستگی ذهنی یکی از علل اصلی حوادث جادهای است. بیش از 30 درصد حوادث به علت خوابآلودگی و خستگی راننده اتفاق میافتد، لذا شناسایی ابزارها و روشهایی به منظور تشخیص زود هنگام خستگی و خواب آلودگی از اهمیت بسیاری در پیشگیری از حوادث برخورداراست. در این میان استفاده از روشهای بیولوژیکی مانند EEG میتواند از معتبرترین روشها باشد.
مواد و روشها: مطالعه حاضر به روش توصیفی-تحلیلی در روی 19 نفر از رانندگان سواری مرد انجامگردید. به منظور القای بیشتر خستگی از رانندگان خواستهشد که حداقل 18 ساعت قبل از آزمایش نخوابند و 12 ساعت پیش از آن از خوردن نوشیدنیهای کافییندار و مواد محرک خودداری نمایند. وضعیت خواب رانندگان از طریق فرم یادداشت خواب از یک هفته قبل کنترل میشد. رانندگان میبایست یک جاده 110 کیلومتری را با سرعت 90 کیلومتر در ساعت با حفظ مسیر حرکت طیکنند. میزان خستگی ذهنی در هر 10 دقیقه با مقیاس خوابآلودگی کرولینسکا ثبت میشد. همچنین ارزشیابی ویدیویی از چهره راننده از لحاظ خستگی در هر 10 دقیقه توسط دو نفر از پژوهشگران آموزشدیده انجام میشد. در طول رانندگی روی شبیهساز، امواج مغزی با 16 کانال ثبت میشد. پس از فیلترکردن و حذف سیگنالهای مزاحم، توان نسبی و مطلق آلفا در کانالهای مختلف محاسبه گردید. سپس از آمار توصیفی و ضریب همبستگی اسپیرمن و آزمون تی زوجی برای آزمون همبستگی و مقایسه میانگینها در 10 دقیقه ابتدایی و انتهایی رانندگی استفاده شد.
یافته ها: این مطالعه نشانداد که بین میزان خودارزیابی خستگی در 10 دقیقه ابتدایی و انتهایی مسیر اختلاف معنادار وجود داشت(001/0>P). این امر در مورد ارزشیابی ویدیویی نیز صدق میکرد. میانگین توان مطلق آلفا در 10 دقیقه انتهایی نسبت به 10 دقیقه ابتدایی مسیر افزایش معنادار داشت(001/0>P) ، در حالیکه توان نسبی آلفا در 10 دقیقه انتهایی نسبت به 10 دقیقه ابتدایی مسیر تفاوتی نداشت.
نتیجه گیری: خستگی ذهنی راننده یکی از مشکلات بسیار مهم رانندگان از دیدگاه ایمنی جاده به حساب میآید. این مطالعه حاکیاست که امواج مغزی و بویژه توان مطلق آلفا میتواند شاخص خوبی برای پیشبینی زودهنگام خستگی ذهنی راننده باشد.
Normal 0 false false false EN-US X-NONE F
MODIFIED LOCAL TERNARY PATTERN WITH CONVOLUTIONAL NEURAL NETWORK FOR FACE EXPRESSION RECOGNITION
Facial expression recognition (FER) on images with illumination variation and noises is a challenging problem in the computer vision field. We solve this using deep learning approaches that have been successfully applied in various fields, especially in uncontrolled input conditions. We apply a sequence of processes including face detection, normalization, augmentation, and texture representation, to develop FER based on Convolutional Neural Network (CNN). The combination of TanTriggs normalization technique and Adaptive Gaussian Transformation Method is used to reduce light variation. The number of images is augmented using a geometric augmentation technique to prevent overfitting due to lack of training data. We propose a representation of Modified Local Ternary Pattern (Modified LTP) texture image that is more discriminating and less sensitive to noise by combining the upper and lower parts of the original LTP using the logical AND operation followed by average calculation. The Modified LTP texture images are then used to train a CNN-based classification model. Experiments on the KDEF dataset show that the proposed approach provides a promising result with an accuracy of 81.15%
Perbandingan AlexNet dan VGG untuk Pengenalan Ekspresi Wajah pada Dataset Kelas Komputasi Lanjut
Pengenalan emosi memainkan peran penting dalam komunikasi yang dapat dikenali dari ekspresi wajah. Terdapat banyak metode yang dapat digunakan untuk mengenali ekspresi wajah secara automatis, seperti convolutional neural network (CNN). Penelitian ini bertujuan untuk mengimplementasikan dan membandingkan model CNN dengan arsitektur AlexNet dan VGG untuk pengenalan ekspresi wajah menggunakan bahasa pemrograman Julia. Model CNN akan digunakan untuk mengklasifikasikan tiga ekspresi yang berbeda dari tujuh orang pengekspresi. Data diproses dengan beberapa teknik augmentasi data untuk mengatasi masalah keterbatasan data. Hasil penelitian menunjukkan bahwa ketiga arsitektur dapat mengklasifikasikan ekspresi wajah dengan sangat baik, yang ditunjukkan oleh nilai rata-rata akurasi pada data training dan testing yang lebih dari 94%. Untuk memenuhi nilai cross-entropy sebesar 0.1, arsitektur VGG-11 memerlukan jumlah epoch yang paling sedikit dibandingkan arsitektur lainnya, sedangkan arsitektur AlexNet memerlukan waktu komputasi yang paling sedikit. Waktu komputasi pada proses pelatihan sebanding dengan jumlah parameter yang terkandung pada model CNN. Akan tetapi, jumlah epoch yang sedikit belum tentu membutuhkan waktu komputasi yang sedikit. Selain itu, nilai recall, presisi, dan F1-score untuk masalah klasifikasi multi-class menunjukkan hasil yang baik, yaitu lebih dari 94%
DeepFN: Towards Generalizable Facial Action Unit Recognition with Deep Face Normalization
Facial action unit recognition has many applications from market research to
psychotherapy and from image captioning to entertainment. Despite its recent
progress, deployment of these models has been impeded due to their limited
generalization to unseen people and demographics. This work conducts an
in-depth analysis of performance across several dimensions: individuals(40
subjects), genders (male and female), skin types (darker and lighter), and
databases (BP4D and DISFA). To help suppress the variance in data, we use the
notion of self-supervised denoising autoencoders to design a method for deep
face normalization(DeepFN) that transfers facial expressions of different
people onto a common facial template which is then used to train and evaluate
facial action recognition models. We show that person-independent models yield
significantly lower performance (55% average F1 and accuracy across 40
subjects) than person-dependent models (60.3%), leading to a generalization gap
of 5.3%. However, normalizing the data with the newly introduced DeepFN
significantly increased the performance of person-independent models (59.6%),
effectively reducing the gap. Similarly, we observed generalization gaps when
considering gender (2.4%), skin type (5.3%), and dataset (9.4%), which were
significantly reduced with the use of DeepFN. These findings represent an
important step towards the creation of more generalizable facial action unit
recognition systems
Підходи до розпізнавання емоцій за обличчям із застосуванням активної моделі форми
Магістерська дисертація: 94 с., 1 ч., 28 табл., 15 рис., 3 дод., 29 джерел.
Об’єкт дослідження – розпізнавання емоцій за обличчям людини за допомогою активної моделі форми та класифікатора.
Мета роботи – покращення розпізнавання емоцій за обличчям при умові наявності обмеженої кількості даних та обмеженого обчислювального ресурсу.
Методи дослідження – моделювання системи знаходження обличчя на фото, системи виділення ключових ознак обличчя, системи класифікації з опорою на добуті ознаки обличчя.
Зроблено приклад системи, що проводить обробку фото та розпізнає базову емоцію обличчя. Визначена ефективність використання активної моделі форми у якості генератора ознак обличчя для подальшого навчання класифікатора.
Здійснено моделювання повної системи обробки та розпізнавання даних, на основі 68 ключових точок обличчя, тріангуляції обличчя та навчання рекурентної нейронної мережі. Досягнуто точності в 72% правильності розпізнавання емоцій.
Упровадження розробленого алгоритму в системах продажу товарів та послуг дозволяє отримувати інформацію щодо задоволення клієнта товаром чи послугою для подальшої оцінки попиту та якості послуг.Master's Thesis: 94 p., 1 part, 28 tabl., 15 fig., 3 appendixes., 29 bibliographic references.
Object of research – facial emotion recognition using active shape model. Purpose of the work – improving facial emotion recognition with limited
data and limited computing resources.
Methods of research – modeling of the system to find the face in the photo,
also the system to detect the key facial features, and the classification system based on the obtained facial features.
The example of the system was done that performs photo processing and recognizes the basic emotion of the face. The effectiveness of using the active form model as a generator of facial features for further training of the classifier is determined.
A complete data processing and recognition system was modeled on the basis of 68 key face points, face triangulation and recurrent neural network training.
72% accuracy of emotion recognition is achieved.
The implementation of the current system for sales and services systems will
help to obtain information about customers satisfaction with a product or service for further evaluation of demand and quality of services