2,612 research outputs found

    Indoor/Outdoor Deep Learning Based Image Classification for Object Recognition Applications

    Get PDF
    مع التطور السريع في تصميم الأجهزة الذكية، أصبحت حياة الناس أسهل خصوصاً أولئك الذين يعانون من فقدان البصر أو العمى. الإنجازات الجديدة في مجال تعلم الآلة والتعلم العميق سمحت لفاقدي البصر بالتعرف على البيئة المحيطة بهم وتمييزها. في الدراسة الحالية، نقوم باستخدام الفعالية والأداء العالي الذي تتمتع به أنظمة التعلم العميق لبناء نظام تصنيف الصور في كلا البيئتين الداخلية والخارجية. تبدأ الطريقة المقترحة بإنشاء مجموعتي بيانات داخلية وخارجية من عدة مصادر بيانات مختلفة. في الخطوة التالية، يتم تقسيم مجموعة البيانات المجمعة إلى مجموعات تدريب وتحقق واختبار. يتم استخدام نموذجي التعلم العميق المدربين مسبقاً المسميين GoogleNet وMobileNet-V2 من التدريب باستخدام مجموعتي البيانات الداخلية والخارجية وينتج عن ذلك نموذجان مدربان. يتم استخدام مجموعات بيانات الاختبار من أجل اختبار النماذج المدربة باستخدام معاملات قياس الأداء (الدقة، معدل القبول الصحيح، معدل الرفض الخاطئ، معدل التخمين الصحيح، ومعدل الاكتشاف الخاطئ). بالنسبة لنموذج GoogleNet تشير النتائج إلى الأداء العالي للأنظمة المدربة حيث تم التوصل لدقات اختبار 99.34% و99.76% لكل من مجموعتي البيانات الداخلية والخارجية على التوالي. أما فيما يخص نموذج MobileNet فقد تم التوصل لدقات 99.27% و 99.68% لكل من مجموعي بيانات الداخلية والخارجية على التوالي. تمت مقارنة الطريقة المقترحة مع الطرق المماثلة في الدراسات السابقة في مجال تصنيف الصور في أنظمة رعاية فاقدي البصر، حيث أظهرت تفوق الطريقة المقترحة من قبلنا.With the rapid development of smart devices, people's lives have become easier, especially for visually disabled or special-needs people. The new achievements in the fields of machine learning and deep learning let people identify and recognise the surrounding environment. In this study, the efficiency and high performance of deep learning architecture are used to build an image classification system in both indoor and outdoor environments. The proposed methodology starts with collecting two datasets (indoor and outdoor) from different separate datasets. In the second step, the collected dataset is split into training, validation, and test sets. The pre-trained GoogleNet and MobileNet-V2 models are trained using the indoor and outdoor sets, resulting in four trained models. The test sets are used to evaluate the trained models using many evaluation metrics (accuracy, TPR, FNR, PPR, FDR). Results of Google Net model indicate the high performance of the designed models with 99.34% and 99.76% accuracies for indoor and outdoor datasets, respectively. For Mobile Net models, the result accuracies are 99.27% and 99.68% for indoor and outdoor sets, respectively. The proposed methodology is compared with similar ones in the field of object recognition and image classification, and the comparative study proves the transcendence of the propsed system

    Unsupervised Understanding of Location and Illumination Changes in Egocentric Videos

    Full text link
    Wearable cameras stand out as one of the most promising devices for the upcoming years, and as a consequence, the demand of computer algorithms to automatically understand the videos recorded with them is increasing quickly. An automatic understanding of these videos is not an easy task, and its mobile nature implies important challenges to be faced, such as the changing light conditions and the unrestricted locations recorded. This paper proposes an unsupervised strategy based on global features and manifold learning to endow wearable cameras with contextual information regarding the light conditions and the location captured. Results show that non-linear manifold methods can capture contextual patterns from global features without compromising large computational resources. The proposed strategy is used, as an application case, as a switching mechanism to improve the hand-detection problem in egocentric videos.Comment: Submitted for publicatio
    corecore