9 research outputs found

    Dynamic Time Warping of Deep Features for Place Recognition in Visually Varying Conditions

    Get PDF
    This paper presents a new visual place recognition (VPR) method based on dynamic time warping (DTW) and deep convolutional neural network. The proposal considers visual place recognition in environments that exhibit changes in several visual conditions like appearance and viewpoint changes. The proposed VPR method belongs to the sequence matching category, i.e., it utilizes the sequence-to-sequence image matching to recognize the best matching to the current test image. This approach extracts the image’s features from a deep CNN, where different layers of a two selected CNNs are investigated and the best performing layer along with the DTW is identified. Also, the performance of the deep features is compared to the one of classical features (handcrafted features like SIFT, HOG and LDB). Our experiments also compare the performance with other state-of-the-art visual place recognition algorithms, Holistic, Only look once, NetVLAD and SeqSLAM in particular. © 2021, King Fahd University of Petroleum & Minerals

    Real-time GP-based wheelchair corridor following

    Get PDF
    In this paper, we present a novel GP-based visual controller. The HOG features are used as a global representation of the observed image. The Gaussian Processes (GP) algorithm is trained to learn the mapping from the HOG feature vector onto the velocity variables. The GP training is achieved using corridor images collected from different places, these images are labeled using velocity values generated by a geometric-based control law and robust features. A hand-based verification of the features is done to ensure the accuracy of the ground truth labels. Experiments were conducted to explore the capabilities of the developed approach. Results have shown R Squared metric with more than ninety percent on the trained GP model in noisy conditions. © 2021 IEEE

    COLCONF: Collaborative ConvNet Features-based Robust Visual Place Recognition for Varying Environments

    Get PDF
    Several deep learning features were recently proposed for visual place recognition (VPR) purpose. Some of them use the information laid in the image sequences, while others utilize the regions of interest (ROIs) that reside in the feature maps produced by the CNN models. It was shown in the literature that features produced from a single layer cannot meet multiple visual challenges. In this work, we present a new collaborative VPR approach, taking the advantage of ROIs feature maps gathered and combined from two different layers in order to improve the recognition performance. An extensive analysis is made on extracting ROIs and the way the performance can differ from one layer to another. Our approach was evaluated over several benchmark datasets including those with viewpoint and appearance challenges. Results have confirmed the robustness of the proposed method compared to the state-of-the-art methods. The area under curve (AUC) and the mean average precision (mAP) measures achieve an average of 91% in comparison with 86% for Max Flow and 72% for CAMAL

    Encoded Deep Features for Visual Place Recognition

    Get PDF
    In this work, a new VPR approach that uses the features extracted from a Convolutional Neural Network (CNN) architecture that will be encoded by the Fisher Vector (FV) is introduced. As the main aim of this work is to develop a robust approach that can meet real-life challenges, the deep features are encoded with FV, which as shown in the experiments section, can lead to getting more robust features. Our approach was evaluated using two classifiers, Dynamic Time Warping (DTW) and Support Vector Machine (SVM) in particular. Using both classifiers, the FV-based encoded features have outperformed the non-encoded features. © 2020 IEEE

    Dtw bazlı kodlu derin özelliklerle görsel yer tanıma

    No full text
    Optik Yer Tanımlama (VPR) teknikleri otonom robotların ve sürücüsüz araçların, bir tek görsel girdiler kullanarak ucuz ve doğru bir şekilde yer belirleme imkanı sağlamaktadır. Önceden, Global Konumlandırma Sistemini kullanan algılayıcı tabanlı sistem GPS ve bunun yanı sıra mesafe algılayıcısı sık kullanılmıştır. Ancak, sinyal sonuç çıkarımında maliyet ve korunmasızlık gibi dezavantajlar ve bunula birlikte görsel algılayıcı (Kamera) kalite geliştirmesi gibi sistemlerin, görsel tabanlı sistemlerle değiştirilmesine yol açmaktadır. Bu sistem tabanlı cihazı bilgi ile zengin bir girdi elde edebilir ve VPR dahil, çok çeşitli uygulamalar için dikkate değer bir öneme sahiptir. Sonuç olarak, birçok görüntüleme tekniği incelenmiş ve farklı görüntü tanımlayıcıları yerelleştirme algoritmalarına yerleştirilmiş ve çevredeki ortamın farkında olacak bir sistem tıpkı insan gibi yapmayı amaçlanmaktadır. Bu tezde, yeni bir VPR yaklaşımı gösterilmiş ve Dinamik Zaman Çarpıtma (DTW) tekniği kullanılarak Fisher Vector (FV) vasıtasyla kodlanacak olan Evrişimli Sinir Ağı (CNN) yapısından çıkarılan özellikleri kullanılmıştır. Daha ayrıntılı anlatmak gerekirse, özellikler; önceden eğitilmiş bir CNN'den ihraç edilir, daha sonra kodlanması için FV'ye beslenir, sonunda DTW algoritmasına itilir ve referans görüntüler ve yeni gelen görüntüler arasında (test görüntüleri) en iyi eşleşmeleri bulmak için bu şekilde kullanılır. Ayrıca, DTW'ye en fit olanı bulmak için farklı CNN yapılarının performansı araştırıldı ve tüm yapı katmanlarının performansı karşılaştırıldı. Bundan başka, el yapımı özelliklerin, derin özelliklerle değiştirme avantajı da incelenmiştir. Bu çalışmanın ana hedefi, Hayatın farklı gerçek zorluklarıyla yüzleşebilecek sağlam bir yaklaşım geliştirmek ve FV ile kodlanmış derin özellikleri daha sağlam özellikler elde edilmesine yol açabileceğine inanıyoruz. Basettiğimiz bu girişm diğer klasik yaklaşımlara karşı ters olduğu değerlendirilmişti, Özellikle SVM olanı bizim yaklaşımımızdan ve bilhassa veri kümeleri işlenmesi gerektiğinde daha iyi performans gösterip yalnız açı ve / veya görünüm gibi bazı zorlukları bulunmaktadı

    ABSTRACTS

    No full text
    corecore