9 research outputs found

    Random Fourier Features

    Get PDF
    Η εργασία εστιάζει στο πρόβλημα της εκμάθησης σε πραγματικό χρόνο, σε χώρους Χιλμπερτ και παρουσιάζονται οι αλγόριθμοι KRLS, KLMS. Στο προηγούμενο πρόβλημα, καθώς αυξάνει ο αριθμός των μεταβλητών εισόδου, ανάλογα αυξάνει και η πολυπλοκότητα του αλγορίθμου, τόσο από άποψη χώρου, όσο και χρόνου. Συνεπώς, χρειάζεται να υιοθετήσουμε ένα λεξικό, έτσι ώστε να κρατήσουμε την πολυπλοκότητα σε χαμηλά επίπεδα. Επίσης, αναέρουμε το πρόβλημα το οποίο προκύπτει όταν δουλεύουμε σε περιβάλλοντα που εξαρτώνται από τον χρόνο, όταν ο αλγόριθμος δεν μπορεί να αερεί αχρείαστα στοιχεία από το λεξικό και έτσι συγκρίνουμε αλγορίθμους με διαορετικές επιλογές λεξικών μέσω διαόρων πειραμάτων. Η τεχνική των Random Fourier Features ορίζει μία γνωστή συνάρτηση η οποία μετατρέπει τα δεδομένα του χώρου εισόδου σε σημεία ενώς νέου Ευκλείδιου χώρου πεπερασμένων διαστάσεων, στον οποίο, το αρχικό μή γραμμικό πρόβλημα είναι γραμμικό, ενώ το εσωτερικό γινόμενο των νέων αυτών σιμείων προσεγγίζει τη συνάρτηση πυρήνα. ΄Οταν το γραμμικό αυτό πρόβλημα λυθεί, ένα διάνυσμα σταθερού μεγέθους επιστρέετε από τον αλγόριθμο, το οποίο αποτελεί τη λύση του προβλήματος. Επομένως, ο προκύπτων αλγόριθμος είναι υπολογιστικά πιό αποδοτικός, και όπως θα δείξουμε, συγκλίνει σε παρόμοιους χρόνους επιτυγχάνοντας παρόμοια σάλματα με τους κλασσικούς αλγορίθμους πυρήνα.Τhe project focuses to the problem of online learning in RKHS, and the Kernel Least Mean Squares as well as the Kernel Recursive Least Squares algorithms are presented. Ιn terms of space and time. Hence, we adopt a dictionary so as to keep the complexity under reasonable limits. Also, we mention the problem that occurs when we are working in time-varying environments, while the algorithm is not capable of discarding the obsolete elements held in the dictionary, and thus we compare algorithms with dierent choices of dictionary through various experiments. Τhe Random Fourier Features technique denes a known mapping which takes the data held in the input space and transfers them to a new nite dimensional Euclidean space, where the problem is linearly separable and the inner product of the mapped data approximates the kernel function. Once the "linear" task is solved, a vector of xed size is obtained, which denes a hyperplane in the new space, separating the data. Thus, the algorithm provided is computationally more ecient and as will be shown in Chapter 3, converges at similar speeds and to similar error floors

    Kernel LMS algorithm with forward-backward splitting for dictionary learning

    Full text link

    Generalized Minimum Error Entropy for Adaptive Filtering

    Full text link
    Error entropy is a important nonlinear similarity measure, and it has received increasing attention in many practical applications. The default kernel function of error entropy criterion is Gaussian kernel function, however, which is not always the best choice. In our study, a novel concept, called generalized error entropy, utilizing the generalized Gaussian density (GGD) function as the kernel function is proposed. We further derivate the generalized minimum error entropy (GMEE) criterion, and a novel adaptive filtering called GMEE algorithm is derived by utilizing GMEE criterion. The stability, steady-state performance, and computational complexity of the proposed algorithm are investigated. Some simulation indicate that the GMEE algorithm performs well in Gaussian, sub-Gaussian, and super-Gaussian noises environment, respectively. Finally, the GMEE algorithm is applied to acoustic echo cancelation and performs well.Comment: 9 pages, 8 figure
    corecore