thesis

Optimisation de ressources pour la sélection de modèle des SVM

Abstract

La sélection de modèle, optimisation des hyper-paramètres, est une étape très importante pour garantir une forte performance aux SVM. Les méthodes de sélection de modèle automatique nécessitent l'inversion de la matrice de Gram-Schmidt ou la résolution d'un problème d'optimisation quadratique supplémentaire, ce qui est très coûteux en temps de calcul et en mémoire lorsque la taille de l'ensemble d'apprentissage devient importante. Dans ce mémoire, nous proposons une méthode rapide basée sur une approximation du gradient de l'erreur empirique avec une technique d'apprentissage incrémental; ce qui réduit les ressources requises en termes de temps de calcul et d'espace mémoire. Notre méthode testée sur des bases de données synthétiques et réelles a produit des résultats probants confirmant notre approche. Nous avons aussi développé une nouvelle expression pour les SVM avec la formulation de la marge molle «soft margin» L1, ce qui permet d'inclure l'hyper-paramètre C dans les paramètres du noyau

    Similar works