31 research outputs found

    Deep learning for object detection in robotic grasping contexts

    Get PDF
    Dans la dernière décennie, les approches basées sur les réseaux de neurones convolutionnels sont devenus les standards pour la plupart des tâches en vision numérique. Alors qu'une grande partie des méthodes classiques de vision étaient basées sur des règles et algorithmes, les réseaux de neurones sont optimisés directement à partir de données d'entraînement qui sont étiquetées pour la tâche voulue. En pratique, il peut être difficile d'obtenir une quantité su sante de données d'entraînement ou d'interpréter les prédictions faites par les réseaux. Également, le processus d'entraînement doit être recommencé pour chaque nouvelle tâche ou ensemble d'objets. Au final, bien que très performantes, les solutions basées sur des réseaux de neurones peuvent être difficiles à mettre en place. Dans cette thèse, nous proposons des stratégies visant à contourner ou solutionner en partie ces limitations en contexte de détection d'instances d'objets. Premièrement, nous proposons d'utiliser une approche en cascade consistant à utiliser un réseau de neurone comme pré-filtrage d'une méthode standard de "template matching". Cette façon de faire nous permet d'améliorer les performances de la méthode de "template matching" tout en gardant son interprétabilité. Deuxièmement, nous proposons une autre approche en cascade. Dans ce cas, nous proposons d'utiliser un réseau faiblement supervisé pour générer des images de probabilité afin d'inférer la position de chaque objet. Cela permet de simplifier le processus d'entraînement et diminuer le nombre d'images d'entraînement nécessaires pour obtenir de bonnes performances. Finalement, nous proposons une architecture de réseau de neurones ainsi qu'une procédure d'entraînement permettant de généraliser un détecteur d'objets à des objets qui ne sont pas vus par le réseau lors de l'entraînement. Notre approche supprime donc la nécessité de réentraîner le réseau de neurones pour chaque nouvel objet.In the last decade, deep convolutional neural networks became a standard for computer vision applications. As opposed to classical methods which are based on rules and hand-designed features, neural networks are optimized and learned directly from a set of labeled training data specific for a given task. In practice, both obtaining sufficient labeled training data and interpreting network outputs can be problematic. Additionnally, a neural network has to be retrained for new tasks or new sets of objects. Overall, while they perform really well, deployment of deep neural network approaches can be challenging. In this thesis, we propose strategies aiming at solving or getting around these limitations for object detection. First, we propose a cascade approach in which a neural network is used as a prefilter to a template matching approach, allowing an increased performance while keeping the interpretability of the matching method. Secondly, we propose another cascade approach in which a weakly-supervised network generates object-specific heatmaps that can be used to infer their position in an image. This approach simplifies the training process and decreases the number of required training images to get state-of-the-art performances. Finally, we propose a neural network architecture and a training procedure allowing detection of objects that were not seen during training, thus removing the need to retrain networks for new objects

    Contrôle adaptatif et autoréglage : applications de l'approximation stochastique

    Full text link
    Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal

    Le parfum de la défense des plantes en forêt amazonienne

    Get PDF
    L'objectif de cette thèse était d'étudier différents aspects de l'écologie et de l'évolution des traits de défense des arbres tropicaux. Dans une première partie, j'ai mis en évidence l'importance et la diversité des composés organiques volatils (COVs) dans la défense des arbres tropicaux en étudiant les différences intra et interspécifiques dans le mélange de composés émis. De futures études centrées sur ces composés devraient permettre d'améliorer nos connaissances sur leur importance écologique et évolutive dans les interactions entre les plantes et les herbivores en milieu tropical. Dans une deuxième partie, j'ai mis en évidence un changement dans la distribution des traits foliaires liés à la défense et à l'efficacité de la photosynthèse entre les communautés de plantules dans le sous-bois et les communautés d'arbres de canopée : les arbres adultes possèdent des feuilles plus dures, plus denses et avec de plus grandes quantités d'azote et de phosphore que les plantules.The main objective of this PhD was to study several aspects of the ecology and evolution of defensive traits in tropical tree species. In a first part of this PhD, I highlighted the importance of Volatile Organic Compounds VOCs in the defense of tropical trees by studying intra and interspecific differences in the mixture of compounds. Future studies focused on these compounds should help improve our understanding of their ecological and evolutionary importance in plant-herbivore interactions. In a second part, I studied leaf functional traits linked to defense and photosynthesis in tropical sapling and tree communities and showed that adult trees tend to possess tougher and denser leaves with a higher nitrogen and phosphorous content

    The impact of aging and language proficiency on the interhemispheric dynamics for discourse processing: a nirs study

    Get PDF
    Tese (doutorado) - Universidade Federal de Santa Catarina, Centro de Comunicação e Expressão. Programa de Pós-graduação em Letras/Inglês e Literatura CorrespondenteO estudo do cérebro bilíngüe e em fase de envelhecimento pode trazer evidências importantes para nossa compreensão da dinâmica cerebral no processamento lingüístico. Há uma necessidade de se implementarem estudos que investiguem o processamento do discurso por estas populações. Neste estudo, investigou-se o processamento de narrativas em seus níveis micro-, macro-proposicional e situacional por bilíngües de proficiência intermediária na língua estrangeira (L1 inglês e L2 francês) e por indivíduos idosos. Os participantes leram narrativas seguidas de asserções as quais contemplavam um dos três níveis do discurso e julgavam a plausibilidade da informação apresentada na asserção com referência ao texto correspondente. Os resultados trazidos pelo estudo sugerem a possibilidade da aplicação de abordagens teóricas similares para explicar o processamento lingüístico nestas duas populações. Embora originadas por diferentes razões (envelhecimento ou reduzida proficiência na segunda língua), as deficiências ou limitações trazidas à compreensão da linguagem geram padrões comparáveis nas mudanças hemodinâmicas no cérebro (por exemplo, mudanças hemodinâmicas mais significativas, difusas ou em alguns casos bilaterais), as quais parecem poder ser explicadas através do mesmo enquadramento teórico, proposto por Banich e colegas. A partir dos dados, parece plausível afirmar-se que, em ambos os grupos, os hemisférios tenderam a cooperar e dividir os custos impostos pelo processamento da tarefa, ou solicitaram uma mais prominente ativação na área recrutada para executar a tarefa. De modo semelhante ao que é postulado pelo modelo, um aumento na ativação em uma região e/ou as contribuições entre os hemisférios foram positivamente correlacionadas ao nível de complexidade da tarefa. The study of the bilingual and of the aging brain has the potential to offer important evidences for our understanding of the cerebral dynamics for language processing. There is a special need of studies to investigate discourse processing by these populations. In this study, intermediate-proficiency bilinguals (English as L1 and French as L2) and elderly individuals' narrative processing at the micro-, macro-structural and situational levels were investigated, by the application of near-infrared spectroscopy (NIRS). Participants read narratives followed by probes, which tapped one of the three levels, and judged the plausibility of their information by reference to the corresponding passage. The findings brought by the study suggest the possibility of the application of similar theoretical approaches to explain language processing in these two populations. Although emerging from different reasons (aging or low proficiency in the L2), the deficits or limitations brought to language comprehension generate some comparable inter-hemispheric patterns in brain hemodynamics (for instance that of more relevant, wider and in some cases bilateral hemodynamic changes), which are compatible with the theoretical framework proposed by Banich and colleagues. Thus, it seems to be arguable that in both populations the hemispheres tended to cooperate and share the costs for task processing, or demanded an increased activation in the recruited area in order to accomplish the task. Similarly to the assumptions made by the model, it seems to be plausible to state that the increase of activation within a region and/or the interhemispheric contributions were positively correlated to the amount of task difficulty

    Hydrology of mediterranean and semiarid regions

    Get PDF

    Application de la réflectométrie GNSS à l'étude des redistributions des masses d'eau à la surface de la Terre

    Get PDF
    GNSS reflectometry (or GNSS-R) is an original and opportunistic remote sensing technique based on the analysis of the electromagnetic waves continuously emitted by GNSS positioning systems satellites (GPS, GLONASS, etc.) that are captured by an antenna after reflection on the Earth’s surface. These signals interact with the reflective surface and hence contain information about its properties. When they reach the antenna, the reflected waves interfere with those coming directly from the satellites. This interference is particularly visible in the signal-to-noise ratio (SNR) parameter recorded by conventional GNSS stations. It is thus possible to reverse the SNR time series to estimate the reflective surface characteristics. If the feasibility and usefulness of thismethod are well established, the implementation of this technique poses a number of issues. Namely the spatio-temporal accuracies and resolutions that can be achieved and thus what geophysical observables are accessible.The aim of my PhD research work is to provide some answers on this point, focusing on the methodological development and geophysical exploitation of the SNR measurements performed by conventional GNSS stations. I focused on the estimation of variations in the antenna height relative to the reflecting surface (altimetry) and on the soil moisture in continental areas. The SNR data inversion method that I propose has been successfully applied to determine local variations of: (1) the sea level near the Cordouan lighthouse (not far from Bordeaux, France) from March 3 to May 31, 2013, where the main tidal periods and waves have been clearly identified ; and (2) the soil moisture in an agricultural plot near Toulouse, France, from February 5 to March 15, 2014. My method eliminates some restrictions imposed in earlier work, where the velocity of the vertical variation of the reflective surface was assumed to be negligible. Furthermore, I developed a simulator that allowed me to assess the influence of several parameters (troposphere, satellite elevation angle, antenna height, local relief, etc.) on the path of the reflected waves and hence on the position of the reflection points. My work shows that GNSS-R is a powerful alternative and a significant complement to the current measurement techniques, establishing a link between the different temporal and spatial resolutions currently achieved by conventional tools (sensors, radar, scatterometer, etc.). This technique offers the major advantage of being based on already-developed and sustainable satellites networks, and can be applied to any GNSS geodetic station, including permanent networks (e.g., the French RGP). Therefore, by installing a processing chain of these SNR acquisitions, data from hundreds of pre-existing stations could be used to make local altimetry measurements in coastal areas or to estimate soil moisture for inland antennas.La réflectométrie GNSS (ou GNSS-R) est une technique de télédétection originale et pportuniste qui consiste à analyser les ondes électromagnétiques émises en continu par la soixantaine de satellites des systèmes de positionnement GNSS (GPS, GLONASS, etc.), qui sont captées par une antenne après réflexion sur la surface terrestre. Ces signaux interagissent avec la surface réfléchissante et contiennent donc des informations sur ses propriétés. Au niveau de l’antenne, les ondes réfléchies interfèrent avec celles arrivant directement des satellites. Ces interférences sont particulièrement visibles dans le rapport signal-sur-bruit (SNR, i.e., Signal-to-Noise Ratio), paramètre enregistré par une station GNSS classique. Il est ainsi possible d’inverser les séries temporelles du SNR pour estimer des caractéristiques du milieu réfléchissant. Si la faisabilité et l’intérêt de cette méthode ne sont plus à démontrer, la mise en oeuvre de cette technique pose un certain nombre de problèmes, à savoir quelles précisions et résolutions spatio-temporelles peuvent être atteintes, et par conséquent, quels sont les observables géophysiques accessibles.Mon travail de thèse a pour objectif d’apporter des éléments de réponse sur ce point, et est axé sur le développement méthodologique et l’exploitation géophysique des mesures de SNR réalisées par des stations GNSS classiques.Je me suis focalisé sur l’estimation des variations de hauteur de l’antenne par rapport à la surfaceréfléchissante (altimétrie) et de l’humidité du sol en domaine continental. La méthode d’inversion des mesures SNR que je propose a été appliquée avec succès pour déterminer les variations locales de : (1) la hauteur de la mer au voisinage du phare de Cordouan du 3 mars au 31 mai 2013 où les ondes de marées et la houle ont pu être parfaitement identifiées ; et (2) l’humidité du sol dans un champ agricole à proximité de Toulouse, du 5 février au 15 mars 2014. Ma méthode permet de s’affranchir de certaines restrictions imposées jusqu’à présent dans les travaux antérieurs, où la vitesse de variation verticale de la surface de réflexion était supposée négligeable. De plus, j’ai développé un simulateur qui m’a permis de tester l’influence de nombreux paramètres (troposphère, angle d’élévation du satellite, hauteur d’antenne, relief local, etc.) sur la trajectoire des ondes réfléchies et donc sur la position des points de réflexion. Mon travail de thèse montre que le GNSS-R est une alternative performante et un complément non négligeable aux techniques de mesure actuelles, en faisant le lien entre les différentes résolutions temporelles et spatiales actuellement atteintes par les outils classiques (sondes, radar, diffusiomètres, etc.). Cette technique offre l’avantage majeur d’être basé sur un réseau de satellites déjà en place et pérenne, et est applicable à n’importe quelle station GNSS géodésique, notamment celles des réseaux permanents (e.g., le RGP français). Ainsi, en installant une chaîne de traitement de ces acquisitions de SNR en domaine côtier, il serait possible d’utiliser les mesures continues des centaines de stations pré-existantes, et d’envisager de réaliser des mesures altimétriques à l’échelle locale, ou de mesurer l’humidité du sol pour les antennes situées à l’intérieur des terres

    La variabilité régionale du niveau de la mer

    Get PDF
    Au cours du XXème siècle, les mesures marégraphiques ont permis d'estimer la hausse du niveau de la mer global à 1.7 mm.a-1. Depuis deux décennies, les observations faites par les satellites altimétriques indiquent une hausse du niveau de la mer plus rapide, de 3.2 mm. a-1 sur la période 1993-2011. Grâce à leur couverture quasi-globale, les observations spatiales ont aussi révélé une forte variabilité régionale dans la hausse du niveau de la mer qui dépasse de beaucoup la hausse moyenne globale dans de nombreuses régions du globe. Cette composante régionale qui s'ajoute à la hausse globale pour donner le niveau de la mer total local, est essentielle dans l'étude des impacts de la hausse du niveau de la mer sur les régions côtières et les îles basses. Dans cette thèse, nous analysons les observations de la variabilité régionale de la hausse du niveau de la mer, nous proposons une reconstruction de cette variabilité régionale depuis 1950 (i.e. avant l'avènement de l'altimétrie spatiale) et nous étudions ses causes et ses origines. Tout d'abord, nous proposons une reconstruction de la variabilité régionale du niveau de la mer dans le passé (avant la période altimétrique) en combinant des données marégraphiques avec les structures spatiales propres de l'océan déduites des modèles d'océan. Cette méthode permet de reconstruire le niveau de la mer en 2 dimensions depuis 1950, sur la majeure partie du globe, avec une résolution proche de celle de l'altimétrie spatiale. Ensuite, nous appliquons la méthode de reconstruction pour estimer la variabilité régionale de la hausse du niveau de la mer passée dans trois régions sensibles au réchauffement climatique : le Pacifique tropical, la mer Méditerranée et l'océan Arctique. Nous en déduisons pour ces régions la hausse totale ( régionale plus moyenne globale) du niveau de la mer local au cours des dernières décennies. Pour les sites où l'on dispose de mesures du mouvement de la croûte terrestre, nous évaluons la hausse local du niveau de la mer relatif (i.e. hausse du niveau de la mer totale plus mouvement de la croûte local) depuis 1950. Le but est de permettre les études de l'impact local de la hausse du niveau de la mer aux échelles climatiques. Enfin, nous analysons l'origine de la variabilité régionale de la hausse du niveau de la mer pour déterminer si elle est due à l'activité anthropique ou si elle résulte de la variabilité naturelle du système climatique. Nous nous focalisons sur le Pacifque tropical qui est marqué par une très forte variabilité régionale de la hausse du niveau de la mer depuis 1993. Grâce a la reconstruction du niveau de la mer depuis 1950, nous montrons que cette variabilité régionale récente (17 dernières années) n'est pas stationnaire dans le temps mais qu'elle fluctue en lien avec une basse fréquence du mode de variabilité ENSO. Avec les modèles de climat du projet CMIP3, nous montrons de plus que cette variabilité régionale est essentiellement d'origine naturelle (variabilité interne du système climatique) et que l'impact anthropique y est trop faible pour l'instant pour y être détecté.Over the XXth century, tide gauge records indicate a rise in global sea level of 1.7 mm.a-1. For the past two decades, satellite altimetry data indicate a faster sea level rise of 3.2 mm.a-1 (period 1993-2011). Thanks to its global coverage, they also reveal a strong regional variability in sea level rise that is several times bigger than the global rise in many regions of the world. This regional signal, which must be added to the global sea level rise to compute the total sea level signal, is essential when assessing the potential impacts of sea level rise in coastal areas and low lying islands. In this thesis, we analyse the observed regional variability in sea level rise from satellite altimetry (since 1993), we propose a reconstruction of the past regional variability since 1950 (i.e. prior to altimetry) and we discuss its causes (thermal expansion of the ocean plus land ice loss) and origins (from natural or anthropogenic origin). First, we propose a reconstruction of the sea level variations for the past decades (before the altimetry era) by combining tide gauge records with the principal spatial structures of the ocean deduced from ocean general circulation models. This method enables to reconstruct the 2 dimensional sea level variations since 1950 with a spatial coverage and resolution similar to the satellite altimetry ones. In the second part of this thesis, the reconstruction method is applied to estimate the past regional variability in three regions which are particularly vulnerable to sea level rise: the tropical Pacific, the Mediterranean sea and the Arctic ocean. For each region, the reconstruction gives an estimation of the total (regional component plus global mean) 2-dimensional sea level rise over the past decades. For the sites where vertical crustal motion monitoring is available, we compute as well the total relative sea level (i.e. total sea level rise plus the local vertical crustal motion) since 1950. The objective is to provide estimates of the relative local sea level rise at climatic time scales to allow further studies on the coastal impacts of sea level rise. In the last part of this thesis, the question of the origins of the regional variability in sea level rise is addressed. We examine whether the regional variability in observed sea level rise since 1993 is a consequence of the anthropogenic activity or if it results essentially from the natural variability of the climate system. We focus on the Tropical Pacific where the regional variability in sea level rise is particularly strong since 1993. On the basis of the reconstruction of the sea level variations since 1950, we show that the recent regional variability in sea level rise observed by satellite (over the last 17 years) in this region is not stationnary. It fluctuates with time, following some low frequency of the ENSO climate mode of variability. With the CMIP3 climate models, we show that this regional variability is dominated by the natural variability of the climate system (essentially by the internal variability of the climate system) and that the signature of the anthropogenic activity is still too weak in this region to be detected

    Approche probabiliste d’adaptation posologique : concrétisation en outil de santé mobile pour l’aide à la décision clinique du trouble du déficit d’attention avec ou sans hyperactivité

    Full text link
    L’atteinte d’un meilleur effet thérapeutique par une posologie effective et adaptée aux besoins spécifiques des patients reste un but ultime de tout praticien. L’utilisation des psychostimulants, largement basée sur des processus essai-erreur, reflète cette situation de façon factuelle chez les enfants diagnostiqués avec le trouble de déficit de l’attention, avec ou sans hyperactivité (TDA/H). Dans ce contexte, les approches pharmacométriques prenant appui sur des nouvelles technologies informatiques et concrétisées en outils de santé mobile, se présentent comme une solution d’avenir à fort potentiel. Cette thèse porte sur le développement d’une approche d’adaptation posologique des psychostimulants et leurs combinaisons dans le but de sélectionner des régimes d’administration optimaux, tout en considérant les caractéristiques de la population pédiatrique et sa routine quotidienne. Pour cela, nous avons introduit des indicateurs thérapeutiques impliquant le temps ou la concentration et les avons réunis dans l’expression d’une fonction mathématique d’évaluation probabiliste de la performance des régimes d’administration modulée par l’expérience clinique. En considérant trois niveaux successifs d’adaptation posologique (populationnel, de groupe et individuel) et en tenant compte des propriétés du médicament et du contexte clinique, nous avons développé un algorithme d’optimisation multiobjective par une approche de modélisation et simulation de la pharmacocinétique de population. Ceci a donné lieu à une sélection a priori, au niveau de la population ou du groupe, ou a posteriori, au niveau de l’individu, de la dose journalière totale du méthylphénidate et de son fractionnement en matière de doses et de temps d’administration. Une autre contribution importante de cette thèse se reflète dans l’aspect translationnel des travaux de recherche inclus. En effet, une application mobile a été concrétisée à partir des algorithmes développés, prête à être utilisée dans la prescription quotidienne des psychostimulants afin d’en améliorer l’usage. Ce parcours de recherche, allant de la conception méthodologique à la valorisation clinique, constitue une preuve de plus du potentiel croissant de la pharmacométrieThe achievement of a better therapeutic effect through an effective dosage adapted to patients’ specific needs remains the ultimate goal of any practitioner. The prescription of psychostimulant drugs in Attention Deficit Hyperactivity Disorder, largely based on trial and error, reflects this reality. Within this context, pharmacometric approaches based on new computing technologies and embodied in mobile health tools, present themselves as a future solution with high potential. This thesis deals with the development of a dose adjustment approach of psychostimulants and their combinations in order to select optimal administration regimens, all the while considering the characteristics of the pediatric population and its daily routine. For this, we have introduced therapeutic indicators involving time or blood concentration and combined them in the form of a mathematical function that evaluates administration regimes’ probabilistic performance as modulated by clinical judgment. By considering three successive levels of dose adjustment (population, group and individual) and taking into account the drug properties and the clinical context, we developed a multi-objective optimization algorithm using a population pharmacokinetic based modeling and simulation approach. This resulted in an a priori selection of the methylphenidate’s total daily dose and its fractioning in terms of doses and administration time, at the population or group level, or a posteriori, at the individual level. Another important contribution of this thesis is reflected in the translational aspect of the included research work. Indeed, a mobile application has been concretized from the algorithms developed, ready to be used in the daily prescription of psychostimulants in order to improve their use. This research path, ranging from methodological design to clinical valorisation, is further evidence of the growing potential of pharmacometry in the digital and mobile age

    Analyse supervisée multibloc en grande dimension

    Get PDF
    Statistical learning objective is to learn from observed data in order to predict the response for a new sample. In the context of vaccination, the number of features is higher than the number of individuals. This is a degenerate case of statistical analysis which needs specific tools. The regularization algorithms can deal with those drawbacks. Different types of regularization methods can be used which depends on the data set structure but also upon the question. In this work, the main objective was to use the available information with soft-thresholded empirical covariance matrix estimations through SVD decompositions. This solution is particularly efficient in terms of variable selection and computation time. Heterogeneous typed data sets (coming from different sources and also called multiblock data) were at the core of our methodology. Since some data set generations are expensive, it is common to down sample the population acquiring some types of data. This leads to multi-block missing data patterns. The second objective of our methodology is to deal with those missing values using the response values. But the response values are not present in the test data sets and so we have designed a methodology which permits to consider both the cases of missing values in the train or in the test data sets. Thanks to soft-thresholding, our methodology can regularize and select features. This estimator needs only two parameters to be fixed which are the number of components and the maximum number of features to be selected. The corresponding tuning is performed by cross-validation. According to simulations, the proposed method shows very good results comparing to benchmark methods, especially in terms of prediction and computation time. This method has also been applied to several real data sets associated with vaccine, thomboembolic and food researches.L’apprentissage statistique consiste à apprendre à partir de données mesurées dans un échantillon d’individus et cherche à prédire la grandeur d’intérêt chez un nouvel individu. Dans le cas de la vaccination, ou dans d’autres cas dont certains présentés dans ce manuscrit, le nombre de variables mesurées dépasse le nombre d’individus observés, c’est un cas dégénéré d’analyse statistique qui nécessite l’utilisation de méthodes spécifiques. Les propriétés des algorithmes de régularisation permettent de gérer ces cas. Il en existe plusieurs types en fonction de la structure des données considérées et du problème qui sont étudiés. Dans le cas de ce travail, l’objectif principal a été d’utiliser l’information disponible à l’issue de décompositions en éléments propres des matrices de covariances transformées via un opérateur de seuillage doux. Cette solution est particulièrement peu coûteuse en termes de temps de calcul et permet la sélection des variables d’intérêt. Nous nous sommes centrés sur les données qualifiées d’hétérogènes, c’est à dire issues de jeux de données qui sont provenant de sources ou de technologies distinctes. On parle aussi de données multiblocs. Les coûts d’utilisation de certaines technologies pouvant être prohibitifs, il est souvent choisi de ne pas acquérir certaines données sur l’ensemble d’un échantillon, mais seulement sur un sous-échantillon d’étude. Dans ce cas, le jeu de données se retrouve amputé d’une partie non négligeable de l’information. La structure des données associée à ces défauts d’acquisition induit une répartition elle-même multibloc de ces données manquantes, on parle alors de données manquantes par blocs. Le second objectif de notre méthode est de gérer ces données manquantes par blocs en s’appuyant sur l’information à prédire, ceci dans le but de créer un modèle prédictif qui puisse gérer les données manquantes aussi bien pour les données d’entraînement que pour celles de test. Cette méthode emprunte au seuillage doux afin de sélectionner les variables d’intérêt et ne nécessite que deux paramètres à régler qui sont le nombre de composantes et le nombre de variables à sélectionner parmi les covariables. Ce paramétrage est classiquement réalisé par validation croisée. La méthode développée a fait l’objet de simulations la comparant aux principales méthodes existantes. Elle montre d’excellents résultats en prédiction et en termes de temps de calcul. Elle a aussi été appliquée à plusieurs jeux de donnée
    corecore