4,516 research outputs found

    Sur quelques idées fausses ayant des conséquences en identification

    No full text
    International audienceIdentification is more an art form than an exact science, and it is based on intuition just as much as on a large variety of techniques. Tradition is a major factor, and customs that may only have history as a justification should be questioned. Examples are the confidence bestowed on classical mathematical formulas even when they turn out not to be suited for computer implementation, the quasi-exclusive role played by the minimization of quadratic cost functions, the use of finite-difference approximations for the computation of gradients, the almost exclusive resort to local, non-guaranteed techniques for the identification and simulation of nonlinear models. For all of these topics, alternative approaches are suggested

    Synthèse des contributions - consultation publique sur l\u27action "Soutien aux usages, services et contenus numériques innovants" (du 7 juin au 7 juillet 2010)

    Get PDF
    Synthèse des résultats de la consultation publique sur le volet usages, services et contenus des investissements d\u27avenir. Les quatre cents contributeurs de cette consultation étaient interrogés sur les cinq items suivants : 1. Complémentarité avec les infrastructures à très haut débit 2. Développement du cloud computing 3. Numérisation des contenus 4. Développement des technologies de base du numérique 5. Développement des nouveaux usage

    Étude des effets reliés à la taille du domaine d'intégration d'une simulation climatique régionale avec le protocole du grand frère

    Get PDF
    Les modèles régionaux de climat (MRCs) permettent de simuler les écoulements atmosphériques sur une région limitée de la surface terrestre. Pilotés à leurs frontières latérales par des données à basse résolution provenant de modèles mondiaux (MCGs), ils permettent d'augmenter considérablement la résolution spatiale des simulations en vue de répondre au besoin grandissant d'évaluer les impacts régionaux reliés aux changements climatiques. Plusieurs études ont démontré que la taille du domaine régional est un paramètre pouvant affecter considérablement les résultats des simulations. En effet, le domaine doit être assez grand pour permettre le développement des fines échelles qui n'existent pas dans les conditions aux frontières latérales. D'un autre côté, une simulation effectuée sur un trop grand domaine peut montrer d'importantes différences avec les données de pilotage si aucun forçage des grandes échelles n'est appliqué à l'intérieur du domaine régional. Les effets reliés à la taille du domaine d'intégration d'une simulation MRC sont évalués selon le cadre expérimental du "Grand-Frère". L'expérience consiste d'abord à générer une simulation climatique à haute résolution (-45 km) sur un domaine continental couvrant la majorité de l'Amérique du Nord, sur 196x196 points de grille. Cette simulation de référence, le Grand-Frère (GF), est ensuite traitée à l'aide d'un filtre passe-bas ayant la propriété de conserver les plus grandes échelles de l'écoulement (approximativement ≥ 2160 km). La série de données ainsi obtenue, le Grand-Frère Filtré (GFF), possède un niveau de détails similaire à celui des données provenant des MCGs. On utilise alors le GFF pour piloter quatre simulations, les Petits-Frères (PFs), à l'aide du même modèle mais sur des domaines plus restreints et de tailles différentes qu'on notera PFl à PF4, et qui ont des dimensions respectives de 144x144, 120x120, 96x96 et 72x72 points de grille. Les résultats des PFs sont comparés avec le GF en cumulant les statistiques climatiques (moyenne temporelle et écart-type) sur quatre mois d'hiver, au-dessus d'une zone commune correspondant pratiquement à la province canadienne du Québec. De manière générale, les patrons (pression, vent, humidité relative et taux de précipitation) des PFs s'améliorent en corrélation spatiale par rapport au GF lorsque le domaine est réduit de 144x144 à 72x72. Cette tendance a aussi été observée pour la moyenne temporelle des fines échelles de l'écoulement. Toutefois, il a été observé que l'intensité de la variabilité transitoire (écart-type) de ces échelles pouvait être compromise par la proximité des frontières latérales par rapport à la zone d'intérêt. En effet, d'importantes sous-estimations ont été détectées, particulièrement du côté entrant du domaine, ce qui suggère l'existence d'une distance de "spin-up" se devant d'être parcourue par l'écoulement avant que celui-ci démontre des particularités de fines échelles. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Modèle régional de climat, Sensibilité à la taille du domaine, Petites échelles, Protocole du Grand-Frère

    Mise en application du reservoir computing pour l'analyse de la marche avec capteur IMU

    Get PDF
    L’analyse de la marche est une science qui s'assure de comprendre le lien entre les mouvements impliqués lors de la marche et la progression de maladies dégénératives articulaires et musculaires des membres inférieurs, comme l'arthrose du genou. Des traitements cliniques non invasifs permettent maintenant de limiter cette progression en modifiant la démarche des patients. Afin d'améliorer ces interventions cliniques, les technologies portatives IMU ont pris une place importante permettant de suivre l’état des patients dans la vie quotidienne. Une grande variabilité de mouvement en milieu écologique nécessite toutefois l’utilisation d’algorithmes de traitement de plus en plus robustes pour un capteur portatif, en plus de considérer une mémoire, une consommation et un volume limités. La technologie de reservoir computing par système micro-électro-mécanique (RC-MEMS) développée à l'Institut Interdisciplinaire d'Innovation Technologique de l'université de Sherbrooke (3IT) est un capteur inertiel intelligent qui démontre des capacités de classification de signaux et de prédiction de fonctions temporelles non linéaires. Cette technologie se base sur le paradigme d’intelligence artificielle nommée le reservoir computing, conçue pour traiter des signaux temporels tout en limitant la complexité de la phase d’entraînement. La réduction de la taille du capteur et de la consommation énergétique de la technologie RC-MEMS fait de lui une alternative très intéressante pour un capteur portatif conventionnel. Dans ce projet, nous avons fait une preuve de concept de l'application du reservoir computing (RC) pour la résolution de trois tâches de prédictions biomécaniques pertinentes pour le traitement de l’arthrose : la détection des évènements de marche, la classification de partons de marche et la prédiction des forces aux sols. Nous avons testé un algorithme de reservoir computing numérique appelé le Echo states Network (ESN) pour tester ces tâches. Des critères de conception sur la taille et la vitesse de traitement du RC numérique ont été sélectionnés afin que ce traitement soit compatible avec l’application du RC-MEMS. Des recommandations sur l’implémentation dans le contexte clinique du réservoir computer sont identifiées. Nos résultats montrent que l’algorithme du ESN est en mesure d’accomplir ces 3 types tâches. Les deux premières tâches, la prédiction des évènements de marche (GED) et la classification de patron de marche (CPDM) sont accomplies avec un niveau de précision satisfaisant, et confirment que le RC peut réellement servir dans un contexte clinique. La troisième tâche, consistant à faire une prédiction des forces de réactions au sol (PFS), obtenait des résultats comparables à la moyenne des résultats obtenus dans la littérature, mais cela reste insuffisant en termes de précisions pour l’utiliser pour traiter l’arthrose. Une amélioration de la méthode d’entraînements, appelé le kernel training, spécifiquement appliqué pour le PFS permet de minimiser l’erreur en segmentant les données d’entraînement de la méthode RC sur des intervalles temporel de marche spécifique

    Statistique et Big Data Analytics; Volumétrie, L'Attaque des Clones

    Get PDF
    This article assumes acquired the skills and expertise of a statistician in unsupervised (NMF, k-means, SVD) and supervised learning (regression, CART, random forest). What skills and knowledge do a statistician must acquire to reach the "Volume" scale of big data? After a quick overview of the different strategies available and especially of those imposed by Hadoop, the algorithms of some available learning methods are outlined in order to understand how they are adapted to the strong stresses of the Map-Reduce functionalitie

    Accélération matérielle pour l’imagerie sismique : modélisation, migration et interprétation

    Get PDF
    During the seismic imaging workflow, from seismic modeling to interpretation, processingseismic data requires a massive amount of computation. We show in this work that, at eachstage of this workflow, hardware accelerators such as GPUs may help reducing the time requiredto process seismic data while staying at reasonable energy consumption levels.In this work, the key programming considerations needed to achieve good performance are describedand discussed. The importance of adapted in-memory data access patterns is particularlyemphasised since data access is the main bottleneck for the considered algorithms. When usingGPUs, speedup ratios of 40× are achieved for FDTD seismic modeling, and 8× up to 113× forseismic attribute computation compared to CPUs.La donnée sismique depuis sa conception (modélisation d’acquisitions sismiques), dans sa phase de traitement (prétraitement et migration) et jusqu’à son exploitation pour en extraire les informations géologiques pertinentes nécessaires à l’identification et l’exploitation optimale des réservoirs d’hydrocarbures (interprétation), génère un volume important de calculs. Nous montrons dans ce travail de thèse qu’à chacune de ces étapes l’utilisation de technologies accélératrices de type GPGPU permet de réduire radicalement les temps de calcul tout en restant dans une enveloppe de consommation électrique raisonnable. Nous présentons et analysons les éléments sous-jacents à ces performances. L’importance de l’utilisation de motifs d’accès mémoire adéquats est particulièrement mise en exergue étant donné que l’accès à la mémoire représente le principal goulot d’étranglement pour les algorithmes abordés. Nous reportons des facteurs d’accélération de l’ordre de 40 pour la modélisation sismique par résolution de l’équation d’onde par différences finies (brique de base pour la modélisation et l’imagerie sismique) et entre 8 et 113 pour le calcul d’attributs sismiques. Nous démontrons que l’utilisation d’accélérateurs matériels élargit considérablement le champ du possible, aussi bien en imagerie sismique (modélisation de nouveaux types d’acquisitions à grande échelle) qu’en interprétation (calcul d’attributs complexes sur station de travail, paramétrage interactif des calculs, etc.)

    Implémentation et évaluation d’algorithmes parallèles de FFTs 3D à base de modèles de composants logiciels

    Get PDF
    International audienceThe Fast Fourier Transform (FFT) is a widely-used building block for many high-performance scientific applications. Efficient computing of FFT is paramount for the performance of these applications. This has led to many efforts to implement machine and computation specific optimizations. However, no existing FFT library is capable of easily integrating and automating the selection of new and/or unique optimizations.To ease FFT specialization, this study evaluates the use of component-based software engineering, a programming paradigm which consists in building applications by assembling small software units. Component models are known to have many software engineering benefits but usually have insufficient performance for high-performance scientific applications.This talk uses the L²C model, a general purpose high-performance component model, and studies its performance and adaptation capabilities on 3D FFTs. Experiments show that L²C, and components in general, enables easy handling of 3D FFT specializations while obtaining performance comparable to that of well-known libraries.La transformée de Fourier rapide (FFT) est un élément fondamentale fréquemment utilisé dans de nombreuses applications scientifiques de haute performance. Calculer efficacement des FFT est ainsi primordial pour la performance de ces applications. Cela a conduit à de nombreux efforts pour implémenter des optimisations spécifiques à un matériel ou à une classe d'algorithmes donnée. Cependant, aucune bibliothèque de FFT existante permet facilement d'intégrer et d'automatiser la sélection de nouvelles optimisations et / ou d'optimisations uniques.Cette étude vise à évaluer l'utilisation de techniques de génie logicielle à base de composants, un paradigme de programmation qui consiste à construire des applications en assemblant de petites briques logiciels. Les modèles de composants sont connus pour avoir de nombreux avantages de génie logiciel, mais ont généralement des performances insuffisantes pour les applications scientifiques de haute performance.Cette étude s'intéresse à l'utilisation du modèle L²C, un modèle de composants de haute performance, et étudie ses performances et sa capacités à pouvoir adapter les applications de FFT 3D. Les expériences montrent que L²C et les composants en général, permettent de manipuler facilement la structure des applications de FFT 3D via une spécialisations d'assemblage, tout en obtenant des performances comparables à celle des bibliothèques bien connues

    Contribution au calcul sur GPU: considérations arithmétiques et architecturales

    Get PDF
    L’optimisation du calcul passe par une gestion conjointe du matériel et du logiciel. Cette règle se trouve renforcée lorsque l’on aborde le domaine des architectures multicoeurs où les paramètres à considérer sont plus nombreux que sur une architecture superscalaire classique. Ces architectures offrent une grande variété d’unité de calcul, de format de représentation, de hiérarchie mémoire et de mécanismes de transfert de donnée.Dans ce mémoire, nous décrivons quelques-uns de nos résultats obtenus entre 2004 et 2013 au sein de l'équipe DALI de l'Université de Perpignan relatifs à l'amélioration de l’efficacité du calcul dans sa globalité, c'est-à-dire dans la suite d’opérations décrite au niveau algorithmique et exécutées par les éléments architecturaux, en nous concentrant sur les processeurs graphiques.Nous commençons par une description du fonctionnement de ce type d'architecture, en nous attardant sur le calcul flottant. Nous présentons ensuite des implémentations efficaces d'opérateurs arithmétiques utilisant des représentations non-conventionnelles comme l'arithmétique multiprécision, par intervalle, floue ou logarithmique. Nous continuerons avec nos contributions relatives aux éléments architecturaux associés au calcul à travers la simulation fonctionnelle, les bancs de registres, la gestion des branchements ou les opérateurs matériels spécialisés. Enfin, nous terminerons avec une analyse du comportement du calcul sur les GPU relatif à la régularité, à la consommation électrique, à la fiabilisation des calculs ainsi qu'à laprédictibilité
    • …
    corecore