112 research outputs found

    CRASY a reconfigurable arithmetic architecture for neural networks analysis

    Get PDF
    Since a few years, neural networks analysis rouses great interests. According to this approach, the study of postulated functions in the nervous system demands some powerful simulation tools . Taking inspiration from general features of signais processing and front present tendances toward parallelism in computer architecture, we propose an efficient array processor architecture for recursive adoptive networks analysis and more generally for data (signal, image) analysis : it's the processor named CRAS Y (a systolique calculator for adaptive networks) .Depuis de nombreuses années, l'analyse de réseaux neuronaux suit un essor fantastique . L'étude suivant cette approche des fonctions postulées dans le système nerveux requiert de puissants outils de simulation . En nous inspirant à la fois des caractéristiques générales en traitement des signaux et des tendances actuelles vers le parallélisme, en matière de structures de calculateurs, nous proposons une architecture d'« array » processeur performante pour l'étude de réseaux récursifs adaptatifs en particulier et pour l'analyse de données (signal, image) en général : c'est le processeur « CRASY » (Calculateur de Réseaux Adaptatifs SYstolique)

    Détection de communautés dans les réseaux d'information utilisant liens et attributs

    Get PDF
    Alors que les réseaux sociaux s'attachent à représenter des entités et les relations existant entre elles, les réseaux d'information intègrent également des attributs décrivant ces entités ; ce qui conduit à revisiter les méthodes d'analyse et de fouille de ces réseaux. Dans ces travaux, nous proposons des méthodes de classification des entités du réseau d'information qui exploitent d'une part les relations entre celles-ci et d'autre part les attributs les caractérisant. Nous nous penchons sur le cas des réseaux à vecteurs d'attributs, où les entités du réseau sont décrites par des vecteurs numériques. Ainsi nous proposons des approches basées sur des techniques reconnues pour chaque type d'information, faisant appel notamment à l'inertie pour la classification automatique et à la modularité de Newman et Girvan pour la détection de communautés. Nous évaluons nos propositions sur des réseaux issus de données bibliographiques, faisant usage en particulier d'information textuelle. Nous évaluons également nos approches face à diverses évolutions du réseau, notamment au regard d'une détérioration des informations des liens et des attributs, et nous caractérisons la robustesse de nos méthodes à celle-ciWhile social networks use to represent entities and relationships between them, information networks also include attributes describing these entities, leading to review the analysis and mining methods for these networks. In this work, we discuss classification of the entities in an information network. Classification operate simultaneously on the relationships and on the attributes characterizing the entities. We look at the case of attributed graphs where entities are described by numerical feature vectors. We propose approaches based on proven classification techniques for each type of information, including the inertia for machine learning and Newman and Girvan's modularity for community detection. We evaluate our proposals on networks from bibliographic data, using textual information. We also evaluate our methods against various changes in the network, such as a deterioration of the relational or vector data, mesuring the robustness of our methods to themST ETIENNE-Bib. électronique (422189901) / SudocSudocFranceF

    Une approche basée graphes pour la détection de zones fonctionnelles urbaines

    Get PDF
    International audienceDans cet article, nous proposons une méthode pour l'identification de zones fonctionnelles, utilisant la détection de communautés dans un graphe de mobilité. Les sommets du graphe correspondent à des unités spatiales, issues du découpage d'une ville suivant le réseau routier. Les arêtes relient des sommets entres lesquels des déplacements sont observés et sont pondérées en fonction du nombre de déplacements et de la distance entre sommets. Notre approche optimise la modularité sur ce réseau pour assurer que les zones fonctionnelles obtenues maximisent les interactions spatiales en leur sein. De plus, nous uti-lisons les points d'intérêts pour maintenir une hétérogénéité suffisante dans les zones détectées. Nous avons mené des expérimentations avec des trajectoires de taxi et des points d'intérêts de la ville de Porto, afin de montrer la capacité de notre approche à identifier les zones fonctionnelles

    Une méthode de dérivation de modèles de processeurs embarqués dédiés à une application

    Get PDF
    Processeur Xtensa -- ARC -- Improv systems -- Dérivation de processeurs pour la tolérance aux fautes -- Dérivation de circuits à partir d'un émulateur -- La méthode de dérivation de modèles de processeurs embarqués dédiés à une application -- Méthodes de design traditionnelles -- Outil d'analyse du microcode -- Étude de cas : le processeur PULSE V1 -- Optimisations du modèle -- Architecture PRODSP -- Architecture PULSE -- PRODSP -- Méthodologie et style de codage -- Validation -- Outils logiciels -- Optimisation du modèle -- Configurabilité du modèle -- Modifications du modèle -- Outil d'optimisation -- Interface-usager et exemple d'utilisation

    Contribution au calcul sur GPU: considérations arithmétiques et architecturales

    Get PDF
    L’optimisation du calcul passe par une gestion conjointe du matériel et du logiciel. Cette règle se trouve renforcée lorsque l’on aborde le domaine des architectures multicoeurs où les paramètres à considérer sont plus nombreux que sur une architecture superscalaire classique. Ces architectures offrent une grande variété d’unité de calcul, de format de représentation, de hiérarchie mémoire et de mécanismes de transfert de donnée.Dans ce mémoire, nous décrivons quelques-uns de nos résultats obtenus entre 2004 et 2013 au sein de l'équipe DALI de l'Université de Perpignan relatifs à l'amélioration de l’efficacité du calcul dans sa globalité, c'est-à-dire dans la suite d’opérations décrite au niveau algorithmique et exécutées par les éléments architecturaux, en nous concentrant sur les processeurs graphiques.Nous commençons par une description du fonctionnement de ce type d'architecture, en nous attardant sur le calcul flottant. Nous présentons ensuite des implémentations efficaces d'opérateurs arithmétiques utilisant des représentations non-conventionnelles comme l'arithmétique multiprécision, par intervalle, floue ou logarithmique. Nous continuerons avec nos contributions relatives aux éléments architecturaux associés au calcul à travers la simulation fonctionnelle, les bancs de registres, la gestion des branchements ou les opérateurs matériels spécialisés. Enfin, nous terminerons avec une analyse du comportement du calcul sur les GPU relatif à la régularité, à la consommation électrique, à la fiabilisation des calculs ainsi qu'à laprédictibilité

    2D PET backprojection acceleration through a 2D predictive cache

    Get PDF
    Reduction of image reconstruction time is a key point for the development and spreading of PET scans. Thus this article presentes a hardware/software architecture which aims at accelerating the 2D reconstruction on a SoPC (System on Programmable Chip) plateform, the new generation of reconfigurable chip. Issue posed by the latency of memory accesses has been solved thanks to the 2D Aptative and Predictive cache (2D-AP cache).Le développement et la diffusion des équipements TEP passent par la réduction des temps de calcul de la reconstruction des images acquises. Aussi cet article présente une solution mixte logicielle/matérielle pour l'accélération de la reconstruction 2D sur une plateforme SOPC (System on Programmable Chip), la nouvelle génération de circuits reconfigurables. Le verrou technologique posé par la latence des accès mémoire est levé grâce au cache 2D Adaptatif et Prédictif (cache 2D-AP)

    Méthodologie de modélisation des systèmes mécatroniques complexes à partir du multi-bond graph : application à la liaison BTP-fuselage d’un hélicoptère

    Get PDF
    Due to the operation of the rotor, the helicopter is subject to important vibrations affecting namely the fatigue of mechanical parts and the passengers comfort. The MGB-Fuselage joint equipped with the DAVI system is an anti-vibration system that helps to reduce, in a single frequency way, vibrations transmitted to the fuselage. Semi-active intelligent solutions are studied so that the filtering can be adjusted according to the vibration sources. Such studies suffer from a lack of tools and necessary methods, firstly, for the design of complex mechanical systems and secondly, for the development of an intelligent joint. This work proposes a modeling approach using a structural modeling tool : the multi-bond graph (MBG) which offers a global and modular view for the study of complex mechatronic systems such as helicopter. At first, an analysis of modeling tools leading to the selection of MBG is presented. Secondly, developments have focused on the MBG modeling of the 3D MGB-fuselage joint of an experimental setup which was designed and built in the laboratory. This joint is a mechanical system with kinematic loops. The equations of the dynamics of such system are a differential-algebraic system (DAE) requiring specific solving methods. The MBG model of the MGB-fuselage was simulated using the 20-sim software. The results were verified using the multibody software LMS Virtual Lab. A comparison of results obtained by the two methods led to a very good correlation to various cases of excitations of the MGB (pumping, roll, pitch). Thirdly, the MBG model was used for the establishment of semi-active control system. The model of the DAVI device also developed in 20-sim allows to adjust the position of the moving masses in operation so as to minimize the level of vibration of the fuselage. The control algorithm (gradient algorithm) enables to calculate the setpoint positions of the moving masses on the DAVI beaters. The position of the moving masses driven by an electric DC motor and a screw-nut system is then controlled to the setpoints generated by the control algorithm. Finally, the command could be implemented on a non-linear bond graph model which did not require a linearization to get a transfer function.De par le fonctionnement de son rotor, l'hélicoptère est le siège de vibrations mécaniques importantes impactant notamment la fatigue des pièces mécaniques et le confort des passagers. La liaison BTP-Fuselage équipé du système SARIB est un système anti-vibratoire qui permet d'atténuer mono-fréquentiellement les vibrations transmises au fuselage. Des solutions intelligentes semi-actives sont donc étudiées afin que la filtration soit réglable en fonction des vibrations excitatrices. Ce type d'études souffre, par contre, d'un manque d'outils et de méthodes indispensables, d'une part, à la modélisation de systèmes mécaniques complexes et d'autre part, à l'élaboration d'une liaison intelligente. Ces travaux proposent une démarche de modélisation à partir d'un outil de modélisation structurel tel que le multi-bond graph (MBG) permettant une vision global et modulaire pour l'étude de systèmes mécaniques complexes tels qu'on peut les trouver sur un hélicoptère. Dans un premier temps, une analyse des outils de modélisation conduisant au choix du MBG a été présentée. Dans un second temps, les développements ont porté sur la modélisation MBG de la liaison BTP/ Fuselage 3D d'un banc d'essai réel qui a été conçu et réalisé au sein du laboratoire. Cette liaison est un système mécanique cinématiquement bouclé. Les équations de la dynamique d'un tel système forment un système d'équations algébro-différentiel (DAE) nécessitant des techniques de résolution spécifiques. Le modèle MBG de la liaison BTP-fuselage entier a été simulé à l'aide du logiciel 20-sim. Les résultats obtenus ont été vérifiés à l'aide du logiciel multicorps LMS Virtual Lab. Une comparaison des résultats obtenus par les deux méthodes a donné, pour différents cas d'excitations de la BTP (pompage, roulis, tangage), une corrélation très satisfaisante. Dans un troisième temps, le modèle MBG a été exploité pour la mise en place d'un dispositif de contrôle semi-actif. Le modèle du dispositif SARIB développé également sous 20-sim permet de régler la position des masses mobiles en fonctionnement de manière à minimiser le niveau de vibratoire du fuselage. L'algorithme de contrôle (algorithme de gradient) permet de calculer les consignes de position des masses mobiles sur les batteurs SARIB. La position des masses mobiles actionnée par un moteur électrique à courant continu et un système vis-écrou est ensuite asservie aux consignes générées par l'algorithme de contrôle. Enfin, la commande a pu être mise en place sur un modèle bond graph non-linéaire qui n'a pas nécessité une linéarisation en vue d'une transformation en fonction de transfert

    Développement récents en matière de conception, de maintenance et d’utilisation des ontologies

    Get PDF
    Le présent article offre une synthèse des développements récents survenus dans le domaine de l’ingénierie ontologique: les bases théoriques, les ontologies les plus connues, les méthodologies et les environnements logiciels disponibles pour la création d’ontologies, ainsi que l’utilisation d’ontologies dans des applications à des fins commerciales et de recherche

    Simulations parallèles de Monte Carlo appliquées à la Physique des Hautes Energies pour plates-formes manycore et multicore : mise au point, optimisation, reproductibilité

    Get PDF
    During this thesis, we focused on High Performance Computing, specifically on Monte Carlo simulations applied to High Energy Physics. We worked on simulations dedicated to the propagation of particles through matter. Monte Carlo simulations require significant CPU time and memory footprint.Our first Monte Carlo simulation was taking more time to simulate the physical phenomenon than the said phenomenon required to happen in the experimental conditions. It raised a real performance issue. The minimal technical aim of the thesis was to have a simulation requiring as much time as the real observed phenomenon. Our maximal target was to have a much faster simulation. Indeed, these simulations are critical to asses our correct understanding of what is observed during experimentation. The more we have simulated statistics samples, the better are our results. This initial state of our simulation was allowing numerous perspectives regarding optimisation, and high performance computing. Furthermore, in our case, increasing the performance of the simulation was pointless if it was at the cost of losing results reproducibility. The numerical reproducibility of the simulation was then an aspect we had to take into account. In this manuscript, after a state of the art about profiling, optimisation and reproducibility, we proposed several strategies to gain more performance in our simulations. In each case, all the proposed optimisations followed a profiling step. One never optimises without having profiled first. Then, we looked at the design of a parallel profiler using aspect-oriented programming for our specific needs. Finally, we took a new look at the issues raised by our Monte Carlo simulations: instead of optimising existing simulations, we proposed methods for developing a new simulation from scratch, having in mind it is for High Performance Computing and it has to be statistically sound, reproducible and scalable. In all our proposals, we looked at both multicore and manycore architectures from Intel to benchmark the performance on server-oriented architecture and High Performance Computing oriented architecture.Through the implementation of our proposals, we were able to optimise one of the Monte Carlo simulations, permitting us to achieve a 400X speedup, once optimised and parallelised on a computing node with 32 physical cores. We were also able to implement a profiler with aspects, able to deal with the parallelism of its computer and of the application it profiles. Moreover, because it relies on aspects, it is portable and not tied to any specific architecture. Finally, we implemented the simulation designed to be reproducible, scalable and to have statistically sound results. We observed that these goals could be achieved, whatever the target architecture for execution. This enabled us to assess our method for validating the numerical reproducibility of a simulation.Lors de cette thèse, nous nous sommes focalisés sur le calcul à haute performance, dans le domaine très précis des simulations de Monte Carlo appliquées à la physique des hautes énergies, et plus particulièrement, aux simulations pour la propagation de particules dans un milieu. Les simulations de Monte Carlo sont des simulations particulièrement consommatrices en ressources, temps de calcul, capacité mémoire.Dans le cas précis sur lequel nous nous sommes penchés, la première simulation de Monte Carlo existante prenait plus de temps à simuler le phénomène physique que le phénomène lui-même n’en prenait pour se dérouler dans les conditions expérimentales. Cela posait donc un sévère problème de performance. L’objectif technique minimal était d’avoir une simulation prenant autant de temps que le phénomène réel observé, l’objectif maximal était d’avoir une simulation bien plus rapide. En effet, ces simulations sont importantes pour vérifier la bonne compréhension de ce qui est observé dans les conditions expérimentales. Plus nous disposons d’échantillons statistiques simulés, meilleurs sont les résultats. Cet état initial des simulations ouvrait donc de nombreuses perspectives d’un point de vue optimisation et calcul à haute performance. Par ailleurs, dans notre cas, le gain de performance étant proprement inutile s’il n’est pas accompagné d’une reproductibilité des résultats, la reproductibilité numérique de la simulation est de ce fait un aspect que nous devons prendre en compte.C’est ainsi que dans le cadre de cette thèse, après un état de l’art sur le profilage, l’optimisation et la reproductibilité, nous avons proposé plusieurs stratégies visant à obtenir plus de performances pour nos simulations. Dans tous les cas, les optimisations proposées étaient précédées d’un profilage. On n’optimise jamais sans avoir profilé. Par la suite, nous nous intéressés à la création d’un profileur parallèle en programmation orientée aspect pour nos besoins très spécifiques, enfin, nous avons considéré la problématique de nos simulations sous un angle nouveau : plutôt que d’optimiser une simulation existante, nous avons proposé des méthodes permettant d’en créer une nouvelle, très spécifique à notre domaine, qui soit d’emblée reproductible, statistiquement correcte et qui puisse passer à l’échelle. Dans toutes les propositions, de façon transverse, nous nous sommes intéressés aux architectures multicore et manycore d’Intel pour évaluer les performances à travers une architecture orientée serveur et une architecture orientée calcul à haute performance.Ainsi, grâce à la mise en application de nos propositions, nous avons pu optimiser une des simulations de Monte Carlo, nous permettant d’obtenir un gain de performance de l’ordre de 400X, une fois optimisée et parallélisée sur un nœud de calcul avec 32 cœurs physiques. De même, nous avons pu proposer l’implémentation d’un profileur, programmé à l’aide d’aspects et capable de gérer le parallélisme à la fois de la machine sur laquelle il est exécuté mais aussi de l’application qu’il profile. De plus, parce qu’il emploi les aspects, il est portable et n’est pas fixé à une architecture matérielle en particulier. Enfin, nous avons implémenté la simulation prévue pour être reproductible, performante et ayant des résultats statistiquement viables. Nous avons pu constater que ces objectifs étaient atteints quelle que soit l’architecture cible pour l’exécution. Cela nous a permis de valider notamment notre méthode de vérification de la reproductibilité numérique d’une simulation
    • …
    corecore