124 research outputs found

    Déploiement d'applications parallèles sur une architecture distribuée matériellement reconfigurable

    Get PDF
    Among the architectural targets that could be buid a system on chip (SoC), dynamically reconfigurable architectures (DRA) offer interesting potential for flexibility and dynamicity . However this potential is still difficult to use in massively parallel on chip applications. In our work we identified and analyzed the solutions currently proposed to use DRA and found their limitations including: the use of a particular technology or proprietary architecture, the lack of parallel applications consideration, the difficult scalability, the lack of a common language adopted by the community to use the flexibility of DRA ...In our work we propose a solution for deployment on an DRA of a parallel application using standard SoC design flows. This solution is called MATIP ( textit {MPI Application Platform Task Integreation}) and uses primitives of MPI standard Version 2 to make communications and to reconfigure the MP-RSoC architecture . MATIP is a Platform-Based Design (PBD) level solution.The MATIP platform is modeled in three layers: interconnection, communication and application. Each layer is designed to satisfies the requirements of heterogeneity and dynamicity of parallel applications. For this, MATIP uses a distributed memory architecture and utilizes the message passing parallel programming paradigm to enhance scalability of the platform.MATIP frees the designer of all the details related to interconnection, communication between tasks and management of dynamic reconfiguration of the hardware target. A demonstrator of MATIP was performed on Xilinx FPGA through the implementation of an application consisting of two static and two dynamic hardware tasks. MATIP offers a bandwidth of 2.4 Gb / s and latency of 3.43 microseconds for the transfer of a byte. Compared to other MPI platforms (TMD-MPI, SOC-MPI MPI HAL), MATIP is in the state of the art.Parmi les cibles architecturales susceptibles d'être utilisées pour réaliser un système de traitement sur puce (SoC), les architectures reconfigurables dynamiquement (ARD) offrent un potentiel de flexibilité et de dynamicité intéressant. Cependant ce potentiel est encore difficile à exploiter pour réaliser des applications massivement parallèles sur puce. Dans nos travaux nous avons recensé et analysé les solutions actuellement proposées pour utiliser les ARD et nous avons constaté leurs limites parmi lesquelles : l'utilisation d'une technologie particulière ou d'architecture propriétaire, l'absence de prise en compte des applications parallèles, le passage à l'échelle difficile, l'absence de langage adopté par la communauté pour l'utilisation de la flexibilité des ARD, ...Pour déployer une application sur une ARD il est nécessaire de considérer l'hétérogénéité et la dynamicité de l'architecture matérielle d'une part et la parallélisation des traitements d'autre part. L'hétérogénéité permet d'avoir une architecture de traitement adaptée aux besoins fonctionnels de l'application. La dynamicité permet de prendre en compte la dépendance des applications au contexte et de la nature des données. Finalement, une application est naturellement parallèle.Dans nos travaux nous proposons une solution pour le déploiement sur une ARD d'une application parallèle en utilisant les flots de conception standard des SoC. Cette solution est appelée MATIP (MPI Application Task Integreation Platform) et utilise des primitives du standard MPI version 2 pour effectuer les communications et reconfigurer l'architecture de traitement. MATIP est une solution de déploiement au niveau de la conception basée plate-forme (PBD).La plateforme MATIP est modélisée en trois couches : interconnexion, communication et application. Nous avons conçu chaque couche pour que l'ensemble satisfasse les besoins en hétérogénéité et dynamicité des applications parallèles . Pour cela MATIP utilise une architecture à mémoire distribuée et exploite le paradigme de programmation parallèle par passage de message qui favorise le passage à l'échelle de la plateforme.MATIP facilite le déploiement d'une application parallèle sur puce à travers un template en langage Vhdl d'intégration de tâches. L'utilisation des primitives de communication se fait en invoquant des procédures Vhdl.MATIP libère le concepteur de tous les détails liés à l'interconnexion, la communication entre les tâches et à la gestion de la reconfiguration dynamique de la cible matérielle. Un démonstrateur de MATIP a été réalisée sur des FPGA Xilinx à travers la mise en oe{}uvre d'une application constituée de deux tâches statiques et deux tâches dynamiques. MATIP offre une bande passante de 2,4 Gb/s et une la latence pour le transfert d'un octet de 3,43 µs ce qui comparée à d'autres plateformes MPI (TMD-MPI, SOC-MPI, MPI HAL) met MATIP à l'état de l'art

    Élaboration d'un modèle d'abstraction des communications point-à-point pour une plateforme (SOC) multiprocesseur hétérogène

    Get PDF
    Les systèmes embarqués modernes -- Problématique -- Les communications dans un système-sur-puce -- Les modèles de communication pour MPSoC -- Les architectures de communication -- Abstraction des communications à haut niveau -- Génération des interfaces logiciel-matériel -- Une plateforme virtuelle hétérogène et extensible pour SPACE -- La plateforme CoreConnect d'IBM implémentée par Xilinx -- Le PowerPC405FX -- Intégration de l'ISS du PowerPC à SpaceLib -- DirectLink : Abstraction des communications point-à -point dans la plateforme virtuelle SPACE -- Paradigme du DirectLink -- Méthodologie -- Spécification des interfaces -- Connections module/module HW-HW -- Connexions module/module HW/SW ou SW/HW -- Connexions module/module SW/SW -- Design des composants SpaceLib -- Implications au niveau de la pile logicielle -- Abstraction du DirectLink dans SPACE -- Analyse, performances et discussion -- Validation du paradigme DirectLink -- Technique d'analyse des performances -- Performances du DirectLink -- Impact sur l'utilisation des ressources matérielles -- Accélération d'une application dans SPACE avec le DirectLink -- Extensibilité du paradigme à d'autres plateformes -- Comparaison avec d'autres travaux -- Améliorations suggérées à l'architecture de communication SPACE

    Implantation du protocole de signalisation ATM en utilisant une spécification SDL

    Full text link
    Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal

    La logique de l'expérience chez John Dewey

    No full text
    La présente étude a pour objet la question de la reconstruction de la logique, initiée et formulée par John Dewey dans Logique, la théorie de l'enquête paru en 1938. Dernier ouvrage majeur d'une carrière philosophique profuse, Logique n'en n'est pas moins une étape clé de son de parcours. Nous pensons qu'il condense en lui d'une façon plus problématique, quoique moins éloquente parfois il est vrai, l'ensemble des implications philosophiques majeures du concept d'expérience chez Dewey et de sa reconstruction. En outre, notre étude propose également de mettre en regard la théorie deweyenne de l'expérience et les psychologies matérialistes de Wallon et de Vygotski afin de comprendre au mieux les implications philosophiques de la logique de l'expérience. La rencontre des psychologies et de la philosophie de Dewey est établie autour des questions du langage, de l'éducation de la pensée et de ses origines. Questionner le schème de l'enquête c'est finalement questionner celui de la pensée. Autour de ce fait se déploient les problématiques qui nous traitons et auxquelles nous espérons apporter des perspectives nouvelles à la lumière de ce que nous pouvons sans mal nommer une philosophie du développement
    • …
    corecore