21 research outputs found

    Architecture pair-à-pair de grille d'ordinateurs de prochaine génération basée sur les services et les contraintes de qualité de service

    Get PDF
    RÉSUMÉ GrĂące aux grilles informatiques (GRID), les projets difficiles Ă  rĂ©soudre sont devenus envisageables pour les communautĂ©s scientifiques de petite et moyenne taille : des projets tels que des simulations d’écosystĂšmes, des simulations mĂ©tĂ©orologiques, d’analyses de molĂ©cules, d’analyses de signaux, de recherches biomĂ©dicales ou autres problĂšmes ayant de rĂ©els impacts socio-Ă©conomiques. Favorisant ainsi les dĂ©couvertes scientifiques, les GRID depuis le dĂ©but des annĂ©es 90 ont vu leur popularitĂ© s’accroĂźtre. Aujourd’hui, elles ne se limitent plus qu’aux applications scientifiques, nous les retrouvons dans les plateformes de commerce Ă©lectronique et de services Web. Leurs utilisations dĂ©passent dorĂ©navant les limites traditionnelles d’un rĂ©seau privĂ© et il devient courant de voir des GRID faisant appel Ă  des ressources tierces d’autres rĂ©seaux. Cependant, cette expansion des GRID Ă  d’autres rĂ©seaux ne garantit plus une topologie fixe des ressources. L’environnement d’utilisation des GRID devient trĂšs souvent dynamique ou mĂȘme mobile et les GRID existantes ne nous permettaient pas d’exploiter les ressources mobiles efficacement. Dans un environnement oĂč il y a frĂ©quemment des dĂ©connexions entre les liens des ressources de la GRID, le retard dans le traitement d’une requĂȘte augmente significativement. La problĂ©matique de la faible performance des GRID de troisiĂšme gĂ©nĂ©ration dans des environnements dynamiques et mobiles nous a encouragĂ© Ă  fixer des objectifs d’amĂ©lioration de l’architecture des GRID. L’architecture GRID proposĂ©e dans ce mĂ©moire introduit une nouvelle gĂ©nĂ©ration de GRID plus flexible, plus dynamique, mais aussi intelligente. En effet, les nouveaux concepts de mobilitĂ© introduits dans l’architecture de notre GRID lui permettent de s’adapter aux environnements dynamiques, mais aussi de prendre en considĂ©ration la mobilitĂ© de certaines ressources et la qualitĂ© de service des rĂ©seaux utilisĂ©s. Pour y arriver, dans une premiĂšre phase, nous avons amĂ©liorĂ© le support de la mobilitĂ© des tĂąches et des ressources des GRID existantes.----------ABSTRACT Thanks to the GRID computing, complex projects became possible to be solved by scientific communities of small and medium size. Projects such as ecosystems simulations, metrological simulations, molecules analyses, signals analyses, biomedical research or other problems having real socio-economic impacts. Thus supporting the scientific discoveries, the GRID since the beginning of the Nineties saw their popularities increasing. Today, they aren’t anymore limiting by scientific applications. Now, we find them in business platform and also Web services. Their uses exceed the traditional limit of a private network. It becomes current to see GRID calling upon third-party resources through other networks and Internet. However, this expansion of the GRID to other networks doesn’t guarantee a stable topology of the resources. The environment of use of the GRID becomes usually dynamic or even mobile. The GRID architecture that we suggest introduces a new generation of more flexible, more dynamic and also intelligent GRID. Indeed, the new concepts of mobility introduced into the architecture of our GRID consider the mobility of certain resources and the quality of service of networks used. With it, GRIDs can now evolve dynamically with environments

    Vers un environnement pour le déploiement logiciel autonomique

    Get PDF
    Le dĂ©ploiement de logiciels rĂ©partis dans des environnements Ă  grande Ă©chelle et ouverts (tels les systĂšmes ubiquitaires, les systĂšmes mobiles et les systĂšmes P2P) est une problĂ©matique actuelle ouverte. Ces environnements sont distribuĂ©s, hĂ©tĂ©rogĂšnes et peuvent ĂȘtre de nature instable (dotĂ©s d une topologie dynamique du rĂ©seau). Le dĂ©ploiement dans ces environnements met en jeu un trĂšs grand nombre de machines, de liens rĂ©seau ainsi qu un ensemble de contraintes de dĂ©ploiement. Quelques solutions de dĂ©ploiement existent aujourd hui, mais ne sont exploitables que dans le cadre d architectures figĂ©es et fiables. Dans la plupart des solutions, une personne en charge du dĂ©ploiement doit dĂ©crire plus ou moins manuellement la topologie. En outre, la majoritĂ© de ces outils ne prennent pas en compte les problĂšmes dĂ»s Ă  la variabilitĂ© de la qualitĂ© de service du rĂ©seau, aux pannes des hĂŽtes, aux dĂ©faillances des liens du rĂ©seau ou encore aux changements dynamiques de topologie, qui caractĂ©risent les environnements ouverts. Dans ce mĂ©moire, nous prĂ©sentons les motivations de la rĂ©alisation d'une infrastructure de dĂ©ploiement logiciel autonomique et les exigences sous-jacentes d'une telle plate-forme. Nous prĂ©sentons un Ă©tat de l art du dĂ©ploiement logiciel que nous analysons au regard du contexte visĂ©. Ensuite, nous prĂ©sentons notre contribution pour le dĂ©ploiement autonomique. Notre proposition s'appuie sur une combinaison de technologies (composants logiciels, agents mobiles adaptables, intergiciel, langage dĂ©diĂ©). Nous proposons j-ASD, un intergiciel qui exploite la complĂ©mentaritĂ© de ces technologies pour rĂ©aliser un dĂ©ploiement logiciel autonomique. Le processus de dĂ©ploiement contient trois Ă©tapes : description des contraintes de dĂ©ploiement, rĂ©solution, et dĂ©ploiement autonomique. Pour la premiĂšre Ă©tape, nous avons dĂ©fini un langage dĂ©diĂ© (DSL) comme langage de haut niveau pour exprimer des contraintes de dĂ©ploiement. Pour la deuxiĂšme, nous avons conçu une infrastructure rĂ©partie pour collecter les propriĂ©tĂ©s des sites cibles, ce qui permet de rĂ©soudre les contraintes de dĂ©ploiement. Pour la troisiĂšme Ă©tape, nous proposons un intergiciel Ă  base d agents mobiles pour la rĂ©alisation et la supervision du dĂ©ploiement autonomique. Enfin, nous donnons les Ă©lĂ©ments de conception du prototype que nous avons implĂ©mentĂ©, ainsi que les rĂ©sultats de certaines expĂ©rimentations pour montrer la validitĂ© de notre approcheSoftware deployment in large-scale and open distributed systems (such as ubiquitous systems, mobile systems and P2P systems) is still an open issue. These environments are distributed, heterogeneous and can be naturally unstable (fitted with a dynamic network topology). Deployment in such environments require the management of a large number of hosts, network links and deployment constraints. Existing distributed deployment solutions are usable only within static and reliable topologies of hosts, where a man in charge of the deployment has to describe more or less manually the topology. Moreover, majority of these tools do not take into account network and computer QoS variabilities, hosts crashes, network link failures and network topology changes, which characterize open and mobile environments. In this thesis, we discuss the motivations for an autonomic software deployment and the requirements underlying for such a platform. We carefully study and compare the existing work about software deployment. Then, we propose a middleware framework, designed to reduce the human cost for setting up software deployment and to deal with failure-prone and change-prone environments. We also propose an autonomic deployment process in three steps : deployment constraints description step, constraints resolution step and the autonomic deployment step. For the first step, we defined a high-level constraint-based dedicated language (DSL) as support for expressing deployment constraints. In the second step, we have designed a distributed infrastructure to collect target hosts properties used to solve deployment constraints. For the third step, we propose an agent-based system for establishing and maintaining software deployment. At last, we give an overview of our working prototype with some details on some experimental resultsEVRY-INT (912282302) / SudocSudocFranceF

    Gestion adaptative de l'Ă©nergie pour les infrastructures de type grappe ou nuage

    Get PDF
    National audienceDans un contexte d'utilisation de ressources hĂ©tĂ©rogĂšnes, la performance reste le critĂšre traditionnel pour la planification de capacitĂ©. Mais, de nos jours, tenir compte de la variable Ă©nergĂ©tique est devenu une nĂ©cessitĂ©. Cet article s'attaque au problĂšme de l'efficacitĂ© Ă©nergĂ©tique pour la rĂ©partition de charge dans les systĂšmes distribuĂ©s. Nous proposons une gestion efficace en Ă©nergie des ressources par l'ajout de fonctionnalitĂ©s de gestion des Ă©vĂšnements liĂ©s Ă  l'Ă©nergie, selon des rĂšgles dĂ©finies par l'utilisateur. Nous implĂ©mentons ces fonctionnalitĂ©s au sein de l'intergiciel DIET, qui permet de gĂ©rer la rĂ©partition de charge afin de mettre en Ă©vidence le cout des compromis entre la performance et la consommation d'Ă©nergie. Notre solution et son intĂ©rĂȘt sont validĂ©s au travers d'expĂ©riences en Ă©valuant la performance et la consommation Ă©lectrique mettant en concurrence trois politiques d'ordonnancement. Nous mettons en avant le gain obtenu en terme Ă©nergĂ©tique tout en essayant de minimiser les Ă©carts de performance. Nous offrons Ă©galement Ă  l'intergiciel responsable de l'ordonnancement une rĂ©activitĂ© face aux variations Ă©nergĂ©tiques

    Active Data : Un modèle pour représenter et programmer le cycle de vie des données distribuées

    Get PDF
    National audienceAlors que la science génère et traite des ensembles de données toujours plus grands et dynamiques, un nombre croissant de scientifiques doit faire face à des défis pour permettre leur exploitation. La gestion de données par les applications scientifiques de traitement intensif des données requière le support de cycles de vie très complexes, la coordination de nombreux sites, de la tolérance aux pannes et de passer à l'échelle sur des dizaines de sites avec plusieurs péta-octets de données. Dans cet article, nous proposons un modèle pour représenter formellement les cycles de vie des applications de traitement de données et un modèle de programmation pour y réagir dynamiquement. Nous discutons du prototype d'implémentation et présentons différents cas d'études d'applications qui démontrent la pertinence de notre approche

    COSMOS : composition de noeuds de contexte

    Get PDF
    National audienceLes applications ubiquitaires évoluent dans une grande diversité de contextes d'utilisation. Or, cette diversité requiert une adaptation continuelle afin de préserver le bon fonctionnement des applications. DÚs lors, l'observation du contexte joue un rÎle prépondérant. Si les approches actuelles « centrée utilisateur » et « systÚme » ont prouvé leur pertinence dans ce domaine, elles souffrent néanmoins de certaines limitations liées à l'expressivité des compositions des inférences et au passage à l'échelle. Par conséquent, nous proposons de réorganiser les fonctionnalités traditionnelles d'un gestionnaire de contexte de maniÚre systématique en cycles « collecte / interprétation / identification de situations ». Cette approche repose sur la définition du concept de noeuds de contexte composés dans un graphe (hiérarchie avec partage), et l'expression du concept en composant et architecture logicielle pour faciliter la définition et la gestion des politiques de gestion de contexte

    Architecture, logique floue, classification et clustering pour l’exploration de donnĂ©es rĂ©elles issues de multiples maisons intelligentes

    Get PDF
    Selon l’Organisation des Nations Unies (2019), il est estimĂ© que le nombre de personnes ĂągĂ©es de 65 ans et plus dans le monde devrait doubler d’ici 2050 pour atteindre un total de 1,5 milliard d’individus. Cette Ă©volution impacte le risque de dĂ©clarer une maladie neurodĂ©gĂ©nĂ©rative qui, selon le rapport de l’Alzheimer’s Disease International (2015), augmenterait exponentiellement avec l’ñge. Or, ces maladies provoquent une perte progressive d’autonomie ce qui induit des besoins en ressources matĂ©rielles et humaines. En parallĂšle de ces enjeux, des progrĂšs allient technologie et santĂ©, comme le dĂ©pistage automatique du cancer du sein, prĂ©sentĂ© dans le travail de Karabatak (2015). Avec l’amĂ©lioration continue des environnements intelligents et du matĂ©riel, notamment suite Ă  l’apparition de technologies comme l’Arduino (2005), la Rasbperry Pi (2012) ou la Latte Panda (2016), on est en droit d’imaginer les applications possibles de la maison intelligente aux problĂ©matiques posĂ©es par l’accroissement des maladies dĂ©gĂ©nĂ©ratives. C’est ce que nous proposons dans cette thĂšse, oĂč nous faisons le point sur les environnements intelligents et la reconnaissance d’activitĂ©s. Point duquel nous dĂ©rivons deux propositions : d’une part, une architecture basĂ©e sur la gestion d’un flux d’évĂ©nements descriptifs par des compositions d’agents autonomes permettant le support de plus de 30 environnements hĂ©tĂ©rogĂšnes. D’autre part, une approche basĂ©e sur la logique floue permettant de conduire un processus de reconnaissance d’activitĂ©s malgrĂ© la grande diversitĂ© de nos jeux de donnĂ©es. Ces deux solutions participant Ă  l’élaboration d’un outil permettant aux cliniciens de suivre Ă  distance, l’évolution du comportement de patients atteints de maladies dĂ©gĂ©nĂ©ratives. According to the United Nations (2019), the world population aged 65 years and more will double up to 1.5 billion individuals before 2050. This trend will impact the growth of neurodegenerative disorders that are subject to an exponential risk of appearance with aging, as reported by Alzheimer’s Disease International (2015). As this kind of disease induces a decrease in the autonomy of the elderly, this evolution will heavily increase the need for human and material resources around the world. In parallel, various research works combine technology and healthcare, like for the automatic breast cancer detection described in the article of Karabatak (2015). This tendency, in conjunction with hardware and intelligent environments improvement, notably with the Arduino (2005), the Rasbperry Pi (2012), and the Latte Panda (2016), affords us to imagine how smart-homes could solve the implications of the aforementioned growth of degenerative diseases. To investigate this question, this thesis derivates two proposals from a careful study of intelligent environments and activity recognition methods. The first is an architecture that supports more than 30 heterogeneous environments and that works by assembling autonomous agents for processing a flux of descriptive events. Finally, the second is a model built upon fuzzy logic that enables us to recognize activities despite the inherent diversity of our datasets. These two solutions answer some aspects of the process of making a tool that allows clinicians to monitor people with degenerative diseases from their homes

    DĂ©ploiement d'applications patrimoniales en environnements de type informatique dans le nuage

    Get PDF
    L'objectif de cette thÚse est d'offrir une solution de bout en bout permettant de décrire et de déployer de façon fiable une application distribuée dans un environnement virtualisé. Ceci passe par la définition d'un formalisme permettant de décrirer une application ainsi que son environnement d'exécution, puis de fournir les outils capable d'interpéter ce formalisme pour déployer (installer, instancier et configurer) l'application sur une plate-forme de type cloud computing.Cloud computing aims to cut down on the outlay and operational expenses involved in setting up and running applications. To do this, an application is split into a set of virtualized hardware and software resources. This virtualized application can be autonomously managed, making it responsive to the dynamic changes affecting its running environment. This is referred to as Application Life-cycle Management (ALM). In cloud computing, ALM is a growing but immature market, with many offers claiming to significantly improve productivity. However, all these solutions are faced with a major restriction: the duality between the level of autonomy they offer and the type of applications they can handle. To address this, this thesis focuses on managing the initial deployment of an application to demonstrate that the duality is artificial. The main contributions of this work are presented in a platform named VAMP (Virtual Applications Management Platform). VAMP can deploy any legacy application distributed in the cloud, in an autonomous, generic and reliable way. It consists of: a component-based model to describe the elements making up an application and their projection on the running infrastructure, as well as the dependencies binding them in the applicative architecture; an asynchronous, distributed and reliable protocol for self-configuration and self-activation of the application; mechanisms ensuring the reliability of the VAMP system itself. Beyond implementing the solution, the most critical aspects of running VAMP have been formally verified using model checking tools. A validation step was also used to demonstrate the genericity of the proposal through various real-life implementations.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    SystĂšme de gestion de flux pour l'Internet des objets intelligents

    Get PDF
    The Internet of Things (IoT) is currently characterized by an ever-growing number of networked Things, i.e., devices which have their own identity together with advanced computation and networking capabilities: smartphones, smart watches, smart home appliances, etc. In addition, these Things are being equipped with more and more sensors and actuators that enable them to sense and act on their environment, enabling the physical world to be linked with the virtual world. Specifically, the IoT raises many challenges related to its very large scale and high dynamicity, as well as the great heterogeneity of the data and systems involved (e.g., powerful versus resource-constrained devices, mobile versus fixed devices, continuously-powered versus battery-powered devices, etc.). These challenges require new systems and techniques for developing applications that are able to (i) collect data from the numerous data sources of the IoT and (ii) interact both with the environment using the actuators, and with the users using dedicated GUIs. To this end, we defend the following thesis: given the huge volume of data continuously being produced by sensors (measurements and events), we must consider (i) data streams as the reference data model for the IoT and (ii) continuous processing as the reference computation model for processing these data streams. Moreover, knowing that privacy preservation and energy consumption are increasingly critical concerns, we claim that all the Things should be autonomous and work together in restricted areas as close as possible to the users rather than systematically shifting the computation logic into powerful servers or into the cloud. For this purpose, our main contribution can be summarized as designing and developing a distributed data stream management system for the IoT. In this context, we revisit two fundamental aspects of software engineering and distributed systems: service-oriented architecture and task deployment. We address the problems of (i) accessing data streams through services and (ii) deploying continuous processing tasks automatically, according to the characteristics of both tasks and devices. This research work lead to the development of a middleware layer called Dioptase, designed to run on the Things and abstract them as generic devices that can be dynamically assigned communication, storage and computation tasks according to their available resources. In order to validate the feasability and the relevance of our work, we implemented a prototype of Dioptase and evaluated its performance. In addition, we show that Dioptase is a realistic solution which can work in cooperation with legacy sensor and actuator networks currently deployed in the environment.L'Internet des objets (ou IdO) se traduit Ă  l'heure actuelle par l'accroissement du nombre d'objets connectĂ©s, c'est-Ă -dire d'appareils possĂ©dant une identitĂ© propre et des capacitĂ©s de calcul et de communication de plus en plus sophistiquĂ©es : tĂ©lĂ©phones, montres, appareils mĂ©nagers, etc. Ces objets embarquent un nombre grandissant de capteurs et d'actionneurs leur permettant de mesurer l'environnement et d'agir sur celui-ci, faisant ainsi le lien entre le monde physique et le monde virtuel. SpĂ©cifiquement, l'Internet des objets pose plusieurs problĂšmes, notamment du fait de sa trĂšs grande Ă©chelle, de sa nature dynamique et de l'hĂ©tĂ©rogĂ©nĂ©itĂ© des donnĂ©es et des systĂšmes qui le composent (appareils puissants/peu puissants, fixes/mobiles, batteries/alimentations continues, etc.). Ces caractĂ©ristiques nĂ©cessitent des outils et des mĂ©thodes idoines pour la rĂ©alisation d'applications capables (i) d'extraire des informations utiles depuis les nombreuses sources de donnĂ©es disponibles et (ii) d'interagir aussi bien avec l'environnement, au moyen des actionneurs, qu'avec les utilisateurs, au moyen d'interfaces dĂ©diĂ©es. Dans cette optique, nous dĂ©fendons la thĂšse suivante : en raison de la nature continue des donnĂ©es (mesures physiques, Ă©vĂšnements, etc.) et leur volume, il est important de considĂ©rer (i) les flux comme modĂšle de donnĂ©es de rĂ©fĂ©rence de l'Internet des objets et (ii) le traitement continu comme modĂšle de calcul privilĂ©giĂ© pour transformer ces flux. En outre, Ă©tant donnĂ© les prĂ©occupations croissantes relatives Ă  la consommation Ă©nergĂ©tique et au respect de la vie privĂ©e, il est prĂ©fĂ©rable de laisser les objets agir au plus prĂšs des utilisateurs, si possible de maniĂšre autonome, au lieu de dĂ©lĂ©guer systĂ©matiquement l'ensemble des tĂąches Ă  de grandes entitĂ©s extĂ©rieures telles que le cloud. À cette fin, notre principale contribution porte sur la rĂ©alisation d'un systĂšme distribuĂ© de gestion de flux de donnĂ©es pour l'Internet des objets. Nous rĂ©examinons notamment deux aspects clĂ©s du gĂ©nie logiciel et des systĂšmes distribuĂ©s : les architectures de services et le dĂ©ploiement. Ainsi, nous apportons des solutions (i) pour l'accĂšs aux flux de donnĂ©es sous la forme de services et (ii) pour le dĂ©ploiement automatique des traitements continus en fonction des caractĂ©ristiques des appareils. Ces travaux sont concrĂ©tisĂ©s sous la forme d'un intergiciel, Dioptase, spĂ©cifiquement conçu pour ĂȘtre exĂ©cutĂ© directement sur les objets et les transformer en fournisseurs gĂ©nĂ©riques de services de calcul et de stockage.Pour valider nos travaux et montrer la faisabilitĂ© de notre approche, nous introduisons un prototype de Dioptase dont nous Ă©valuons les performances en pratique. De plus, nous montrons que Dioptase est une solution viable, capable de s'interfacer avec les systĂšmes antĂ©rieurs de capteurs et d'actionneurs dĂ©jĂ  dĂ©ployĂ©s dans l'environnement

    MĂ©thodes In-Situ et In-Transit : vers un continuum entre les applications interactives et offline Ă  grande Ă©chelle.

    Get PDF
    Parallel simulation has become a very useful tool in various scientific areas. In order to perform such simulations, large parallel machines are required. The computational power of these machine continues to grow, allowing scientists to construct larger and larger models. However, the I/O systems, used to store the data produced by simulation, have not improved at the same pace. Currently, it is already difficult for scientist to store all the accumulated data and to have enough computational power later on to process them. Yet, these data are the key toward major scientific discoveries.In-situ treatments are a promising solution to this problem. The idea is to analyze the data while the simulation is still running and the data are still living in memory. This approach allows avoiding the I/O bottleneck as well as taking benefit of the computational power provided by a supercomputer to perform the analysis. In this thesis, we propose to use the data flow paradigm to construct complex asynchronous in-situ applications. We use the middleware FlowVR to couple heterogeneous parallel codes and to form a graph. Our approach provides enough flexibility to facilitate various placement strategies for the analytics in order to minimize their impact on the simulation. We applied our approach exemplarily to a well-known software from the field of molecular dynamics, Gromacs. With of the of biology experts, we designed several realistic scenarios in which we evaluated both the flexibility of our approach and the capability of our infrastructure to support each step of the biologists' analysis workflow.Les simulations parallĂšles sont devenues des outils indispensables dans de nombreux domaines scientifiques. La puissance de calcul de ces machines n'a cessĂ© de monter permettant ainsi le traitement de simulations de plus en plus imposantes. En revanche, les systĂšmes d'I/O nĂ©cessaires Ă  la sauvegarde des donnĂ©es produites par les simulations ont suivit une croissance beaucoup plus faible. Actuellement dĂ©jĂ , il est difficile pour les scientifiques de sauvegarder l'ensemble des donnĂ©es dĂ©sirĂ©es et d'avoir suffisamment de puissance de calcul pour les analyser par la suite. Ces donnĂ©es sont pourtant une des clĂ©s vers des dĂ©couvertes scientifiques majeures. Les traitements in-situ sont une solution prometteuse Ă  ce problĂšme. Le principe est d'effectuer des analyses alors que la simulation est en cours d'exĂ©cution et que les donnĂ©es sont encore en mĂ©moire. Cette approche permet d'une part d'Ă©viter le goulot d'Ă©tranglement au niveau des I/O mais aussi de profiter de la puissance de calcul offerte par les machines parallĂšles pour effectuer des traitements lourds. Dans cette thĂšse, nous proposons d'utiliser le paradigme du dataflow pour permettre la construction d'applications in-situ complexes asynchrones. Pour cela, nous utilisons l'intergiciel FlowVR permettant de coupler des codes parallĂšles hĂ©tĂ©rogĂšnes en formant un graphe. Nous proposons une approche avec suffisamment de flexibilitĂ© pour permettre plusieurs stratĂ©gies de placement des processus d'analyses que cela soit sur les nƓuds de la simulation, sur des cƓurs dĂ©diĂ©s ou des nƓuds dĂ©diĂ©s. De plus, les traitements in-situ peuvent ĂȘtre exĂ©cutĂ©s de maniĂšre asynchrone permettant ainsi un faible impact sur les performances de la simulation. Pour dĂ©montrer la flexibilitĂ© de notre approche, nous nous sommes intĂ©ressĂ©s au cas Ă  la dynamique molĂ©culaire et plus particuliĂšrement Gromacs, un code de simulation de dynamique molĂ©culaire couramment utilisĂ© par les biologistes pouvant passer Ă  l'Ă©chelle sur plusieurs milliers de coeurs. En Ă©troite collaboration avec des experts du domaine biologique, nous avons construit plusieurs applications pour Ă©valuer les performances et la flexibilitĂ© de notre approche
    corecore