21 research outputs found
Architecture pair-à -pair de grille d'ordinateurs de prochaine génération basée sur les services et les contraintes de qualité de service
RĂSUMĂ
Grùce aux grilles informatiques (GRID), les projets difficiles à résoudre sont devenus
envisageables pour les communautés scientifiques de petite et moyenne taille : des projets tels
que des simulations dâĂ©cosystĂšmes, des simulations mĂ©tĂ©orologiques, dâanalyses de molĂ©cules,
dâanalyses de signaux, de recherches biomĂ©dicales ou autres problĂšmes ayant de rĂ©els impacts
socio-économiques. Favorisant ainsi les découvertes scientifiques, les GRID depuis le début des
annĂ©es 90 ont vu leur popularitĂ© sâaccroĂźtre. Aujourdâhui, elles ne se limitent plus quâaux
applications scientifiques, nous les retrouvons dans les plateformes de commerce Ă©lectronique et
de services Web. Leurs utilisations dĂ©passent dorĂ©navant les limites traditionnelles dâun rĂ©seau
privĂ© et il devient courant de voir des GRID faisant appel Ă des ressources tierces dâautres
rĂ©seaux. Cependant, cette expansion des GRID Ă dâautres rĂ©seaux ne garantit plus une topologie
fixe des ressources. Lâenvironnement dâutilisation des GRID devient trĂšs souvent dynamique ou
mĂȘme mobile et les GRID existantes ne nous permettaient pas dâexploiter les ressources mobiles
efficacement. Dans un environnement oĂč il y a frĂ©quemment des dĂ©connexions entre les liens des
ressources de la GRID, le retard dans le traitement dâune requĂȘte augmente significativement. La
problématique de la faible performance des GRID de troisiÚme génération dans des
environnements dynamiques et mobiles nous a encouragĂ© Ă fixer des objectifs dâamĂ©lioration de
lâarchitecture des GRID.
Lâarchitecture GRID proposĂ©e dans ce mĂ©moire introduit une nouvelle gĂ©nĂ©ration de GRID
plus flexible, plus dynamique, mais aussi intelligente. En effet, les nouveaux concepts de
mobilitĂ© introduits dans lâarchitecture de notre GRID lui permettent de sâadapter aux
environnements dynamiques, mais aussi de prendre en considération la mobilité de certaines
ressources et la qualité de service des réseaux utilisés. Pour y arriver, dans une premiÚre phase,
nous avons amélioré le support de la mobilité des tùches et des ressources des GRID existantes.----------ABSTRACT
Thanks to the GRID computing, complex projects became possible to be solved by scientific
communities of small and medium size. Projects such as ecosystems simulations, metrological
simulations, molecules analyses, signals analyses, biomedical research or other problems having
real socio-economic impacts. Thus supporting the scientific discoveries, the GRID since the
beginning of the Nineties saw their popularities increasing. Today, they arenât anymore limiting
by scientific applications. Now, we find them in business platform and also Web services. Their
uses exceed the traditional limit of a private network. It becomes current to see GRID calling
upon third-party resources through other networks and Internet. However, this expansion of the
GRID to other networks doesnât guarantee a stable topology of the resources. The environment of
use of the GRID becomes usually dynamic or even mobile.
The GRID architecture that we suggest introduces a new generation of more flexible, more
dynamic and also intelligent GRID. Indeed, the new concepts of mobility introduced into the
architecture of our GRID consider the mobility of certain resources and the quality of service of
networks used. With it, GRIDs can now evolve dynamically with environments
Vers un environnement pour le déploiement logiciel autonomique
Le dĂ©ploiement de logiciels rĂ©partis dans des environnements Ă grande Ă©chelle et ouverts (tels les systĂšmes ubiquitaires, les systĂšmes mobiles et les systĂšmes P2P) est une problĂ©matique actuelle ouverte. Ces environnements sont distribuĂ©s, hĂ©tĂ©rogĂšnes et peuvent ĂȘtre de nature instable (dotĂ©s d une topologie dynamique du rĂ©seau). Le dĂ©ploiement dans ces environnements met en jeu un trĂšs grand nombre de machines, de liens rĂ©seau ainsi qu un ensemble de contraintes de dĂ©ploiement. Quelques solutions de dĂ©ploiement existent aujourd hui, mais ne sont exploitables que dans le cadre d architectures figĂ©es et fiables. Dans la plupart des solutions, une personne en charge du dĂ©ploiement doit dĂ©crire plus ou moins manuellement la topologie. En outre, la majoritĂ© de ces outils ne prennent pas en compte les problĂšmes dĂ»s Ă la variabilitĂ© de la qualitĂ© de service du rĂ©seau, aux pannes des hĂŽtes, aux dĂ©faillances des liens du rĂ©seau ou encore aux changements dynamiques de topologie, qui caractĂ©risent les environnements ouverts. Dans ce mĂ©moire, nous prĂ©sentons les motivations de la rĂ©alisation d'une infrastructure de dĂ©ploiement logiciel autonomique et les exigences sous-jacentes d'une telle plate-forme. Nous prĂ©sentons un Ă©tat de l art du dĂ©ploiement logiciel que nous analysons au regard du contexte visĂ©. Ensuite, nous prĂ©sentons notre contribution pour le dĂ©ploiement autonomique. Notre proposition s'appuie sur une combinaison de technologies (composants logiciels, agents mobiles adaptables, intergiciel, langage dĂ©diĂ©). Nous proposons j-ASD, un intergiciel qui exploite la complĂ©mentaritĂ© de ces technologies pour rĂ©aliser un dĂ©ploiement logiciel autonomique. Le processus de dĂ©ploiement contient trois Ă©tapes : description des contraintes de dĂ©ploiement, rĂ©solution, et dĂ©ploiement autonomique. Pour la premiĂšre Ă©tape, nous avons dĂ©fini un langage dĂ©diĂ© (DSL) comme langage de haut niveau pour exprimer des contraintes de dĂ©ploiement. Pour la deuxiĂšme, nous avons conçu une infrastructure rĂ©partie pour collecter les propriĂ©tĂ©s des sites cibles, ce qui permet de rĂ©soudre les contraintes de dĂ©ploiement. Pour la troisiĂšme Ă©tape, nous proposons un intergiciel Ă base d agents mobiles pour la rĂ©alisation et la supervision du dĂ©ploiement autonomique. Enfin, nous donnons les Ă©lĂ©ments de conception du prototype que nous avons implĂ©mentĂ©, ainsi que les rĂ©sultats de certaines expĂ©rimentations pour montrer la validitĂ© de notre approcheSoftware deployment in large-scale and open distributed systems (such as ubiquitous systems, mobile systems and P2P systems) is still an open issue. These environments are distributed, heterogeneous and can be naturally unstable (fitted with a dynamic network topology). Deployment in such environments require the management of a large number of hosts, network links and deployment constraints. Existing distributed deployment solutions are usable only within static and reliable topologies of hosts, where a man in charge of the deployment has to describe more or less manually the topology. Moreover, majority of these tools do not take into account network and computer QoS variabilities, hosts crashes, network link failures and network topology changes, which characterize open and mobile environments. In this thesis, we discuss the motivations for an autonomic software deployment and the requirements underlying for such a platform. We carefully study and compare the existing work about software deployment. Then, we propose a middleware framework, designed to reduce the human cost for setting up software deployment and to deal with failure-prone and change-prone environments. We also propose an autonomic deployment process in three steps : deployment constraints description step, constraints resolution step and the autonomic deployment step. For the first step, we defined a high-level constraint-based dedicated language (DSL) as support for expressing deployment constraints. In the second step, we have designed a distributed infrastructure to collect target hosts properties used to solve deployment constraints. For the third step, we propose an agent-based system for establishing and maintaining software deployment. At last, we give an overview of our working prototype with some details on some experimental resultsEVRY-INT (912282302) / SudocSudocFranceF
Gestion adaptative de l'Ă©nergie pour les infrastructures de type grappe ou nuage
National audienceDans un contexte d'utilisation de ressources hĂ©tĂ©rogĂšnes, la performance reste le critĂšre traditionnel pour la planification de capacitĂ©. Mais, de nos jours, tenir compte de la variable Ă©nergĂ©tique est devenu une nĂ©cessitĂ©. Cet article s'attaque au problĂšme de l'efficacitĂ© Ă©nergĂ©tique pour la rĂ©partition de charge dans les systĂšmes distribuĂ©s. Nous proposons une gestion efficace en Ă©nergie des ressources par l'ajout de fonctionnalitĂ©s de gestion des Ă©vĂšnements liĂ©s Ă l'Ă©nergie, selon des rĂšgles dĂ©finies par l'utilisateur. Nous implĂ©mentons ces fonctionnalitĂ©s au sein de l'intergiciel DIET, qui permet de gĂ©rer la rĂ©partition de charge afin de mettre en Ă©vidence le cout des compromis entre la performance et la consommation d'Ă©nergie. Notre solution et son intĂ©rĂȘt sont validĂ©s au travers d'expĂ©riences en Ă©valuant la performance et la consommation Ă©lectrique mettant en concurrence trois politiques d'ordonnancement. Nous mettons en avant le gain obtenu en terme Ă©nergĂ©tique tout en essayant de minimiser les Ă©carts de performance. Nous offrons Ă©galement Ă l'intergiciel responsable de l'ordonnancement une rĂ©activitĂ© face aux variations Ă©nergĂ©tiques
Active Data : Un modeÌle pour repreÌsenter et programmer le cycle de vie des donneÌes distribueÌes
National audienceAlors que la science geÌneÌre et traite des ensembles de donneÌes toujours plus grands et dynamiques, un nombre croissant de scientifiques doit faire face aÌ des deÌfis pour permettre leur exploitation. La gestion de donneÌes par les applications scientifiques de traitement intensif des donneÌes requieÌre le support de cycles de vie treÌs complexes, la coordination de nombreux sites, de la toleÌrance aux pannes et de passer aÌ l'eÌchelle sur des dizaines de sites avec plusieurs peÌta-octets de donneÌes. Dans cet article, nous proposons un modeÌle pour repreÌsenter formellement les cycles de vie des applications de traitement de donneÌes et un modeÌle de programmation pour y reÌagir dynamiquement. Nous discutons du prototype d'impleÌmentation et preÌsentons diffeÌrents cas d'eÌtudes d'applications qui deÌmontrent la pertinence de notre approche
COSMOS : composition de noeuds de contexte
National audienceLes applications ubiquitaires évoluent dans une grande diversité de contextes d'utilisation. Or, cette diversité requiert une adaptation continuelle afin de préserver le bon fonctionnement des applications. DÚs lors, l'observation du contexte joue un rÎle prépondérant. Si les approches actuelles « centrée utilisateur » et « systÚme » ont prouvé leur pertinence dans ce domaine, elles souffrent néanmoins de certaines limitations liées à l'expressivité des compositions des inférences et au passage à l'échelle. Par conséquent, nous proposons de réorganiser les fonctionnalités traditionnelles d'un gestionnaire de contexte de maniÚre systématique en cycles « collecte / interprétation / identification de situations ». Cette approche repose sur la définition du concept de noeuds de contexte composés dans un graphe (hiérarchie avec partage), et l'expression du concept en composant et architecture logicielle pour faciliter la définition et la gestion des politiques de gestion de contexte
Architecture, logique floue, classification et clustering pour lâexploration de donnĂ©es rĂ©elles issues de multiples maisons intelligentes
Selon lâOrganisation des Nations Unies (2019), il est estimĂ© que le nombre de personnes ĂągĂ©es de 65 ans et plus dans le monde devrait doubler dâici 2050 pour atteindre un total de 1,5 milliard dâindividus. Cette Ă©volution impacte le risque de dĂ©clarer une maladie neurodĂ©gĂ©nĂ©rative qui, selon le rapport de lâAlzheimerâs Disease International (2015), augmenterait exponentiellement avec lâĂąge. Or, ces maladies provoquent une perte progressive dâautonomie ce qui induit des besoins en ressources matĂ©rielles et humaines. En parallĂšle de ces enjeux, des progrĂšs allient technologie et santĂ©, comme le dĂ©pistage automatique du cancer du sein, prĂ©sentĂ© dans le travail de Karabatak (2015). Avec lâamĂ©lioration continue des environnements intelligents et du matĂ©riel, notamment suite Ă lâapparition de technologies comme lâArduino (2005), la Rasbperry Pi (2012) ou la Latte Panda (2016), on est en droit dâimaginer les applications possibles de la maison intelligente aux problĂ©matiques posĂ©es par lâaccroissement des maladies dĂ©gĂ©nĂ©ratives. Câest ce que nous proposons dans cette thĂšse, oĂč nous faisons le point sur les environnements intelligents et la reconnaissance dâactivitĂ©s. Point duquel nous dĂ©rivons deux propositions : dâune part, une architecture basĂ©e sur la gestion dâun flux dâĂ©vĂ©nements descriptifs par des compositions dâagents autonomes permettant le support de plus de 30 environnements hĂ©tĂ©rogĂšnes. Dâautre part, une approche basĂ©e sur la logique floue permettant de conduire un processus de reconnaissance dâactivitĂ©s malgrĂ© la grande diversitĂ© de nos jeux de donnĂ©es. Ces deux solutions participant Ă lâĂ©laboration dâun outil permettant aux cliniciens de suivre Ă distance, lâĂ©volution du comportement de patients atteints de maladies dĂ©gĂ©nĂ©ratives.
According to the United Nations (2019), the world population aged 65 years and more will double up to 1.5 billion individuals before 2050. This trend will impact the growth of neurodegenerative disorders that are subject to an exponential risk of appearance with aging, as reported by Alzheimerâs Disease International (2015). As this kind of disease induces a decrease in the autonomy of the elderly, this evolution will heavily increase the need for human and material resources around the world. In parallel, various research works combine technology and healthcare, like for the automatic breast cancer detection described in the article of Karabatak (2015). This tendency, in conjunction with hardware and intelligent environments improvement, notably with the Arduino (2005), the Rasbperry Pi (2012), and the Latte Panda (2016), affords us to imagine how smart-homes could solve the implications of the aforementioned growth of degenerative diseases. To investigate this question, this thesis derivates two proposals from a careful study of intelligent environments and activity recognition methods. The first is an architecture that supports more than 30 heterogeneous environments and that works by assembling autonomous agents for processing a flux of descriptive events. Finally, the second is a model built upon fuzzy logic that enables us to recognize activities despite the inherent diversity of our datasets. These two solutions answer some aspects of the process of making a tool that allows clinicians to monitor people with degenerative diseases from their homes
DĂ©ploiement d'applications patrimoniales en environnements de type informatique dans le nuage
L'objectif de cette thÚse est d'offrir une solution de bout en bout permettant de décrire et de déployer de façon fiable une application distribuée dans un environnement virtualisé. Ceci passe par la définition d'un formalisme permettant de décrirer une application ainsi que son environnement d'exécution, puis de fournir les outils capable d'interpéter ce formalisme pour déployer (installer, instancier et configurer) l'application sur une plate-forme de type cloud computing.Cloud computing aims to cut down on the outlay and operational expenses involved in setting up and running applications. To do this, an application is split into a set of virtualized hardware and software resources. This virtualized application can be autonomously managed, making it responsive to the dynamic changes affecting its running environment. This is referred to as Application Life-cycle Management (ALM). In cloud computing, ALM is a growing but immature market, with many offers claiming to significantly improve productivity. However, all these solutions are faced with a major restriction: the duality between the level of autonomy they offer and the type of applications they can handle. To address this, this thesis focuses on managing the initial deployment of an application to demonstrate that the duality is artificial. The main contributions of this work are presented in a platform named VAMP (Virtual Applications Management Platform). VAMP can deploy any legacy application distributed in the cloud, in an autonomous, generic and reliable way. It consists of: a component-based model to describe the elements making up an application and their projection on the running infrastructure, as well as the dependencies binding them in the applicative architecture; an asynchronous, distributed and reliable protocol for self-configuration and self-activation of the application; mechanisms ensuring the reliability of the VAMP system itself. Beyond implementing the solution, the most critical aspects of running VAMP have been formally verified using model checking tools. A validation step was also used to demonstrate the genericity of the proposal through various real-life implementations.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF
SystĂšme de gestion de flux pour l'Internet des objets intelligents
The Internet of Things (IoT) is currently characterized by an ever-growing number of networked Things, i.e., devices which have their own identity together with advanced computation and networking capabilities: smartphones, smart watches, smart home appliances, etc. In addition, these Things are being equipped with more and more sensors and actuators that enable them to sense and act on their environment, enabling the physical world to be linked with the virtual world. Specifically, the IoT raises many challenges related to its very large scale and high dynamicity, as well as the great heterogeneity of the data and systems involved (e.g., powerful versus resource-constrained devices, mobile versus fixed devices, continuously-powered versus battery-powered devices, etc.). These challenges require new systems and techniques for developing applications that are able to (i) collect data from the numerous data sources of the IoT and (ii) interact both with the environment using the actuators, and with the users using dedicated GUIs. To this end, we defend the following thesis: given the huge volume of data continuously being produced by sensors (measurements and events), we must consider (i) data streams as the reference data model for the IoT and (ii) continuous processing as the reference computation model for processing these data streams. Moreover, knowing that privacy preservation and energy consumption are increasingly critical concerns, we claim that all the Things should be autonomous and work together in restricted areas as close as possible to the users rather than systematically shifting the computation logic into powerful servers or into the cloud. For this purpose, our main contribution can be summarized as designing and developing a distributed data stream management system for the IoT. In this context, we revisit two fundamental aspects of software engineering and distributed systems: service-oriented architecture and task deployment. We address the problems of (i) accessing data streams through services and (ii) deploying continuous processing tasks automatically, according to the characteristics of both tasks and devices. This research work lead to the development of a middleware layer called Dioptase, designed to run on the Things and abstract them as generic devices that can be dynamically assigned communication, storage and computation tasks according to their available resources. In order to validate the feasability and the relevance of our work, we implemented a prototype of Dioptase and evaluated its performance. In addition, we show that Dioptase is a realistic solution which can work in cooperation with legacy sensor and actuator networks currently deployed in the environment.L'Internet des objets (ou IdO) se traduit Ă l'heure actuelle par l'accroissement du nombre d'objets connectĂ©s, c'est-Ă -dire d'appareils possĂ©dant une identitĂ© propre et des capacitĂ©s de calcul et de communication de plus en plus sophistiquĂ©es : tĂ©lĂ©phones, montres, appareils mĂ©nagers, etc. Ces objets embarquent un nombre grandissant de capteurs et d'actionneurs leur permettant de mesurer l'environnement et d'agir sur celui-ci, faisant ainsi le lien entre le monde physique et le monde virtuel. SpĂ©cifiquement, l'Internet des objets pose plusieurs problĂšmes, notamment du fait de sa trĂšs grande Ă©chelle, de sa nature dynamique et de l'hĂ©tĂ©rogĂ©nĂ©itĂ© des donnĂ©es et des systĂšmes qui le composent (appareils puissants/peu puissants, fixes/mobiles, batteries/alimentations continues, etc.). Ces caractĂ©ristiques nĂ©cessitent des outils et des mĂ©thodes idoines pour la rĂ©alisation d'applications capables (i) d'extraire des informations utiles depuis les nombreuses sources de donnĂ©es disponibles et (ii) d'interagir aussi bien avec l'environnement, au moyen des actionneurs, qu'avec les utilisateurs, au moyen d'interfaces dĂ©diĂ©es. Dans cette optique, nous dĂ©fendons la thĂšse suivante : en raison de la nature continue des donnĂ©es (mesures physiques, Ă©vĂšnements, etc.) et leur volume, il est important de considĂ©rer (i) les flux comme modĂšle de donnĂ©es de rĂ©fĂ©rence de l'Internet des objets et (ii) le traitement continu comme modĂšle de calcul privilĂ©giĂ© pour transformer ces flux. En outre, Ă©tant donnĂ© les prĂ©occupations croissantes relatives Ă la consommation Ă©nergĂ©tique et au respect de la vie privĂ©e, il est prĂ©fĂ©rable de laisser les objets agir au plus prĂšs des utilisateurs, si possible de maniĂšre autonome, au lieu de dĂ©lĂ©guer systĂ©matiquement l'ensemble des tĂąches Ă de grandes entitĂ©s extĂ©rieures telles que le cloud. Ă cette fin, notre principale contribution porte sur la rĂ©alisation d'un systĂšme distribuĂ© de gestion de flux de donnĂ©es pour l'Internet des objets. Nous rĂ©examinons notamment deux aspects clĂ©s du gĂ©nie logiciel et des systĂšmes distribuĂ©s : les architectures de services et le dĂ©ploiement. Ainsi, nous apportons des solutions (i) pour l'accĂšs aux flux de donnĂ©es sous la forme de services et (ii) pour le dĂ©ploiement automatique des traitements continus en fonction des caractĂ©ristiques des appareils. Ces travaux sont concrĂ©tisĂ©s sous la forme d'un intergiciel, Dioptase, spĂ©cifiquement conçu pour ĂȘtre exĂ©cutĂ© directement sur les objets et les transformer en fournisseurs gĂ©nĂ©riques de services de calcul et de stockage.Pour valider nos travaux et montrer la faisabilitĂ© de notre approche, nous introduisons un prototype de Dioptase dont nous Ă©valuons les performances en pratique. De plus, nous montrons que Dioptase est une solution viable, capable de s'interfacer avec les systĂšmes antĂ©rieurs de capteurs et d'actionneurs dĂ©jĂ dĂ©ployĂ©s dans l'environnement
MĂ©thodes In-Situ et In-Transit : vers un continuum entre les applications interactives et offline Ă grande Ă©chelle.
Parallel simulation has become a very useful tool in various scientific areas. In order to perform such simulations, large parallel machines are required. The computational power of these machine continues to grow, allowing scientists to construct larger and larger models. However, the I/O systems, used to store the data produced by simulation, have not improved at the same pace. Currently, it is already difficult for scientist to store all the accumulated data and to have enough computational power later on to process them. Yet, these data are the key toward major scientific discoveries.In-situ treatments are a promising solution to this problem. The idea is to analyze the data while the simulation is still running and the data are still living in memory. This approach allows avoiding the I/O bottleneck as well as taking benefit of the computational power provided by a supercomputer to perform the analysis. In this thesis, we propose to use the data flow paradigm to construct complex asynchronous in-situ applications. We use the middleware FlowVR to couple heterogeneous parallel codes and to form a graph. Our approach provides enough flexibility to facilitate various placement strategies for the analytics in order to minimize their impact on the simulation. We applied our approach exemplarily to a well-known software from the field of molecular dynamics, Gromacs. With of the of biology experts, we designed several realistic scenarios in which we evaluated both the flexibility of our approach and the capability of our infrastructure to support each step of the biologists' analysis workflow.Les simulations parallĂšles sont devenues des outils indispensables dans de nombreux domaines scientifiques. La puissance de calcul de ces machines n'a cessĂ© de monter permettant ainsi le traitement de simulations de plus en plus imposantes. En revanche, les systĂšmes d'I/O nĂ©cessaires Ă la sauvegarde des donnĂ©es produites par les simulations ont suivit une croissance beaucoup plus faible. Actuellement dĂ©jĂ , il est difficile pour les scientifiques de sauvegarder l'ensemble des donnĂ©es dĂ©sirĂ©es et d'avoir suffisamment de puissance de calcul pour les analyser par la suite. Ces donnĂ©es sont pourtant une des clĂ©s vers des dĂ©couvertes scientifiques majeures. Les traitements in-situ sont une solution prometteuse Ă ce problĂšme. Le principe est d'effectuer des analyses alors que la simulation est en cours d'exĂ©cution et que les donnĂ©es sont encore en mĂ©moire. Cette approche permet d'une part d'Ă©viter le goulot d'Ă©tranglement au niveau des I/O mais aussi de profiter de la puissance de calcul offerte par les machines parallĂšles pour effectuer des traitements lourds. Dans cette thĂšse, nous proposons d'utiliser le paradigme du dataflow pour permettre la construction d'applications in-situ complexes asynchrones. Pour cela, nous utilisons l'intergiciel FlowVR permettant de coupler des codes parallĂšles hĂ©tĂ©rogĂšnes en formant un graphe. Nous proposons une approche avec suffisamment de flexibilitĂ© pour permettre plusieurs stratĂ©gies de placement des processus d'analyses que cela soit sur les nĆuds de la simulation, sur des cĆurs dĂ©diĂ©s ou des nĆuds dĂ©diĂ©s. De plus, les traitements in-situ peuvent ĂȘtre exĂ©cutĂ©s de maniĂšre asynchrone permettant ainsi un faible impact sur les performances de la simulation. Pour dĂ©montrer la flexibilitĂ© de notre approche, nous nous sommes intĂ©ressĂ©s au cas Ă la dynamique molĂ©culaire et plus particuliĂšrement Gromacs, un code de simulation de dynamique molĂ©culaire couramment utilisĂ© par les biologistes pouvant passer Ă l'Ă©chelle sur plusieurs milliers de coeurs. En Ă©troite collaboration avec des experts du domaine biologique, nous avons construit plusieurs applications pour Ă©valuer les performances et la flexibilitĂ© de notre approche