94 research outputs found

    Actes de l'Ecole d'Eté Temps Réel 2005 - ETR'2005

    Get PDF
    Pdf des actes disponible à l'URL http://etr05.loria.fr/Le programme de l'Ecole d'été Temps Réel 2005 est construit autour d'exposés de synthèse donnés par des spécialistes du monde industriel et universitaire qui permettront aux participants de l'ETR, et notamment aux doctorants, de se forger une culture scientifique dans le domaine. Cette quatrième édition est centrée autour des grands thèmes d'importance dans la conception des systèmes temps réel : Langages et techniques de description d'architectures, Validation, test et preuve par des approches déterministes et stochastiques, Ordonnancement et systèmes d'exploitation temps réel, Répartition, réseaux temps réel et qualité de service

    Conception et évaluation de performance d'un Bus applicatif, massivement parallèle et orienté service.

    Get PDF
    Enterprise Service Bus (ESB) est actuellement l'approche la plus prometteuse pour l'implémentation d'une architecture orientée services (SOA : Service-Oriented Architecture) par l'intégration des différentes applications isolées dans une plateforme centralisée. De nombreuses solutions d'intégration à base d'ESB on été proposées, elles sont soit open-source comme : Mule, Petals, ou encore Fuse, soit propriétaires tels que : Sonic ESB, IBM WebSphere Message Broker, ou Oracle ESB. Cependant, il n'en existe aucune en mesure de traiter, à la fois des aspects : d'intégration et de traitement massivement parallèle, du moins à notre connaissance. L'intégration du parallélisme dans le traitement est un moyen de tirer profit des technologies multicœurs/multiprocesseurs qui améliorent considérablement les performances des ESBs.Toutefois, cette intégration est une démarche complexe et soulève des problèmes à plusieurs niveaux : communication, synchronisation, partage de données, etc.Dans cette thèse, nous présentons l'étude d'une nouvelle architecture massivement parallèle de type ESB.Enterprise service bus (ESB) is currently the most promising approach for business application integration in distributed and heterogeneous environments. It allows to deploy a service-oriented architecture (SOA) by the integration of all the isolated applications on a decentralized platform.Several commercial or open source ESB-based solutions have been proposed. However, to the best of our knowledge, none of these solutions has integrated the parallel processing. The integration of parallelism in the treatment allows to take advantage of the multicore/multiprocessor technologies and thus can improve greatly the ESB performance. However, this integration is difficult to achieve, and poses problems at multiple levels (communication, synchronization, etc). In this study, we present a new massively parallel ESB architecture that meets this challenge.PARIS-CNAM (751032301) / SudocSudocFranceF

    Kevoree (Model@Runtime pour le développement continu de systèmes adaptatifs distribués hétérogènes)

    Get PDF
    La complexité croissante des systèmes d'information modernes a motivé l'apparition de nouveaux paradigmes (objets, composants, services, etc), permettant de mieux appréhender et maîtriser la masse critique de leurs fonctionnalités. Ces systèmes sont construits de façon modulaire et adaptable afin de minimiser les temps d'arrêts dus aux évolutions ou à la maintenance de ceux-ci. Afin de garantir des propriétés non fonctionnelles (par ex. maintien du temps de réponse malgré un nombre croissant de requêtes), ces systèmes sont également amenés à être distribués sur différentes ressources de calcul (grilles). Outre l'apport en puissance de calcul, la distribution peut également intervenir pour distribuer une tâche sur des nœuds aux propriétés spécifiques. C'est le cas dans le cas des terminaux mobiles proches des utilisateurs ou encore des objets et capteurs connectés proches physiquement du contexte de mesure. L'adaptation d'un système et de ses ressources nécessite cependant une connaissance de son état courant afin d'adapter son architecture et sa topologie aux nouveaux besoins. Un nouvel état doit ensuite être propagé à l'ensemble des nœuds de calcul. Le maintien de la cohérence et le partage de cet état est rendu particulièrement difficile à cause des connexions sporadiques inhérentes à la distribution, pouvant amener des sous-systèmes à diverger. En réponse à ces défi scientifiques, cette thèse propose une abstraction de conception et de déploiement pour systèmes distribués dynamiquement adaptables, grâce au principe du Model@Runtime. Cette approche propose la construction d'une couche de réflexion distribuée qui permet la manipulation abstraite de systèmes répartis sur des nœuds hétérogènes. En outre, cette contribution introduit dans la modélisation des systèmes adaptables la notion de cohérence variable, permettant ainsi de capturer la divergence des nœuds de calcul dans leur propre conception. Cette couche de réflexion, désormais cohérente "à terme", permet d'envisager la construction de systèmes adaptatifs hétérogènes, regroupant des nœuds mobiles et embarqués dont la connectivité peut être intermittente. Cette contribution a été concrétisée par un projet nommé ''Kevoree'' dont la validation démontre l'applicabilité de l'approche proposée pour des cas d'usages aussi hétérogènes qu'un réseau de capteurs ou une flotte de terminaux mobiles.The growing complexity of modern IT systems has motivated the development of new paradigms (objects, components, services,...) to better cope with the critical size of their functionalities. Such systems are then built as a modular and dynamically adaptable compositions, allowing them to minimise their down-times while performing evolutions or fixes. In order to ensure non-functional properties (i.e. request latency) such systems are distributed across different computation nodes. Besides the added value in term of computational power (cloud), this distribution can also target nodes with dedicated properties such as mobile nodes and sensors (internet of things), physically close to users for interactions. Adapting a system requires knowledge about its current state in order to adapt its architecture to its evolving needs. A new state must be then disseminated to other nodes to synchronise them. Maintaining its consistency and sharing this state is a difficult task especially in case of sporadic connexions which lead to divergent state between sub-systems. To tackle these scientific problems, this thesis proposes an abstraction to design and deploy distributed adaptive systems following the Model@Runtime paradigm. From this abstraction, the proposed approach allows defining a distributed reflexive layer to manipulate heterogeneous distributed nodes. In particular, this contribution introduces variable consistencies in model definition and divergence in system conception. This reflexive layer, eventually consistent allows the construction of distributed adapted systems even on mobile nodes with intermittent connectivity. This work has been realized in an open source project named Kevoree, and validated on various distributed systems ranging from sensor networks to cloud computing.RENNES1-Bibl. électronique (352382106) / SudocSudocFranceF

    Traitement de séries longitudinales pour l'imagerie médicale

    Get PDF
    L'imagerie médicale ne cesse de profiter des progrès technologiques et scientifiques. Elle permet d’explorer le corps humain sans examens intrusifs et d'opérer avec grande précision. La mise en avant des innovations technologies durant ces dernières années a favorisé l’émergence de nouvelles techniques pour l’aide au diagnostic. Pour des fins de précisions, le diagnostic peut être réalisé aujourd’hui sur des séries longitudinales d’images. Durant ces années de thèse, trois contributions ont été proposées : Nous avons présenté une méthode de pronostic Covid-19 basée sur des architectures d'apprentissage en profondeur. La méthode proposée est basée sur la combinaison d'un réseau de neurones convolutifs et récurrents pour classifier des images radiographiques thoraciques multi-temporelles et prédire l'évolution de la pathologie pulmonaire observée. L’un des principaux défis dans les méthodes d’apprentissage est l’optimisation des poids du réseau. Dans ce contexte, nous avons développé une nouvelle méthode d'optimisation bayésienne permettant d'ajuster les poids des réseaux de neurones artificiels parcimonieux. La méthode proposée repose sur la dynamique hamiltonienne avec des régularisations non lisses. Par la suite, nous étendons dans la troisième contribution le schéma d’optimisation en proposant une fonction d’activation entraînable à l’aide des Chaîne de Markov Monte Carlo

    Analyse environnementale et Ă©co-conception de services informationnels

    Get PDF
    L'essor des services et des technologies de l'information et de la communication (TIC) est généralement considéré comme le marqueur d'une dématérialisation de l'économie phénomène grandement attendu dans le cadre des discussions sur le développement durable. Nous nous plaçons dans le débat autour de cette hypothèse en questionnant la matérialité des TIC et des services à travers le cas des services informationnels activités de génération d'information répondant à un besoin décisionnel. Nous examinons plus en détail les services d'optimisation basés sur les réseaux de capteurs services offerts à l'aide d'informations collectées par des capteurs intégrés dans un réseau sans fil, permettant de surveiller un processus dans le but de l'optimiser, et par là-même de diminuer ses impacts. Nous proposons ainsi une méthode intégrée d'analyse environnementale et d'éco-conception des services d'optimisation basés sur les réseaux de capteurs. Celle-ci permet de déterminer la pertinence environnementale d'un service, c'est-à-dire sa capacité à générer moins d'impacts qu'il n'en évite, mais également de le concevoir avec cette pertinence en vue. Notre apport scientifique réside dans la proposition d'un modèle d'impact pour les services informationnels et d'un modèle de cycle de vie des réseaux de capteurs, ainsi que dans le développement d'un outil d'analyse basé sur la simulation réseau. L'application de la méthode proposée au cas d'un service d'optimisation de la collecte de déchets nous permet de conclure que, si des marges de manœuvres importantes sont identifiables, la pertinence environnementale de ces services ne doit pas être considérée comme acquise, tout comme le potentiel de dématérialisation des TIC et des services.The increasing share of economic value created by information and communication technology (ICT) and by services is generally seen as a sign of dematerialization of the economy a step towards sustainability. This thesis is a contribution to the ongoing debate about this hypothesis. It examines the impacts of ICT and services, particularly those of information services activities which consist of generating information required in decision-making processes. It focuses specifically on optimization services that use wireless sensor networks (WSN): services aiming at optimizing a process (thus diminishing its environmental impact) and based on information generated by a WSN. We present an integrated method that helps to analyze the impacts and ecodesigning optimization services that use WSN. This method allows for determining the environmental relevance of a service, i.e. whether it generates a smaller impact than it is helps to avoid, and for designing the service with this relevance in mind. Our scientific contribution is to formalize an environmental impact model for information services and a life cycle model for WSN, so as to develop an assessment tool based on network simulation. An integral part of this method is the development of an environmental impact model for information services as well as a life cycle model for WSN, which constitute our main scientific contribution. We implemented these by means of an assessment tool based on network simulation. The application of the proposed method to a case of an optimization service for waste collection allowed us to conclude that there is significant room for ecodesign. However, the environmental relevance of those services should not been taken for granted, nor should the dematerialization potential of ICT and services.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF

    Environmental analysis and ecodesign of information services

    Get PDF
    L'essor des services et des technologies de l'information et de la communication (TIC) est généralement considéré comme le marqueur d'une dématérialisation de l'économie – phénomène grandement attendu dans le cadre des discussions sur le développement durable. Nous nous plaçons dans le débat autour de cette hypothèse en questionnant la matérialité des TIC et des services à travers le cas des services informationnels – activités de génération d'information répondant à un besoin décisionnel. Nous examinons plus en détail les services d'optimisation basés sur les réseaux de capteurs – services offerts à l'aide d'informations collectées par des capteurs intégrés dans un réseau sans fil, permettant de surveiller un processus dans le but de l'optimiser, et par là-même de diminuer ses impacts. Nous proposons ainsi une méthode intégrée d'analyse environnementale et d'éco-conception des services d'optimisation basés sur les réseaux de capteurs. Celle-ci permet de déterminer la pertinence environnementale d'un service, c'est-à-dire sa capacité à générer moins d'impacts qu'il n'en évite, mais également de le concevoir avec cette pertinence en vue. Notre apport scientifique réside dans la proposition d'un modèle d'impact pour les services informationnels et d'un modèle de cycle de vie des réseaux de capteurs, ainsi que dans le développement d'un outil d'analyse basé sur la simulation réseau. L'application de la méthode proposée au cas d'un service d'optimisation de la collecte de déchets nous permet de conclure que, si des marges de manœuvres importantes sont identifiables, la pertinence environnementale de ces services ne doit pas être considérée comme acquise, tout comme le potentiel de dématérialisation des TIC et des services.The increasing share of economic value created by information and communication technology (ICT) and by services is generally seen as a sign of dematerialization of the economy – a step towards sustainability. This thesis is a contribution to the ongoing debate about this hypothesis. It examines the impacts of ICT and services, particularly those of information services – activities which consist of generating information required in decision-making processes. It focuses specifically on optimization services that use wireless sensor networks (WSN): services aiming at optimizing a process (thus diminishing its environmental impact) and based on information generated by a WSN. We present an integrated method that helps to analyze the impacts and ecodesigning optimization services that use WSN. This method allows for determining the environmental relevance of a service, i.e. whether it generates a smaller impact than it is helps to avoid, and for designing the service with this relevance in mind. Our scientific contribution is to formalize an environmental impact model for information services and a life cycle model for WSN, so as to develop an assessment tool based on network simulation. An integral part of this method is the development of an environmental impact model for information services as well as a life cycle model for WSN, which constitute our main scientific contribution. We implemented these by means of an assessment tool based on network simulation. The application of the proposed method to a case of an optimization service for waste collection allowed us to conclude that there is significant room for ecodesign. However, the environmental relevance of those services should not been taken for granted, nor should the dematerialization potential of ICT and services

    Contribution au pilotage des projets partagés par des PME en groupement basée sur la gestion des risques

    Get PDF
    Notre travail s’intéresse aux réseaux (ou groupements) de PME. Un réseau est constitué de PME, généralement localisées dans une même région, qui décident de se regrouper de manière plus ou moins durable et de coopérer entre elles sur un projet fédérateur : partager une ressource rare, jouer l’effet de volume face aux grands donneurs d’ordre, répondre à une proposition d’affaire. Ces regroupements se font sans perte d’identité de chacun et chacune des entreprises conserve des activités propres en dehors du groupement. Notre étude porte plus spécifiquement sur les groupements constitués en vue de réaliser des productions spécifiques en réponse à des appels d’offre. Ces PME organisent leur travail commun comme un projet partagé : un ensemble d’activités et d’opérations qui doit être réalisé par le groupement dans un temps défini. Si la gestion de projet classique peut s’appliquer au projet partagé, par définition, l’incertitude est plus difficile à gérer dans de telles organisations. La gestion des risques devient nécessaire pour répondre aux besoins de réactivité. Cette réactivité doit être prise en compte dès la phase de planification du projet. C’est la raison pour laquelle l’intégration des risques à la gestion du projet partagé apparaît comme une facteur important pour définir le cadre de pilotage. De plus, même si les niveaux de pilotage du groupement présentent des similarités avec ceux d’une entreprise, la coordination collective des activités exige de réaliser quelques adaptations et des recommandations spécifiques. L’objectif de ce travail est de définir les principales caractéristiques d’un cadre de pilotage du projet partagé en se fondant sur la gestion des projets et la gestion des risques. De plus, on cherche aussi à satisfaire les besoins propres au pilotage du groupement. Le cadre proposé est basé sur une étude empirique réalisée dans un groupement de douze PME du secteur aéronautique situé à Toulouse, France. Cette étude repose sur l’analyse des documents du groupement et la réalisation d’entretiens auprès des acteurs impliqués dans les projets. ABSTRACT : This work deals with SMEs network. This kind of networks is normally composed of SMEs localized in the same region which decide to group together in a more or less durable way to cooperate in a federative project: sharing rare resources, increasing production volumes, replying to business opportunities. These networks are created without losing partners’ identity and each company preserves individual activities out of the perimeter of the network. The study is limited to SMEs production networks which manage their collaborative work as a shared project: a complete whole of activities and operations which must be carried out by the network in a definite time. If classical project management theory and practice could certainly be applied to shared projects, by definition, sources of uncertainty are always more difficult to handle in such organizations, and risk management is emphasized by the need to react. Reactivity has to be rapidly included in the planning phase of project design. That is the reason why integration of risk to project management appears to this work as a key factor to conceive the management framework. Moreover, if management levels of networks have some similarities with the ones of a single enterprise, coordination of collective activities in a network at least leads to consider some adaptations and recommendations. The goal of this work is to search the main features of a network management framework based on project and risk management. The proposed framework is based on results from an empirical study in a twelve SMEs manufacturing network from the aeronautical sector, located in Toulouse, France. The study consisted in analyzing project documentation and developing interviews with project managers

    Proposition et vérification formelle de protocoles de communications temps-réel pour les réseaux de capteurs sans fil

    Get PDF
    Les RCsF sont des réseaux ad hoc, sans fil, large échelle déployés pour mesurer des paramètres de l'environnement et remonter les informations à un ou plusieurs emplacements (nommés puits). Les éléments qui composent le réseau sont de petits équipements électroniques qui ont de faibles capacités en termes de mémoire et de calcul ; et fonctionnent sur batterie. Ces caractéristiques font que les protocoles développés, dans la littérature scientifique de ces dernières années, visent principalement à auto-organiser le réseau et à réduire la consommation d'énergie. Avec l'apparition d'applications critiques pour les réseaux de capteurs sans fil, de nouveau besoins émergent, comme le respect de bornes temporelles et de fiabilité. En effet, les applications critiques sont des applications dont dépendent des vies humaines ou l'environnement, un mauvais fonctionnement peut donc avoir des conséquences catastrophiques. Nous nous intéressons spécifiquement aux applications de détection d'événements et à la remontée d'alarmes (détection de feu de forêt, d'intrusion, etc), ces applications ont des contraintes temporelles strictes. D'une part, dans la littérature, on trouve peu de protocoles qui permettent d'assurer des délais de bout en bout bornés. Parmi les propositions, on trouve des protocoles qui permettent effectivement de respecter des contraintes temporelles mais qui ne prennent pas en compte les spécificités des RCsF (énergie, large échelle, etc). D'autres propositions prennent en compte ces aspects, mais ne permettent pas de garantir des bornes temporelles. D'autre part, les applications critiques nécessitent un niveau de confiance très élevé, dans ce contexte les tests et simulations ne suffisent pas, il faut être capable de fournir des preuves formelles du respect des spécifications. A notre connaissance cet aspect est très peu étudié pour les RcsF. Nos contributions sont donc de deux types : * Nous proposons un protocole de remontée d'alarmes, en temps borné, X-layer (MAC/routage, nommé RTXP) basé sur un système de coordonnées virtuelles originales permettant de discriminer le 2-voisinage. L'exploitation de ces coordonnées permet d'introduire du déterminisme et de construire un gradient visant à contraindre le nombre maximum de sauts depuis toute source vers le puits. Nous proposons par ailleurs un mécanisme d'agrégation temps-réel des alarmes remontées pour lutter contre les tempêtes de détection qui entraînent congestion et collision, et donc limitent la fiabilité du système. * Nous proposons une méthodologie de vérification formelle basée sur les techniques de Model Checking. Cette méthodologie se déroule en trois points, qui visent à modéliser de manière efficace la nature diffusante des réseaux sans fil, vérifier les RCsF en prenant en compte la non-fiabilité du lien radio et permettre le passage à l'échelle de la vérification en mixant Network Calculus et Model Checking. Nous appliquons ensuite cette méthodologie pour vérifier RTXP.Wireless Sensor Networks (WSNs) are ad hoc wireless large scale networks deployed in order to monitor physical parameters of the environment and report the measurements to one or more nodes of the network (called sinks). The small electronic devices which compose the network have low computing and memory capacities and run on batteries, researches in this field have thus focused mostly on self-organization and energy consumption reduction aspects. Nevertheless, critical applications for WSNs are emerging and require more than those aspects, they have real-time and reliability requirements. Critical applications are applications on which depend human lives and the environment, a failure of a critical application can thus have dramatic consequences. We are especially interested in anomaly detection applications (forest fire detection, landslide detection, intrusion detection, etc), which require bounded end to end delays and high delivery ratio. Few WSNs protocols of the literature allow to bound end to end delays. Among the proposed solutions, some allow to effectively bound the end to end delays, but do not take into account the characteristics of WSNs (limited energy, large scale, etc). Others, take into account those aspects, but do not give strict guaranties on the end to end delays. Moreover, critical applications require a very high confidence level, simulations and tests are not sufficient in this context, formal proofs of compliance with the specifications of the application have to be provided. The application of formal methods to WSNs is still an open problem. Our contributions are thus twofold : * We propose a real-time cross-layer protocol for WSNs (named RTXP) based on a virtual coordinate system which allows to discriminate nodes in a 2-hop neighborhood. Thanks to these coordinates it is possible to introduce determinism in the accesses to the medium and to bound the hop-count, this allows to bound the end to end delay. Besides, we propose a real-time aggregation scheme to mitigate the alarm storm problem which causes collisions and congestion and thus limit the network lifetime. * We propose a formal verification methodology based on the Model Checking technique. This methodology is composed of three elements, (1) an efficient modeling of the broadcast nature of wireless networks, (2) a verification technique which takes into account the unreliability of the wireless link and (3) a verification technique which mixes Network Calculus and Model Checking in order to be both scalable and exhaustive. We apply this methodology in order to formally verify our proposition, RTXP.VILLEURBANNE-DOC'INSA-Bib. elec. (692669901) / SudocSudocFranceF

    Etude d'une architecture IP intégrant un lien satellite géostationnaire

    Get PDF
    Cette thèse aborde les problèmes relatifs à l'intégration des satellites géostationnaires dans les réseaux IP. Une première étape de ce travail consiste en une analyse critique des systèmes utilisant le Digital Video Broadcating pour véhiculer des flux IP. Cette étude souligne les faiblesses des solutions actuelles : tandis que les solutions classiques souffrent de limites inhérentes à la technologie et aux protocoles utilisées, les propositions reposant sur les satellites de nouvelles génération impliquent un système spécifique et à fortes contraintes financières. Ces limites engendrent des difficultés d'interopérabilité, témoignant de la nécessité d'une démarche plus globale qui viserait à dessiner une architecture plus large qui ne reposerait pas sur des contraintes techniques. La thèse propose alors de suivre cette démarche, et de concevoir une architecture pour intégrer ces différentes solutions dans un seul système et pouvoir supporter des services porteurs comme l'accès Internet, la vidéo à la demande et l'interconnexion de réseaux privés. Au coeur de cette architecture se trouve la notion de charge utile hybride, c'est-à-dire intégrant une partie transparente traditionnelle et une partie régénérative utilisant une intelligence embarquée plus ou moins évoluée. Ses objectifs sont alors d'assurer l'intégration de services porteurs sur satellite, d'offrir une transition entre les systèmes transparents et les satellites de nouvelle génération, et enfin de s'adapter aux évolutions protocolaires. Dans ce contexte, cette proposition est décrite à plusieurs niveaux, en insistant sur le lien entre le niveau réseau et la couche liaison. Cette description implique des choix technologiques témoignant des solutions actuelles, mais reste ouverte aux technologies à venir par son intégration d'IP comme un élément fédérateur. Enfin l'analyse du système hybride permet de légitimer les services choisis, et de souligner sa flexibilité offerte par la coexistence de ces deux modes et la possibilité de choisir pour chaque type de trafic celui qui permet les meilleurs performances. ABSTRACT : This thesis studies issues related to the integration of geostationary satellites in IP networks. A first part of this work presents an analysis of today and future DVB systems for IP support. The limits of standard solutions are underlined. However new technologies and protocols adaptations allow satellite systems to be more compliant to IP services, but at several costs: high complexity and specificity. As there is a real need of a global solution, an architecture based on two different payloads (a transparent one and an on-board-processing) in a same system is proposed for service integration. This solution, called a hybrid system, is defined according to different service needs. It proposes to undertake the transition between today systems and next generation satellites, as to integrate different services and protocols. The study describes such a solution, underlining that the technologic choices have been made according to today solutions, and may be changed in future days. Eventually this architecture is evaluated. The analysis of the system overhead for IP support shows that the architecture proposes a light way to manage IP streams and hybrid mode. The study of service integration concludes on the flexibility of managing two modes for different traffic streams, allowing the best performances for each one

    Optimisation de la gestion des ressources voie retour

    Get PDF
    L'optimisation de l'utilisation des liens satellites est un enjeu majeur pour augmenter la rentabilité des systèmes satellites. L'augmentation de la réutilisation des fréquences est une des approches les plus prometteuses. La réutilisation des fréquences permet de transmettre plus d'informations sur une même fréquence, pour peu que les interférences entre les deux signaux ne soient pas trop importantes. Il est donc capital de contrôler l'impact de ces interférences, que ce soit via l'utilisation de schémas de réutilisation de fréquences, ou encore via des techniques de coordination dynamique des interférences, où la sélection des utilisateurs qui peuvent transmettre sur les mêmes fréquences est faite en prenant les interférences en compt
    • …
    corecore