45 research outputs found

    Modèle multi-agents pour le filtrage collaboratif de l'information

    Get PDF
    Les systèmes de recommandation sont nés de la volonté de pallier le problème de surcharge d'information du web. Combinant des techniques de filtrage d'information, personnalisation, intelligence artificielle, réseaux sociaux et interaction personne-machine, les systèmes de recommandation fournissent à des utilisateurs des suggestions qui répondent à leurs besoins et préférences informationnelles. En effet, les systèmes de recommandation sont particulièrement sollicités dans les applications de commerce électronique. Cependant, ce type de système a été en grande partie confiné à une architecture centralisée. Récemment, l'architecture distribuée a connu une popularité croissante, comme en témoigne par exemple, les réseaux pair-à-pair (« peer-to-peer »), le calcul distribué (« Grid computing »), le web sémantique, etc., et s'impose peu à peu comme une alternative à l'approche client/serveur classique. L'hypothèse des chercheurs est que les systèmes de recommandation peuvent tirer profit d'une architecture distribuée. Dans cette thèse, nous étudions les défis que posent les systèmes de recommandation distribués et nous proposons une nouvelle architecture pair-à-pair, de filtrage collaboratif, basée sur la discrimination du voisinage. Nous étudions l'évolution de la performance, de la couverture et de la qualité des prédictions pour différentes techniques de recommandation. En outre, nous identifions la méthode de recommandation la plus efficace pour cette nouvelle architecture pair-à-pair. Bien que cette thèse se concentre essentiellement sur le domaine décentralisé de système de recommandation, nos contributions ne se limitent pas strictement à ce domaine de recherche. En effet, ces contributions touchent des problèmes de recherche dans plusieurs autres domaines de recherche (système multi-agents, gestions profils utilisateurs, réduction de la complexité computationnelle, collecte des préférences utilisateurs, PageRank, etc.). ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Filtrage de l'information, Filtrage collaboratif, Système de recommandation, Système distribué, Agent social

    Cooperative Data Backup for Mobile Devices

    Get PDF
    Les dispositifs informatiques mobiles tels que les ordinateurs portables, assistants personnels et téléphones portables sont de plus en plus utilisés. Cependant, bien qu'ils soient utilisés dans des contextes où ils sont sujets à des endommagements, à la perte, voire au vol, peu de mécanismes permettent d'éviter la perte des données qui y sont stockées. Dans cette thèse, nous proposons un service de sauvegarde de données coopératif pour répondre à ce problème. Cette approche tire parti de communications spontanées entre de tels dispositifs, chaque dispositif stockant une partie des données des dispositifs rencontrés. Une étude analytique des gains de cette approche en termes de sûreté de fonctionnement est proposée. Nous étudions également des mécanismes de stockage réparti adaptés. Les problèmes de coopération entre individus mutuellement suspicieux sont également abordés. Enfin, nous décrivons notre mise en oeuvre du service de sauvegarde coopérative. ABSTRACT : Mobile devices such as laptops, PDAs and cell phones are increasingly relied on but are used in contexts that put them at risk of physical damage, loss or theft. However, few mechanisms are available to reduce the risk of losing the data stored on these devices. In this dissertation, we try to address this concern by designing a cooperative backup service for mobile devices. The service leverages encounters and spontaneous interactions among participating devices, such that each device stores data on behalf of other devices. We first provide an analytical evaluation of the dependability gains of the proposed service. Distributed storage mechanisms are explored and evaluated. Security concerns arising from thecooperation among mutually suspicious principals are identified, and core mechanisms are proposed to allow them to be addressed. Finally, we present our prototype implementation of the cooperative backup servic

    Anti load-balancing for energy-aware distributed scheduling of virtual machines

    Get PDF
    La multiplication de l'informatique en nuage (Cloud) a abouti à la création de centres de données dans le monde entier. Le Cloud contient des milliers de nœuds de calcul. Cependant, les centres de données consomment d'énorme quantités d'énergie à travers le monde estimées à plus de 1,5 % de la consommation mondiale d'électricité et devrait continuer à croître. Une problématique habituellement étudiée dans les systèmes distribués est de répartir équitablement la charge. Mais lorsque l'objectif est de réduire la consommation électrique, ce type d'algorithmes peut mener à avoir des serveurs fortement sous chargés et donc à consommer de l'énergie inutilement. Cette thèse présente de nouvelles techniques, des algorithmes et des logiciels pour la consolidation dynamique et distribuée de machines virtuelles (VM) dans le Cloud. L'objectif principal de cette thèse est de proposer des stratégies d'ordonnancement tenant compte de l'énergie dans le Cloud pour les économies d'énergie. Pour atteindre cet objectif, nous utilisons des approches centralisées et décentralisées. Les contributions à ce niveau méthodologique sont présentées sur ces deux axes. L'objectif de notre démarche est de réduire la consommation de l'énergie totale du centre de données en contrôlant la consommation globale d'énergie des applications tout en assurant les contrats de service pour l'exécution des applications. La consommation d'énergie est réduite en désactivant et réactivant dynamiquement les nœuds physiques pour répondre à la demande des ressources. Les principales contributions sont les suivantes: - Ici on s'intéressera à la problématique contraire de l'équilibrage de charge. Il s'agit d'une technique appelée Anti Load-Balancing pour concentrer la charge sur un nombre minimal de nœuds. Le but est de pouvoir éteindre les nœuds libérés et donc de minimiser la consommation énergétique du système. - Ensuite une approche centralisée a été proposée et fonctionne en associant une valeur de crédit à chaque nœud. Le crédit d'un nœud dépend de son affinité pour ses tâches, sa charge de travail actuelle et sa façon d'effectuer ses communications. Les économies d'énergie sont atteintes par la consolidation continue des machines virtuelles en fonction de l'utilisation actuelle des ressources, les topologies de réseaux virtuels établis entre les machines virtuelles et l'état thermique de nœuds de calcul. Les résultats de l'expérience sur une extension de CloudSim (EnerSim) montrent que l'énergie consommée par les applications du Cloud et l'efficacité énergétique ont été améliorées. - Le troisième axe est consacré à l'examen d'une approche appelée "Cooperative scheduling Anti load-balancing Algorithm for cloud". Il s'agit d'une approche décentralisée permettant la coopération entre les différents sites. Pour valider cet algorithme, nous avons étendu le simulateur MaGateSim. Avec une large évaluation expérimentale d'un ensemble de données réelles, nous sommes arrivés à la conclusion que l'approche à la fois en utilisant des algorithmes centralisés et décentralisés peut réduire l'énergie consommée des centres de données.The multiplication of Cloud computing has resulted in the establishment of largescale data centers around the world containing thousands of compute nodes. However, Cloud consume huge amounts of energy. Energy consumption of data centers worldwide is estimated at more than 1.5% of the global electricity use and is expected to grow further. A problem usually studied in distributed systems is to evenly distribute the load. But when the goal is to reduce energy consumption, this type of algorithms can lead to have machines largely under-loaded and therefore consuming energy unnecessarily. This thesis presents novel techniques, algorithms, and software for distributed dynamic consolidation of Virtual Machines (VMs) in Cloud. The main objective of this thesis is to provide energy-aware scheduling strategies in cloud computing for energy saving. To achieve this goal, we use centralized and decentralized approaches. Contributions in this method are presented these two axes. The objective of our approach is to reduce data center's total energy consumed by controlling cloud applications' overall energy consumption while ensuring cloud applications' service level agreement. Energy consumption is reduced by dynamically deactivating and reactivating physical nodes to meet the current resource demand. The key contributions are: - First, we present an energy aware clouds scheduling using anti-load balancing algorithm : concentrate the load on a minimum number of severs. The goal is to turn off the machines released and therefore minimize the energy consumption of the system. - The second axis proposed an algorithm which works by associating a credit value with each node. The credit of a node depends on its affinity to its jobs, its current workload and its communication behavior. Energy savings are achieved by continuous consolidation of VMs according to current utilization of resources, virtual network topologies established between VMs, and thermal state of computing nodes. The experiment results, obtained with a simulator which extends CloudSim (EnerSim), show that the cloud application energy consumption and energy efficiency are being improved. - The third axis is dedicated to the consideration of a decentralized dynamic scheduling approach entitled Cooperative scheduling Anti-load balancing Algorithm for cloud. It is a decentralized approach that allows cooperation between different sites. To validate this algorithm, we have extended the simulator MaGateSim. With an extensive experimental evaluation with a real workload dataset, we got the conclusion that both the approach using centralized and decentralized algorithms can reduce energy consumed by data centers

    Conception d'un modèle architectural collaboratif pour l'informatique omniprésente à la périphérie des réseaux mobiles

    Get PDF
    Le progrès des technologies de communication pair-à-pair et sans fil a de plus en plus permis l’intégration de dispositifs portables et omniprésents dans des systèmes distribués et des architectures informatiques de calcul dans le paradigme de l’internet des objets. De même, ces dispositifs font l'objet d'un développement technologique continu. Ainsi, ils ont toujours tendance à se miniaturiser, génération après génération durant lesquelles ils sont considérés comme des dispositifs de facto. Le fruit de ces progrès est l'émergence de l'informatique mobile collaborative et omniprésente, notamment intégrée dans les modèles architecturaux de l'Internet des Objets. L’avantage le plus important de cette évolution de l'informatique est la facilité de connecter un grand nombre d'appareils omniprésents et portables lorsqu'ils sont en déplacement avec différents réseaux disponibles. Malgré les progrès continuels, les systèmes intelligents mobiles et omniprésents (réseaux, dispositifs, logiciels et technologies de connexion) souffrent encore de diverses limitations à plusieurs niveaux tels que le maintien de la connectivité, la puissance de calcul, la capacité de stockage de données, le débit de communications, la durée de vie des sources d’énergie, l'efficacité du traitement de grosses tâches en termes de partitionnement, d'ordonnancement et de répartition de charge. Le développement technologique accéléré des équipements et dispositifs de ces modèles mobiles s'accompagne toujours de leur utilisation intensive. Compte tenu de cette réalité, plus d'efforts sont nécessaires à la fois dans la conception structurelle tant au matériel et logiciel que dans la manière dont il est géré. Il s'agit d'améliorer, d'une part, l'architecture de ces modèles et leurs technologies de communication et, d'autre part, les algorithmes d'ordonnancement et d'équilibrage de charges pour effectuer leurs travaux efficacement sur leurs dispositifs. Notre objectif est de rendre ces modèles omniprésents plus autonomes, intelligents et collaboratifs pour renforcer les capacités de leurs dispositifs, leurs technologies de connectivité et les applications qui effectuent leurs tâches. Ainsi, nous avons établi un modèle architectural autonome, omniprésent et collaboratif pour la périphérie des réseaux. Ce modèle s'appuie sur diverses technologies de connexion modernes telles que le sans-fil, la radiocommunication pair-à-pair, et les technologies offertes par LoPy4 de Pycom telles que LoRa, BLE, Wi-Fi, Radio Wi-Fi et Bluetooth. L'intégration de ces technologies permet de maintenir la continuité de la communication dans les divers environnements, même les plus sévères. De plus, ce modèle conçoit et évalue un algorithme d'équilibrage de charge et d'ordonnancement permettant ainsi de renforcer et améliorer son efficacité et sa qualité de service (QoS) dans différents environnements. L’évaluation de ce modèle architectural montre des avantages tels que l’amélioration de la connectivité et l’efficacité d’exécution des tâches. Advances in peer-to-peer and wireless communication technologies have increasingly enabled the integration of mobile and pervasive devices into distributed systems and computing architectures in the Internet of Things paradigm. Likewise, these devices are subject to continuous technological development. Thus, they always tend to be miniaturized, generation after generation during which they are considered as de facto devices. The success of this progress is the emergence of collaborative mobiles and pervasive computing, particularly integrated into the architectural models of the Internet of Things. The most important benefit of this form of computing is the ease of connecting a large number of pervasive and portable devices when they are on the move with different networks available. Despite the continual advancements that support this field, mobile and pervasive intelligent systems (networks, devices, software and connection technologies) still suffer from various limitations at several levels such as maintaining connectivity, computing power, ability to data storage, communication speeds, the lifetime of power sources, the efficiency of processing large tasks in terms of partitioning, scheduling and load balancing. The accelerated technological development of the equipment and devices of these mobile models is always accompanied by their intensive use. Given this reality, it requires more efforts both in their structural design and management. This involves improving on the one hand, the architecture of these models and their communication technologies, and, on the other hand, the scheduling and load balancing algorithms for the work efficiency. The goal is to make these models more autonomous, intelligent, and collaborative by strengthening the different capabilities of their devices, their connectivity technologies and the applications that perform their tasks. Thus, we have established a collaborative autonomous and pervasive architectural model deployed at the periphery of networks. This model is based on various modern connection technologies such as wireless, peer-to-peer radio communication, and technologies offered by Pycom's LoPy4 such as LoRa, BLE, Wi-Fi, Radio Wi-Fi and Bluetooth. The integration of these technologies makes it possible to maintain the continuity of communication in the various environments, even the most severe ones. Within this model, we designed and evaluated a load balancing and scheduling algorithm to strengthen and improve its efficiency and quality of service (QoS) in different environments. The evaluation of this architectural model shows payoffs such as improvement of connectivity and efficiency of task executions

    Structures and Algorithms for Peer-to-Peer Cooperation

    Full text link
    Peer-to-peer overlay networks are distributed systems, without any hierarchical organization or centralized control. Peers form self-organizing overlay networks that are on top of the Internet. Both parts of this thesis deal with peer-to-peer overlay networks, the first part with unstructured ones used to build a large scale Networked Virtual Environment. The second part gives insights on how the users of a real life structured peer-to-peer network behave, and how well the proposed algorithms for publishing and retrieving data work. Moreover we analyze the security (holes) in such a system. Networked virtual environments (NVEs), also known as distributed virtual environments, are computer-generated, synthetic worlds that allow simultaneous interactions of multiple participants. Many efforts have been made to allow people to interact in realistic virtual environments, resulting in the recent boom of Massively Multiplayer Online Games. In the first part of the thesis, we present a complete study of an augmented Delaunay-based overlay for peer-to-peer shared virtual worlds. We design an overlay network matching the Delaunay triangulation of the participating peers in a generalized d-dimensional space. Especially, we describe the self-organizing algorithms for peer insertion and deletion. To reduce the delay penalty of overlay routing, we propose to augment each node of the Delaunay-based overlay with a limited number of carefully selected shortcut links creating a small-world. We show that a small number of shortcuts is sufficient to significantly decrease the delay of routing in the space. We present a distributed algorithm for the clustering of peers. The algorithm is dynamic in the sense that whenever a peer joins or leaves the NVE, the clustering will be adapted if necessary by either splitting a cluster or merging clusters. The main idea of the algorithm is to classify links between adjacent peers into short intracluster and long inter-cluster links. In a structured system, the neighbor relationship between peers and data locations is strictly defined. Searching in such systems is therefore determined by the particular network architecture. Among the strictly structured systems, some implement a distributed hash table (DHT) using different data structures. DHTs have been actively studied in the literature and many different proposals have been made on how to organize peers in a DHT. However, very few DHTs have been implemented in real systems and deployed on a large scale. One exception is KAD, a DHT based on Kademlia, which is part of eDonkey, a peer-to-peer file sharing system with several million simultaneous users. In the second part of this thesis we give a detailed background on KAD, the organization of the peers, the search and the publish operations, and we describe our measurement methodology. We have been crawling KAD continuously for more than a year. We obtained information about geographical distribution of peers, session times, peer availability, and peer lifetime. We found that session times are Weibull distributed and show how this information can be exploited to make the publishing mechanism much more efficient. As we have been studying KAD over the course of the last two years we have been both, fascinated and frightened by the possibilities KAD offers. We show that mounting a Sybil attack is very easy in KAD and allows to compromise the privacy of KAD users, to compromise the correct operation of the key lookup and to mount distributed denial-of-service attacks with very little resources

    Routage et gestion de la mobilité dans les réseaux personnels

    Get PDF
    L'objectif de cette thèse est d'étudier des méthodes et des stratégies efficaces pour le routage et la gestion de la mobilité dans le cadre des réseaux personnels. Dans un premier temps, nous proposons le cadre de nos études: Personal Ubiquitous Environments (PUE). Un PUE est constitué d'un ensemble d'utilisateurs ayant des terminaux disposant d'interfaces réseau hétérogènes, et dont l'objectif est de mettre en oeuvre des mécanismes de coopération et de partage des ressources de manière totalement distribuée. Dans ce cadre, la thèse a proposé des solutions innovantes contribuant à améliorer la communication inter et intra réseau personnels. La première contribution porte sur le protocole PNRP (Personal Network Routing Protocol) dont le but est de développer un routage à base de politiques (policy-based routing) pour les environnements personnels. La seconde, intitulée ADD (Adaptive Distributed gateway Discovery), est un mécanisme totalement distribué pour la découverte de multiples chemins vers une passerelle vers un réseau opéré. De plus, étant donné que ces environnements sont hétérogènes par leurs compositions (réseaux d'accès, terminaux ...), une architecture de gestion de la mobilité qui permet une gestion unifiée de la localisation et de la mobilité sans coutures appliquant lénsemble des noeuds a également été traitée. Les résultats d'évaluation par simulation démontrent l'applicabilité et léfficacité des ces protocoles.The aim of this thesis is to investigate methods and strategies for efficient routing and mobility management in personal environments. The concept of Personal Ubiquitous Environments (PUE) is introduced which accommodates heterogeneous devices and access networks of different users and sustain the notion of sharing resources in a distributed manner. A prerequisite for achieving the resource (devices, networks) sharing in personal environments is the deployment of suitable communication protocols which establish efficient multi-hop routes betweens the devices of the PUE. Personal Network Routing Protocol (PNRP) has been developed to perform policy-based routing in personal environments. Moreover, in certain personal networking scenarios, the infrastructure network components (i.e. gateways) are more than one-hop distance from the user's devices; Adaptive Distributed gateway Discovery (ADD) protocol is thereby proposed to efficiently discover the multi-hop routes towards the gateway in a totally distributed manner. All the more, since the personal environments regroups heterogeneous access networks, an efficient mobility management architecture is proposed which offers unified location management and seamless handover experience to dynamic personal nodes. The proposed protocols are assessed by means of numerous communication scenarios; the simulation results demonstrate the applicability of the proposed protocols

    Méthodologie de développement de systèmes multi-agents adaptatifs et conception de logiciels à fonctionnalité émergente

    Get PDF
    Environments within which applications are embedded are growing in complexity and dynamicity, considering the large number and the diversity of the takeholders. Functions of such systems become more and more difficult to define, and their specifications are often incomplete, even if their components are easily identifiable and specifiable. Without new design and modeling methods, managing such project will become too constraining, long and costly to cope with.We propose to use cooperative self-organising adaptive multi-agent systems (AMAS) to tackle these design problems. The functionality of such systems emerges from coopera- tive interactions between agents. Nevertheless, developing using AMAS is still an ad-hoc process and reduced to a small group of users. Several applications have been designed by using AMAS, but it has never been executed by novices and non AMAS experts. To answer to this lack of visibility and openess, the ADELFE project – for Atelier de DEveloppement de Logiciels à Fonctionnalité Emergente or Toolkit for developing applications with emergent functionalities – proposes to develop a methodology based on these emergence oriented principles. This methodology is defined in three points : process, notations and tools. The ADELFE process is based on the Rational Unified Process and extends or adds some agent specific activities. Notations are extensions of UML and A-UML. Tools have been developed or extended in to support notations, with OpenTool, and following the process is eased by using AdelfeToolkit.The relevance of this approach has been confronted to the development of experimental applications. Some results from a dynamic timetable solver, ETTO, and from a multi-robot transportation task are presented and analysed.Les environnements des applications d’aujourd’hui sont de plus en plus complexes et dy- namiques, compte tenu du grand nombre et de la diversité des acteurs en jeu. Les fonctions de tels systèmes deviennent alors de plus en plus difficiles à définir, et leur spécification est souvent incomplète, même si les composantes restent pleinement identifiables et spécifiables. Si de nouvelles méthodes de conception et de modélisation ne sont pas mises au point, la gestion des projets deviendra de plus en plus contraignante, longue et coûteuse.Nous proposons d’utiliser les systèmes multi-agents adaptatifs par auto-organisation coopérative pour palier ces problèmes de conception. La fonctionnalité de ces systèmes est une résultante émergeant des interactions coopératives entre agents. Toutefois, le développement de tels systèmes est resté confidentiel et réduit à un groupe autour de ses créateurs directs. Certes de nombreuses applications ont été conçues grâce à ces systèmes, mais jamais par des novices, non experts du domaine. Pour répondre à ce manque de visibilité et d’ouverture, le projet ADELFE - pour Atelier de DEveloppement de Logiciels à Fonctionnalité Emergente - propose de développer une méthode de développement d’applications repo- sant sur ces principes et définie en trois points : un processus, des notations et des outils. Le processus d’ADELFE est basé sur le Rational Unified Process et y ajoute des activités spécifiques à l’ingénierie orientée agent. Les notations sont une extension des notations UML et A-UML. Des outils ont été développés ou étendus afin de prendre en charge à la fois les notations, grâce à OpenTool, et le processus, grâce à un outil d’aide au suivi appelé AdelfeToolkit.La pertinence de cette méthodologie a été mise à l’épreuve au cours de développements d’applications diverses. Nous présentons ici les résultats obtenus pour un problème de résolution dynamique d’emploi du temps, ETTO (pour Emergent Time Tabling Organisation), et pour un problème de transport multi-robot de ressources

    Un cadre formel de décision pour la planification multi-niveau de systèmes de production réticulaires

    Get PDF
    La globalisation des marchés et les évolutions des technologies de communication et d'information ont fait émerger des organisations de production réticulaires (réseaux d'entreprises). Basées sur des relations étroites de partenariat, celles-ci nécessitent de gérer la chaîne logistique et d'étendre les outils de Gestion de Production traditionnelle à l'échelle du réseau d'entreprises. La planification de la production, fonction clé, demeurant mal résolue, ce mémoire propose un modèle formel de données cadrant la décision experte en planification/ordonnancement multi-site de la production. Nos développements sont basés sur le concept de conduite généralisée qui traite conjointement et récursivement l'allocation des tâches au fur et à mesure de la désagrégation des plans et des données techniques afférentes (gammes et ressources). Dans cette approche, chaque ressource est pilotée par un centre de conduite générique impliqué dans des relations de partenariat et/ou de supervision, instanciable à tout niveau de la structure de conduite. Pour tout centre de conduite, on initialise la fonction planification par la donnée d'un carnet de commande. Le processus décisionnel d'un centre se décompose alors en deux phases : - dans un premier temps, un calcul besoin/charge permettant d'évaluer quantitativement, qualitativement et sémantiquement la charge de travail du centre de conduite, - dans un second temps, une allocation charge/ressources internes et/ou externes, intégrant les contraintes d'approvisionnement logistique. Un ensemble de règles permet d'attester, d'une part, de la cohérence du scénario d'allocation proposé et, d'autre part, de la cohérence de la désagrégation et de la répartition des données entre centres de conduite impliqués dans des relations hiérarchiques et/ou de coopération.The market globalisation and the evolution of information and communication technology have led to the emergence of networked production organisations. Based on closed relationship, these organisations need to manage the supply chain and to extend production management tools to the scale of enterprises networks. As the planning function is not well-ensured, our works consists in the proposition of a formal model to support the expert decision in the context of multi-site production planning and scheduling. Our development are based on the concept of generalised production control. This concept allows simultaneous and recursive task allocation, according to the plan and incoming technical data desegregation (roots and resources). In this approach, each resource is controlled by a generic decision centre involved in partner and/or supervision relationships, instanciable at each decision level. For each decision centre, the planning function is initialised by an order book. Then the decisional process of a centre can be split up into two phases : - in the first time, a requirement/load calculus that permits to evaluate qualitatively, quantitatively and semantically the amount of works that the decision centre has to perform, - in the second time, a load external and/or internal resource allocation that takes into account the logistic constraints A set of rules that permit to check the coherency of the proposed allocation scenario and the coherency of the desegregation and repartition of data between decision centres involved in hierarchical and cooperation relation is then proposed

    Advanced receivers for distributed cooperation in mobile ad hoc networks

    Get PDF
    Mobile ad hoc networks (MANETs) are rapidly deployable wireless communications systems, operating with minimal coordination in order to avoid spectral efficiency losses caused by overhead. Cooperative transmission schemes are attractive for MANETs, but the distributed nature of such protocols comes with an increased level of interference, whose impact is further amplified by the need to push the limits of energy and spectral efficiency. Hence, the impact of interference has to be mitigated through with the use PHY layer signal processing algorithms with reasonable computational complexity. Recent advances in iterative digital receiver design techniques exploit approximate Bayesian inference and derivative message passing techniques to improve the capabilities of well-established turbo detectors. In particular, expectation propagation (EP) is a flexible technique which offers attractive complexity-performance trade-offs in situations where conventional belief propagation is limited by computational complexity. Moreover, thanks to emerging techniques in deep learning, such iterative structures are cast into deep detection networks, where learning the algorithmic hyper-parameters further improves receiver performance. In this thesis, EP-based finite-impulse response decision feedback equalizers are designed, and they achieve significant improvements, especially in high spectral efficiency applications, over more conventional turbo-equalization techniques, while having the advantage of being asymptotically predictable. A framework for designing frequency-domain EP-based receivers is proposed, in order to obtain detection architectures with low computational complexity. This framework is theoretically and numerically analysed with a focus on channel equalization, and then it is also extended to handle detection for time-varying channels and multiple-antenna systems. The design of multiple-user detectors and the impact of channel estimation are also explored to understand the capabilities and limits of this framework. Finally, a finite-length performance prediction method is presented for carrying out link abstraction for the EP-based frequency domain equalizer. The impact of accurate physical layer modelling is evaluated in the context of cooperative broadcasting in tactical MANETs, thanks to a flexible MAC-level simulato

    Architecture d'un système de stations de base distribuées : macrodiversité, agents multiples et autoconfiguration

    Get PDF
    Le paradigme de station de bases distribuée (SDB) est étudié comme remplacement des structures plus rigides de stations de base cellulaire. Dans ce contexte, plusieurs SBD sont réparties afin d'offrir des zones de couverture radio se superposant et ainsi permettre à plusieurs SBD de relayer un même mobile pour lui offrir de la macrodiversité. De plus, les mobiles sont amenés à coopérer pour communiquer sur une même ressource radio afin d'augmenter l'efficacité spectrale par l'utilisation d'une plus grande diversité. L'étude du canal de coopération et macro diversité (de plusieurs mobiles à plusieurs SBD) est abordée afin d'offrir une base à la simulation de ceux-ci et ainsi étudier les interactions et la complexité qui découlent de l'utilisation de ces techniques. Ainsi, un système distribué, de la gestion des connexions (multiples) mobiles à SBD est proposé qui se base sur le concept d'agents multiples. Il est démontré que ceux-ci permet tent l'existence de schémas de connexion dynamiques qui s'auto-organisent. L'étude de l'interférence est ensuite abordée, et un deuxième système d'agents multiples est proposé pour la gestion de l'allocation des canaux. Enfin, la notion de coopération est abordée d'un point de vue systémique, c'est-à-dire en l'étudiant sur le réseau dans son ensemble. Il est montré que la coopération peut être efficace sous certaines conditions et qu'il est possible de gérer cette aptitude supplémentaire simplement avec le recourt d'agents multiples. En fin de compte, l'ensemble des systèmes d'agents proposés et de l'organisation du réseau de SBD permet effectivement d'obtenir des gains appréciables de diversité, d'efficacité spectrale, avec en prime tous les avantages découlant des propriétés distribuées des agents multiples: auto-configuration, adaptabilité, mise à l'échelle, etc
    corecore