64 research outputs found

    Répartition de flux dans les réseaux de contenu, application à un contexte satellite

    Get PDF
    Avec l'apparition de service de vidéo à la demande tel que Netflix, l'utilisation du streaming a explosé ces dernières années. L'important volume de données engendré oblige les opérateurs réseaux à définir et utiliser de nouvelles solutions. Ces solutions même si elles restent fondées sur la pile IP, cherchent à contourner la communication point à point entre deux hôtes (CDN, P2P, ...). Dans cette thèse, nous nous intéressons à une nouvelle approche, l'Information Centric Networking, qui cherche à déconstruire le modèle d'IP en se focalisant sur le contenu recherché. L'utilisateur indique ainsi au réseau qu'il souhaite obtenir une donnée et le réseau s'occupe de lui rapatrier ce contenu. Avec la pile IP, un hôte peut envoyer un message à un autre hôte. Il faut monter au niveau applicatif pour qu'un utilisateur puisse récupérer un contenu. Parmi les nombreuses architectures proposées dans la littérature, Named Data Networking (NDN) nous semble l'architecture la plus mature. Pour que NDN soit une réelle opportunité pour Internet, il lui faut offrir une meilleure Qualité d’Expérience (QoE) aux utilisateurs tout en utilisant efficacement les capacités des réseaux. C’est le coeur de cette thèse : proposer une solution à NDN pour gérer au mieux la satisfaction des utilisateurs. Pour des contenus tels que de la vidéo, le débit est crucial. C’est pourquoi nous avons pris le parti de maximiser ce dernier pour maximiser la QoE. Les nouvelles opportunités offertes par les NDN, telles que le multi-chemin et la mise en cache, nous ont permis de redéfinir la notion de flux dans ce paradigme. Avec cette définition et la possibilité d'effectuer du traitement sur chaque noeud du réseau, nous avons décidé de voir le problème classique du contrôle de congestion comme la recherche d'une répartition équitable des flux. Pour que la QoE des utilisateurs soit optimale, cette répartition devra répondre au mieux aux demandes. Cependant, comme les ressources du réseau ne sont pas infinies, des compromis doivent être faits. Pour cela, nous avons décidé d'utiliser le critère d'équité Max-Min qui permet d'obtenir un équilibre de Pareto où l'augmentation d'un flux ne peut se faire qu'au détriment d'un autre flux moins privilégié. L'objectif de cette thèse a ensuite été de proposer une solution au problème nouvellement formulé. Nous avons donc conçu Cooperative Congestion Control, une solution distribuée ayant pour but de répartir les flux équitablement sur le réseau. Elle se base sur une coopération de chacun des noeuds où les besoins des utilisateurs sont transmis jusqu'aux fournisseurs de contenu et où les contraintes du réseau sont ré-évaluées localement et transmises jusqu'aux utilisateurs. L'architecture de notre solution est générique et est composée de plusieurs algorithmes. Nous proposons quelques implantations de ceux-ci et montrons que même si un équilibre de Pareto est obtenu, seule une équité locale est atteinte. En effet, par manque d'information, les décisions prises par les noeuds sont limitées. Nous avons aussi éprouvé notre solution sur des topologies comprenant des liens satellites (proposant de hauts délais). Grâce à l'émission des Interests régulée par notre solution, nous montrons que ces hauts délais, et contrairement aux solutions de l'état de l'art, n'ont que très peu d'impacts sur les performances de CCC

    Beyond Gbps Turbo Decoder on Multi-Core CPUs

    Get PDF
    International audienceThis paper presents a high-throughput implementation of a portable software turbo decoder. The code is optimized for traditional multi-core CPUs (like x86) and it is based on the Enhanced max-log-MAP turbo decoding variant. The code follows the LTE-Advanced specification. The key of the high performance comes from an inter-frame SIMD strategy combined with a fixed-point representation. Our results show that proposed multi-core CPU implementation of turbo-decoders is a challenging alternative to GPU implementation in terms of throughput and energy efficiency. On a high-end processor, our software turbo-decoder exceeds 1 Gbps information throughput for all rate-1/3 LTE codes with K < 4096

    Évaluation de l’impact de caches pour de la vidéo adaptative par satellite

    Get PDF
    International audienceAujourd’hui, le satellite géostationnaire propose à ses clients un accès Internet haut débit (de l’ordre de 20Mbit/s). Cependant le délai induit engendre une baisse de réactivité pour la plupart des applications. En particulier, le protocole de streaming vidéo adaptatif DASH ne parvient pas à s’y adapter. Au contraire, il sous-évalue les capacités du réseau et fournit le service minimal disponible. Pour réduire les délais, le CDN rapproche les données de l’utilisateur final grâce à la mise en place de caches. Ce service a fait ses preuves pour la navigation web et le téléchargement de fichiers dans Internet. Cet article propose d’analyser l’impact du CDN pour un service de streaming vidéo adaptatif et dans un contexte satcom, deux points qui, ensemble, divergent de l’utilisation habituelle du CDN. De cette première analyse, nous pouvons différentier trois situations. La première propose des performances optimales. Dans la deuxième, le CDN n’apporte rien. Enfin, dans la dernière situation, le CDN a un impact néfaste sur les performances. Ces deux derniers cas sont induits par une mauvaise politique de mise en cache qui leurre le client DASH sur les qualités à demander. Nous résolvons ce problème par le déploiement d’un proxy transparent indiquant les qualités disponibles dans les caches

    Fast Simulation and Prototyping with AFF3CT

    Get PDF
    International audienceThis demonstration intends to present AFF3CT (A Fast Forward 3rror Correction Tool). The main objective of AFF3CT is to provide a portable, open source, fast and flexible software to the channel coding community in such a way that researchers can spend more time on channel coding / algorithmic problems instead of software development issues. It is also intended to facilitate the process of hardware verification and debug with the objective of fast prototyping. I. SIMULATION OF A DIGITAL COMMUNICATION CHAIN Despite the wide variety of existing communication systems , all of them are based on a common abstract model that was proposed by the genius founder of information theory, Claude Shannon [1]. Figure 1 shows the synoptic of such a communication chain. In this structure, the channel encoder and decoder determine the achievable error rate of the system. Moreover, the channel decoder is a large contributor in the overall computational complexity of the system. On the eve of the 5th generation of mobile communication systems, one of the challenges is to imagine systems able to transmit a huge amount of data in a very short amount of time at a very small energy cost in a wide variety of environments. In such a context, researchers work at refining some existing coding schemes (encoder + decoder) in such a way that the system has a low residual error rate and that the associated decoder is fast, flexible and has a low complexity. The validation of a new coding scheme requires the estimation of the error rate performance. Unfortunately, most of the time, no simple mathematical model exists to predict the performance of a channel encoder/decoder. The only simple solution is to perform a Monte Carlo simulation of the whole communication chain: some data are pseudo-randomly generated, encoded, modulated, noised, decoded and the performance is estimated by measuring the Bit Error Rate (BER) and the Frame Error Rate (FER) at the receiver side. This apparently simple setup leads to three main problems. Reproducibility: It is usually a tedious task to reproduce the results from the literature. This can be explained by the large amount of empirical parameters necessary to define one communication system and not all of them are reported in the publications. Moreover, it is rare that researchers actually share the source code of their simulator. As a consequence, a large amount of time is spent "reinventing the wheel" only to be able to compare to the state-of-the-art results

    AFF3CT : Un environnement de simulation pour le codage de canal

    Get PDF
    International audienceDans cet article nous présentons un environne-ment de simulation de Monte Carlo pour les systèmes de communications numériques. Nous nous focalisons en particulier sur les fonctions associées au codage de canal. Après avoir présenté les enjeux liés à la simulation , nous identifions trois problèmes inhérents à ce type de simulation. Puis nous présentons les princi-pales caractéristiques de l'environnement AFF3CT

    Exploring glycopeptide-resistance in Staphylococcus aureus: a combined proteomics and transcriptomics approach for the identification of resistance-related markers

    Get PDF
    BACKGROUND: To unravel molecular targets involved in glycopeptide resistance, three isogenic strains of Staphylococcus aureus with different susceptibility levels to vancomycin or teicoplanin were subjected to whole-genome microarray-based transcription and quantitative proteomic profiling. Quantitative proteomics performed on membrane extracts showed exquisite inter-experimental reproducibility permitting the identification and relative quantification of >30% of the predicted S. aureus proteome. RESULTS: In the absence of antibiotic selection pressure, comparison of stable resistant and susceptible strains revealed 94 differentially expressed genes and 178 proteins. As expected, only partial correlation was obtained between transcriptomic and proteomic results during stationary-phase. Application of massively parallel methods identified one third of the complete proteome, a majority of which was only predicted based on genome sequencing, but never identified to date. Several over-expressed genes represent previously reported targets, while series of genes and proteins possibly involved in the glycopeptide resistance mechanism were discovered here, including regulators, global regulator attenuator, hyper-mutability factor or hypothetical proteins. Gene expression of these markers was confirmed in a collection of genetically unrelated strains showing altered susceptibility to glycopeptides. CONCLUSION: Our proteome and transcriptome analyses have been performed during stationary-phase of growth on isogenic strains showing susceptibility or intermediate level of resistance against glycopeptides. Altered susceptibility had emerged spontaneously after infection with a sensitive parental strain, thus not selected in vitro. This combined analysis allows the identification of hundreds of proteins considered, so far as hypothetical protein. In addition, this study provides not only a global picture of transcription and expression adaptations during a complex antibiotic resistance mechanism but also unravels potential drug targets or markers that are constitutively expressed by resistant strains regardless of their genetic background, amenable to be used as diagnostic targets

    Industry-Scale Orchestrated Federated Learning for Drug Discovery

    Full text link
    To apply federated learning to drug discovery we developed a novel platform in the context of European Innovative Medicines Initiative (IMI) project MELLODDY (grant n{\deg}831472), which was comprised of 10 pharmaceutical companies, academic research labs, large industrial companies and startups. The MELLODDY platform was the first industry-scale platform to enable the creation of a global federated model for drug discovery without sharing the confidential data sets of the individual partners. The federated model was trained on the platform by aggregating the gradients of all contributing partners in a cryptographic, secure way following each training iteration. The platform was deployed on an Amazon Web Services (AWS) multi-account architecture running Kubernetes clusters in private subnets. Organisationally, the roles of the different partners were codified as different rights and permissions on the platform and administrated in a decentralized way. The MELLODDY platform generated new scientific discoveries which are described in a companion paper.Comment: 9 pages, 4 figures, to appear in AAAI-23 ([IAAI-23 track] Deployed Highly Innovative Applications of AI

    Overview of the current use of levosimendan in France: a prospective observational cohort study

    Get PDF
    Abstract Background Following the results of randomized controlled trials on levosimendan, French health authorities requested an update of the current use and side-effects of this medication on a national scale. Method The France-LEVO registry was a prospective observational cohort study reflecting the indications, dosing regimens, and side-effects of levosimendan, as well as patient outcomes over a year. Results The patients included ( n = 602) represented 29.6% of the national yearly use of levosimendan in France. They were treated for cardiogenic shock ( n = 250, 41.5%), decompensated heart failure ( n = 127, 21.1%), cardiac surgery-related low cardiac output prophylaxis and/or treatment ( n = 86, 14.3%), and weaning from veno-arterial extracorporeal membrane oxygenation ( n = 82, 13.6%). They received 0.18 ± 0.07 µg/kg/min levosimendan over 26 ± 8 h. An initial bolus was administered in 45 patients (7.5%), 103 (17.1%) received repeated infusions, and 461 (76.6%) received inotropes and or vasoactive agents concomitantly. Hypotension was reported in 218 patients (36.2%), atrial fibrillation in 85 (14.1%), and serious adverse events in 17 (2.8%). 136 patients (22.6%) died in hospital, and 26 (4.3%) during the 90-day follow-up. Conclusions We observed that levosimendan was used in accordance with recent recommendations by French physicians. Hypotension and atrial fibrillation remained the most frequent side-effects, while serious adverse event potentially attributable to levosimendan were infrequent. The results suggest that this medication was safe and potentially associated with some benefit in the population studied

    Extracorporeal Membrane Oxygenation for Severe Acute Respiratory Distress Syndrome associated with COVID-19: An Emulated Target Trial Analysis.

    Get PDF
    RATIONALE: Whether COVID patients may benefit from extracorporeal membrane oxygenation (ECMO) compared with conventional invasive mechanical ventilation (IMV) remains unknown. OBJECTIVES: To estimate the effect of ECMO on 90-Day mortality vs IMV only Methods: Among 4,244 critically ill adult patients with COVID-19 included in a multicenter cohort study, we emulated a target trial comparing the treatment strategies of initiating ECMO vs. no ECMO within 7 days of IMV in patients with severe acute respiratory distress syndrome (PaO2/FiO2 <80 or PaCO2 ≥60 mmHg). We controlled for confounding using a multivariable Cox model based on predefined variables. MAIN RESULTS: 1,235 patients met the full eligibility criteria for the emulated trial, among whom 164 patients initiated ECMO. The ECMO strategy had a higher survival probability at Day-7 from the onset of eligibility criteria (87% vs 83%, risk difference: 4%, 95% CI 0;9%) which decreased during follow-up (survival at Day-90: 63% vs 65%, risk difference: -2%, 95% CI -10;5%). However, ECMO was associated with higher survival when performed in high-volume ECMO centers or in regions where a specific ECMO network organization was set up to handle high demand, and when initiated within the first 4 days of MV and in profoundly hypoxemic patients. CONCLUSIONS: In an emulated trial based on a nationwide COVID-19 cohort, we found differential survival over time of an ECMO compared with a no-ECMO strategy. However, ECMO was consistently associated with better outcomes when performed in high-volume centers and in regions with ECMO capacities specifically organized to handle high demand. This article is open access and distributed under the terms of the Creative Commons Attribution Non-Commercial No Derivatives License 4.0 (http://creativecommons.org/licenses/by-nc-nd/4.0/)

    Flow distribution in content networks, application to a satellite context

    No full text
    Avec l'apparition de service de vidéo à la demande tel que Netflix, l'utilisation du streaming a explosé ces dernières années. L'important volume de données engendré oblige les opérateurs réseaux à définir et utiliser de nouvelles solutions. Ces solutions même si elles restent fondées sur la pile IP, cherchent à contourner la communication point à point entre deux hôtes (CDN, P2P, ...). Dans cette thèse, nous nous intéressons à une nouvelle approche, l'Information Centric Networking, qui cherche à déconstruire le modèle d'IP en se focalisant sur le contenu recherché. L'utilisateur indique ainsi au réseau qu'il souhaite obtenir une donnée et le réseau s'occupe de lui rapatrier ce contenu. Avec la pile IP, un hôte peut envoyer un message à un autre hôte. Il faut monter au niveau applicatif pour qu'un utilisateur puisse récupérer un contenu. Parmi les nombreuses architectures proposées dans la littérature, Named Data Networking (NDN) nous semble l'architecture la plus mature. Pour que NDN soit une réelle opportunité pour Internet, il lui faut offrir une meilleure Qualité d’Expérience (QoE) aux utilisateurs tout en utilisant efficacement les capacités des réseaux. C’est le coeur de cette thèse : proposer une solution à NDN pour gérer au mieux la satisfaction des utilisateurs. Pour des contenus tels que de la vidéo, le débit est crucial. C’est pourquoi nous avons pris le parti de maximiser ce dernier pour maximiser la QoE. Les nouvelles opportunités offertes par les NDN, telles que le multi-chemin et la mise en cache, nous ont permis de redéfinir la notion de flux dans ce paradigme. Avec cette définition et la possibilité d'effectuer du traitement sur chaque noeud du réseau, nous avons décidé de voir le problème classique du contrôle de congestion comme la recherche d'une répartition équitable des flux. Pour que la QoE des utilisateurs soit optimale, cette répartition devra répondre au mieux aux demandes. Cependant, comme les ressources du réseau ne sont pas infinies, des compromis doivent être faits. Pour cela, nous avons décidé d'utiliser le critère d'équité Max-Min qui permet d'obtenir un équilibre de Pareto où l'augmentation d'un flux ne peut se faire qu'au détriment d'un autre flux moins privilégié. L'objectif de cette thèse a ensuite été de proposer une solution au problème nouvellement formulé. Nous avons donc conçu Cooperative Congestion Control, une solution distribuée ayant pour but de répartir les flux équitablement sur le réseau. Elle se base sur une coopération de chacun des noeuds où les besoins des utilisateurs sont transmis jusqu'aux fournisseurs de contenu et où les contraintes du réseau sont ré-évaluées localement et transmises jusqu'aux utilisateurs. L'architecture de notre solution est générique et est composée de plusieurs algorithmes. Nous proposons quelques implantations de ceux-ci et montrons que même si un équilibre de Pareto est obtenu, seule une équité locale est atteinte. En effet, par manque d'information, les décisions prises par les noeuds sont limitées. Nous avons aussi éprouvé notre solution sur des topologies comprenant des liens satellites (proposant de hauts délais). Grâce à l'émission des Interests régulée par notre solution, nous montrons que ces hauts délais, et contrairement aux solutions de l'état de l'art, n'ont que très peu d'impacts sur les performances de CCC.With the emergence of video-on-demand services such as Netflix, the use of streaming has exploded in recent years. The large volume of data generated forces network operators to define and use new solutions. These solutions, even if they remain based on the IP stack, try to bypass the point-to-point communication between two hosts (CDN, P2P, ...). In this thesis, we are interested in a new approach, Information Centric Networking, which seeks to deconstruct the IP model by focusing on the desired content. The user indicates to the network that he wishes to obtain a data and the network takes care of retrieving this content. Among the many architectures proposed in the literature, Named Data Networking (NDN) seems to us to be the most mature architecture. For NDN to be a real opportunity for the Internet, it must offer a better Quality of Experience (QoE) to users while efficiently using network capacities. This is the core of this thesis: proposing a solution to NDN to manage user satisfaction. For content such as video, throughput is crucial. This is why we have decided to maximize the throughput to maximize the QoE. The new opportunities offered by NDNs, such as multipathing and caching, have allowed us to redefine the notion of flow in this paradigm. With this definition and the ability to perform processing on every node in the network, we decided to view the classic congestion control problem as finding a fair distribution of flows. In order for the users' QoE to be optimal, this distribution will have to best meet the demands. However, since the network resources are not infinite, tradeoffs must be made. For this purpose, we decided to use the Max-Min fairness criterion which allows us to obtain a Pareto equilibrium where the increase of a flow can only be done at the expense of another less privileged flow. The objective of this thesis was then to propose a solution to the newly formulated problem. We thus designed Cooperative Congestion Control, a distributed solution aiming at distributing the flows fairly on the network. It is based on a cooperation of each node where the users' needs are transmitted to the content providers and the network constraints are re-evaluated locally and transmitted to the users. The architecture of our solution is generic and is composed of several algorithms. We propose some implementations of these and show that even if a Pareto equilibrium is obtained, only local fairness is achieved. Indeed, due to lack of information, the decisions made by the nodes are limited. We also tested our solution on topologies including satellite links (thus offering high delays). Thanks to the emission of Interests regulated by our solution, we show that these high delays, and contrary to state-of-the-art solutions, have very little impact on the performance of CCC
    corecore