136 research outputs found

    Analyse mathématique, méthode de calcul de la gigue et applications aux réseaux Internet

    Get PDF
    RÉSUMÉ Internet, ces dernières années, sert de support de communication à un grand nombre d’applications. L’évolution des réseaux à haut débit ont facilité le progrès des applications multimédia comme la voix sur IP, la vidéo streaming ou la vidéo interactive en temps réel... La variation de la disponibilité des ressources du réseau ne peut pas garantir une bonne qualité à tout moment pour ces services. C’est dans ce contexte que les travaux de ce projet de doctorat s’inscrivent et précisément dans le cadre de l’optimisation de la qualité de service (QoS). Les mécanismes de contrôle de QoS sont variés. On retrouve le contrôle de délai, assuré par la stratégie d’ordonnancement des paquets. Le contrôle de débit, quant à lui, fait en sorte que le débit de la source soit égal à la bande passante disponible dans le réseau. Excepté que les applications vidéo, surtout en temps réel, sont très sensibles à la variation du délai, appelée la gigue. En effet, la qualité perçue par les clients des vidéos en ligne dépend étroitement de la gigue. Une augmentation de la gigue engendre principalement des problèmes de démarrage retardé de la vidéo, des interruptions au cours de la vidéo et des distorsions de la résolution. L’objectif de cette thèse est d’étudier le paramètre de la gigue, qui demeure peu étudiée dans la littérature sur les réseaux IP, ainsi que d’envisager l’impact de l’augmentation de ce paramètre sur la vidéo transmise sur IP, l’une des applications les plus populaires de nos jours. Toutefois, au-delà des difficultés de la modélisation du trafic et du réseau, cet objectif majeur pose de nombreuses problématiques. Comment calculer la gigue analytiquement pour un trafic modélisé par des distributions généralisées au niveau paquet ? Est-ce que les modèles proposés sont suffisamment simples et faciles à calculer ? Comment intégrer ces nouvelles formalisations pour le contrôle des performances ? Comment l’estimation analytique peut- elle minimiser le trafic des paquets de contrôle des connexions vidéo? Nous explorons tout d’abord le calcul de la gigue dans des files d’attente avec des trafics autres que le trafic Poisson. Ce dernier est largement utilisé pour modéliser le trafic sur Internet étant donnée sa simplicité en échange de la imprécision. L’idée pour le calcul de la gigue est d’utiliser, d’une part la même formule que le cas du Poisson mais en intégrant d’autres distributions, et d’autre part des approximations et des hypothèses quand la caractérisation analytique du temps de transit n’est pas possible. Nous adoptons la simulation pour valider les modèles approximatifs. L’ensemble de simulations montre que la gigue moyenne calculée par notre modèle et celle obtenue par simulation coïncident avec des intervalles de confiance adéquats. De plus, le temps de calcul estimé pour évaluer la gigue est minime, ce qui facilite l’utilisation des formules proposées dans des outils de contrôle et en optimisation.-----------ABSTRACT In recent years, we have witnessed the huge use of the Internet Protocol for delivering multimedia trafic. Developments in broadband networks led the progress in multimedia applications such as voice over IP, video streaming or real-time videos. However, the stochastic nature of the networks, in particular mobile networks, make it difficult to maintain a good quality at all times. The research of this PhD thesis deals with the improvement of the quality of service (QoS) for this kind of applications. Current network protocols provide multiple QoS control mechanism. Congestion control and transmission delay optimization are provided by packet scheduling strategies and bandwidth planning. Moreover, flow control adjusts the mismatch between the video server rate and the receiver available bandwidth. Nevertheless, video applications, in particular interactive videos, are very sensitive to delay variation, commonly called jitter. Indeed, the customers’ perceived video quality depends on it. A jitter increase may cause a large video start-up delay, video interruptions and a decrease of image quality. The main objective of this thesis is the study of jitter, which is not much studied in the IP literature. We also examine the impact of the increase of this parameter on video transmission. However, beyond the difficulties of modeling traffic and network, this major objective raises many other issues. How to calculate jitter analytically for traffic models with general distributions? Are the proposed models sufficiently simple and easy to calculate? How to integrate these new formalizations into performance monitoring? How can the analytical estimate minimize the traffic control packets exchange for each video connection? We first explore the jitter calculation in queues with traffic other than Poisson traffic, that was widely used to model Internet traffic because of its simplicity. The idea is to compute jitter with the same formula for the Poisson traffic case, but with other distributions. For this, we need some approximations and assumptions when the analytical characterization of the transit time is not possible. We adopt simulations to validate the approximate models. The set of simulations shows that the average jitter calculated by our model and by simulation coincide within an appropriate confidence intervals. Moreover, the execution time to evaluate jitter is small, which facilitates the use of the proposed formulas in control tools and in optimization models. We then study the possibility of exploiting this analytical results to control jitter buffers, an important component in the video transmission. We find that it is possible to evaluate its performances analytically by estimating jitter inside this type of buffer

    Adaptation de contexte basée sur la qualité d'expérience dans les réseaux internet du futur

    Get PDF
    Pour avoir une idée sur la qualité du réseau, la majorité des acteurs concernés (opérateurs réseau, fournisseurs de service) se basent sur la Qualité de Service (Quality of Service). Cette mesure a montré des limites et beaucoup d efforts ont été déployés pour mettre en place une nouvelle métrique qui reflète, de façon plus précise, la qualité du service offert. Cette mesure s appelle la qualité d expérience (Quality of Experience). La qualité d expérience reflète la satisfaction de l utilisateur par rapport au service qu il utilise. L évaluation de la qualité d expérience est devenue primordiale pour les fournisseurs de services et les fournisseurs de contenus. Cette nécessité nous a poussés à innover et mettre en place des nouvelles méthodes pour estimer la QoE. Dans cette thèse, nous travaillons sur l estimation de la QoE dans le cas des communications Voix sur IP et dans le cas de la vidéo sur IP. Nous étudions les performances et la qualité des codecs iLBC, Speex et Silk pour la VoIP et les codecs MPEG-2 et H.264/SVC pour la vidéo sur IP. Nous étudions l impact que peut avoir la majorité des paramètres réseaux, des paramètres sources (au niveau du codage) et destinations (au niveau du décodage) sur la qualité finale. Afin de mettre en place des outils précis d estimation de la QoE en temps réel, nous nous basons sur la méthodologie Pseudo-Subjective Quality Assessment. La méthodologie PSQA est basée sur un modèle mathématique appelé les réseaux de neurones artificiels. En plus des réseaux de neurones, nous utilisons la régression polynomiale pour l estimation de la QoE dans le cas de la VoIP.Quality of Experience (QoE) is the key criteria for evaluating the Media Services. Unlike objective Quality of Service (QoS) metrics, QoE is more accurate to reflect the user experience. The Future of Internet is definitely going to be Media oriented. Towards this, there is a profound need for an efficient measure of the Quality of Experience (QoE). QoE will become the prominent metric to consider when deploying Networked Media services. In this thesis, we provide several methods to estimate the QoE of different media services: Voice and Video over IP. We study the performance and the quality of several VoIP codecs like iLBC, Speex and Silk. Based on this study, we proposed two methods to estimate the QoE in real-time context, without any need of information of the original voice sequence. The first method is based on polynomial regression, and the second one is based on an hybrid methodology (objective and subjective) called Pseudo-Subjective Quality Assessment. PSQA is based on the artificial neural network mathematical model. As for the VoIP, we propose also a tool to estimate video quality encoded with MPEG-2 and with H.264/SVC. We studied also the impact of several network parameters on the quality, and the impact of some encoding parameters on the SVC video quality. We tested also the performance of several SVC encoders and proposed some SVC encoding recommendations.RENNES1-Bibl. électronique (352382106) / SudocSudocFranceF

    Optimisation de la transmission d'images dans les réseaux de capteurs pour des applications critiques de surveillance

    Get PDF
    L émergence de petites caméras CMOS et de microphones MEMS, à coût et puissance réduits, a contribué au développement d une technologie permettant la transmission de flux multimédia (audio, image, vidéo) : les réseaux de capteurs multimédia. Cette technologie, offrant de nouvelles perspectives d applications potentielles où la collecte d informations visuelles et/ou acoustiques apporte une plus- value certaine, suscite un intérêt manifeste. Avec des données multimédia, la qualité de service devient désormais une exigence fondamentale pour la transmission dans un environnement contraint en ressources. Dans le contexte spécifique de cette thèse, nous considérons un déploiement par voie aérienne d une grande quantité de capteurs image pour des applications critiques de surveillance telles que la détection d intrusion ou des opérations de recherche et sauvetage. La prise en compte de la criticité des applications constitue un aspect important de cette thèse, novateur par rapport aux contributions déjà effectuées dans le domaine. Nos travaux se fondent sur une méthode d ordonnancement adaptatif de l activité des capteurs image qui fournit, pour chacun d entre eux, son ensemble de cover-sets. La détection d un événement dans le réseau déclenche la transmission d une large quantité d informations visuelles, émanant de plusieurs sources pour résoudre les ambiguïtés. L objectif de cette thèse est d optimiser cette transmission simultanée d images causant des désagréments sur le réseau. Nous avons tout d abord proposé une stratégie de sélection des cover-sets pertinents à activer pour une transmission efficace des images capturées. Cette stratégie, basée sur des critères d état et de voisinage, assure un compromis entre autonomie et criticité. Une extension multi-chemin de GPSR assure la remontée des images émises des sources sélectionnées au puits. Une seconde contribution, également une approche de sélection, se fonde sur les informations de chemins à 2 sauts pour la sélection des cover-sets. Contrairement à la précédente, elle accorde une priorité à la criticité par rapport à la préservation de l énergie, même si cette préservation est faite de manière indirecte. Un protocole de routage multi-chemin T-GPSR essentiellement basé sur les informations à 2 sauts est associé à la seconde approche de sélection. Une étude de performances de la mobilité du puits sur les propositions basées sur les informations à 2 sauts constitue notre troisième contribution.Recent advances of inexpensive and low-power CMOS cameras and MEMS mi- crophones have led to the emergence of Wireless Multimedia Sensor Networks (WMSNs). WMSNs promise a wide spectrum of potential applications which require to ubiquitously capture multimedia content (visual and audio information). To support the transmission of multimedia content in a resource constrained environment, WMSNs may require a certain level of quality of service (QoS) in terms of delay, bandwidth, jitter, reliability, quality level etc. In this thesis, we consider Wireless Image Sensor Networks (WISNs) where sensor nodes equipped with miniaturized visual cameras to provide accurate information in various geographical parts of an area of interest can be thrown in mass for mission-critical applications such as intrusion detection or search & rescue. An innovative and important aspect of this thesis is to take into account the criticality of applications. The network adopts an adaptive scheduling of image sensor node s activity based on the application criticality level, where each node computes its cover-sets. So, event detection triggers the simulataneous transmission of a large volume of visual data from multiples sources to the Sink. The main objective of this thesis is to optimize this simultaneous transmission of images that can degrade network performance. With this goal in mind, we first proposed a multi-criteria approach to select the suitable cover-sets to be activated for reliable transmission of images in mission-critical applications. The proposed approach takes into account various parameters that affect the image quality at the Sink in a multi-hop transmission network and guarantees a compromise between autonomy and criticality. A modified version of GPSR routing protocol supporting the transmission of multimedia streams ensures the transfer of images from selected sources to the Sink. The second contribution consists in an optimized selection strategy based on 2-hop neighborhood information to determine the most relevant cover-sets to be activated to increase reliability for image transmission. This selection approach prioritizes the application s criticality. A multipath extension of GPSR, called T-GPSR, wherein routing decisions are based 2-hop neighborhood information is also proposed. A performance study of the sink mobility on proposals based on 2-hop information is our third contribution.PAU-BU Sciences (644452103) / SudocSudocFranceF

    Analyse et conception de modèle de mesure de la qualité d'expérience perçue lors de la diffusion de la vidéo dans les réseaux sans-fil hétérogènes

    Get PDF
    Plusieurs travaux ont été réalisés pour analyser l’impact de facteurs liés à l’encodage ou au réseau d’accès sur la variation de la qualité perçue d’une vidéo. Certains de ces travaux ont restreint leur étude en développant des modèles dont les facteurs sont essentiellement orientés sur un seul aspect : soit l’encodage de la vidéo ou le réseau d’accès. Une meilleure estimation de qualité nécessite toutefois une approche non discriminante prenant en compte ces deux types de facteurs. Peu de travaux se sont penchés sur des modèles basés sur une approche non discriminante intégrant l’impact des pertes de paquets sur les réseaux et le débit d’encodage sur la qualité d’expérience. Les modèles proposés dans ces travaux ne prennent généralement pas en compte l’impact de la vitesse du contenu vidéo, le changement de définition et de codec. Dans ce mémoire, nous analysons l’impact de facteurs liés à l’encodage, au contenu vidéo et au réseau d’accès sur la variation de la qualité perçue d’une vidéo. Nous proposons deux modèles pour l’estimation de la qualité perçue d’une vidéo en fonction de ces facteurs. Le premier modèle proposé est essentiellement orienté vers des facteurs liés à l’encodage. Ce modèle fait distinction la plupart des modèles d’autres auteurs dans cette même catégorie. En effet, il prend en compte l’impact de la vitesse du contenu vidéo, le changement de définition et de codec. Le second modèle proposé fait distinction de celui de l’Union Internationale des Télécommunications. En effet, il prend en compte l’impact de la vitesse du contenu vidéo. Ce modèle est basé sur une approche non discriminante. Cela fait distinction des modèles dont les facteurs sont essentiellement orientés sur un seul aspect : soit l’encodage de la vidéo ou le réseau d’accès

    Prise en compte de la qualité de l’expérience utilisateur au sein des protocoles de streaming HTTP adaptatifs

    Get PDF
    While streaming video services (Netflix + YouTube} represent more than 50% of US households consumed bandwidth, the growth of mobility (4G LTE + LTEa) and the arrival of 3 next generation networks (NGN) with the distinction between network operator and service operator may change the business model of service providers. The Best-Effort model currently used by streaming services will decrease due to its hight cost. It is therefore necessary to consider a model optimizing the service flow based on real users expectations. The main objective of this thesis is to propose a solution which take into account the QoE in streaming services. In the first art of this thesis, we highlight the very personal nature of the quality of experience during viewing multimedia session. This is achieved by subjective tests on fifty users. Then, we present an architecture for the QoE consideration in HTTP adaptive streaming protocols (HTTP Live Streaming, DASH ...) to make adaptation decisions based on implicit expectations of the user. A proof of concept is illustrated through an open source project (http://ipfhas.github.io/)Alors que les services de streaming vidéo (Netflix +YouTube) représentent plus de 50% du trafic web des foyers américains sur leurs lignes fixes, l'expansion de la mobilité (4G LTE et LTEa) et l'arrivée des réseaux du futur (NGN) avec la distinction entre opérateur de réseaux et opérateurs de services, risquent de modifier le modèle économique des fournisseurs de service. Le modèle en Best-effort utilisé actuellement par les services de streaming risque de péricliter dû au coût important lié à ce type de fonctionnement. Il convient donc de réfléchir à un modèle optimisant les flux du service à envoyer en fonction du besoin réel des utilisateurs finaux. L'objectif principal de cette thèse est donc de proposer une solution permettant de prendre en compte la QoE au sein des services de streaming. Dans une première partie de cette thèse, nous mettons en avant le caractère très personnel de la qualité d'expérience lors d'une session de visionnage multimédia. Ceci est réalisé par des tests subjectifs sur une cinquantaine d'utilisateurs. Nous présentons ensuite une architecture permettant la prise en compte de la QoE au sein des protocoles de streaming HTTP adaptatifs (HTTP Live Streaming, DASH ...) afin de prendre des décisions d'adaptation du service non plus sur la bande passante disponible à un instant T, mais sur les attentes implicites de l'utilisateur et ceci d'une manière non intrusive. L‘implémentation d'une preuve du concept est illustrée à travers la création d'un projet open source (http://ipfhas.github.io/

    Apport de la Qualité de l’Expérience dans l’optimisation de services multimédia : application à la diffusion de la vidéo et à la VoIP

    Get PDF
    The emerging and fast growth of multimedia services have created new challenges for network service providers in order to guarantee the best user's Quality of Experience (QoE) in diverse networks with distinctive access technologies. Usually, various methods and techniques are used to predict the user satisfaction level by studying the combined impact of numerous factors. In this thesis, we consider two important multimedia services to evaluate the user perception, which are: video streaming service, and VoIP. This study investigates user's QoE that follows three directions: (1) methodologies for subjective QoE assessment of video services, (2) regulating user's QoE using video a rate adaptive algorithm, and (3) QoE-based power efficient resource allocation methods for Long Term Evaluation-Advanced (LTE-A) for VoIP. Initially, we describe two subjective methods to collect the dataset for assessing the user's QoE. The subjectively collected dataset is used to investigate the influence of different parameters (e.g. QoS, video types, user profile, etc.) on user satisfaction while using the video services. Later, we propose a client-based HTTP rate adaptive video streaming algorithm over TCP protocol to regulate the user's QoE. The proposed method considers three Quality of Service (QoS) parameters that govern the user perception, which are: Bandwidth, Buffer, and dropped Frame rate (BBF). The BBF method dynamically selects the suitable video quality according to network conditions and user's device properties. Lastly, we propose a QoE driven downlink scheduling method, i.e. QoE Power Escient Method (QEPEM) for LTE-A. It esciently allocates the radio resources, and optimizes the use of User Equipment (UE) power utilizing the Discontinuous Reception (DRX) method in LTE-AL'émergence et la croissance rapide des services multimédia dans les réseaux IP ont créé de nouveaux défis pour les fournisseurs de services réseau, qui, au-delà de la Qualité de Service (QoS) issue des paramètres techniques de leur réseau, doivent aussi garantir la meilleure qualité de perception utilisateur (Quality of Experience, QoE) dans des réseaux variés avec différentes technologies d'accès. Habituellement, différentes méthodes et techniques sont utilisées pour prédire le niveau de satisfaction de l'utilisateur, en analysant l'effet combiné de multiples facteurs. Dans cette thèse, nous nous intéressons à la commande du réseau en intégrant à la fois des aspects qualitatifs (perception du niveau de satisfaction de l'usager) et quantitatifs (mesure de paramètres réseau) dans l'objectif de développer des mécanismes capables, à la fois, de s'adapter à la variabilité des mesures collectées et d'améliorer la qualité de perception. Pour ce faire, nous avons étudié le cas de deux services multimédia populaires, qui sont : le streaming vidéo, et la voix sur IP (VoIP). Nous investiguons la QoE utilisateur de ces services selon trois aspects : (1) les méthodologies d'évaluation subjective de la QoE, dans le cadre d'un service vidéo, (2) les techniques d'adaptation de flux vidéo pour garantir un certain niveau de QoE, et (3) les méthodes d'allocation de ressource, tenant compte de la QoE tout en économisant l'énergie, dans le cadre d'un service de VoIP (LTE-A). Nous présentons d'abord deux méthodes pour récolter des jeux de données relatifs à la QoE. Nous utilisons ensuite ces jeux de données (issus des campagnes d'évaluation subjective que nous avons menées) pour comprendre l'influence de différents paramètres (réseau, terminal, profil utilisateur) sur la perception d'un utilisateur d'un service vidéo. Nous proposons ensuite un algorithme de streaming vidéo adaptatif, implémenté dans un client HTTP, et dont le but est d'assurer un certain niveau de QoE et le comparons à l'état de l'art. Notre algorithme tient compte de trois paramètres de QoS (bande passante, taille de mémoires tampons de réception et taux de pertes de paquets) et sélectionne dynamiquement la qualité vidéo appropriée en fonction des conditions du réseau et des propriétés du terminal de l'utilisateur. Enfin, nous proposons QEPEM (QoE Power Efficient Method), un algorithme d'ordonnancement basé sur la QoE, dans le cadre d'un réseau sans fil LTE, en nous intéressant à une allocation dynamique des ressources radio en tenant compte de la consommation énergétiqu

    Analyse, implémentation et évaluation de performance de la future méthode d'accès HSDPA

    Get PDF
    La technologie HSDPA (High Speed Downlink Packet Access) représente la première étape d’évolution de la méthode d’accès du réseau mobile de troisième génération UMTS (Universal Mobile Telecommmunications Service). Cette technologie permet d’obtenir des débits théoriques supérieurs à 10 Mbps sur le lien descendant et de supporter des services à valeur ajoutée, tels que l’accès Internet à haute vitesse, le téléchargement de fichiers audio et vidéo, la réception de programmes télévisés et la visiophonie. Ces améliorations sont rendues possibles grâce à une combinaison de propriétés qui sont à la base du HSDPA et qui consistent à adapter le codage et la modulation en fonction des conditions du canal radio (AMC : Adaptative Modulation and Coding), à effectuer des retransmissions rapides de paquets erronés (HARQ : Hybrid Automatic Repeat ReQuest) et à utiliser des méthodes d’ordonnancement intelligentes plus rapides. Même si l’introduction de ces nouvelles techniques contribue à une augmentation de la capacité du système, elle engendre toutefois une plus grande complexité dans l’évaluation de ses performances dans des conditions réelles. Dans ce contexte, nous proposons une implémentation et une évaluation de la méthode d’accès HSDPA qui prend en considération les spécifications techniques des Node B et des terminaux mobiles d’un système UMTS. Les résultats obtenus de cette implémentation, basés sur plusieurs scénarios utilisant des données géographiques réelles, montrent que le système réussit à satisfaire aux exigences des services multimédia.High speed downlink packet access (HSDPA) is an add-on technology for W-CDMA that allows higher downlink data rates and greater base station capacity. With HSDPA, W-CDMA systems, which today are seemingly stuck at 384 kbps, will be able to shift gears and move ahead to so-called 3.5G performance with over 10 Mbps throughput on the downlink. The incorporation of HSDPA in Release 5 of the 3GPP W-CDMA specification is the most significant change on the RF side since Release 99. Advanced techniques such as adaptive modulation and coding (AMC) and hybrid automatic repeat request (HARQ) are used to modify the coding and physical layer parameters adaptively in response to the instantaneous channel quality, thus enabling gains in spectral efficiency and data rates. On the other hand, such improvements also bring a higher complexity degree in the evaluation of the radio subsystem performance. This evaluation is crucial for operators who are willing to provide value-added services with rich multimedia contents. This thesis aims at implementing and simulating a radio access network on a real geographic area using the HSDPA features. Results show that such features enable to satisfy the quality of service requirements needed to support the new data-oriented services

    Gestion de contexte pour l'optimisation de l'accès et l'adaptation des services sur des environnements hétérogènes

    Get PDF
    Dans le domaine des TIC, les services de demain seront certainement basés sur des systèmes ubiquitaires, omniprésents et pervasifs. Ces systèmes devront prendre en considération différents paramètres provenant de l environnement de l utilisateur, c est à dire son contexte. Le contexte de l utilisateur peut être composé d informations statiques ou dynamiques, objectives ou subjectives, quantitatives ou qualitatives. Il peut inclure des données telles que la localisation géographique, les caractéristiques du terminal utilisé, la température ambiante, l humeur de l utilisateur. Afin d améliorer la QoS et la QoE, les services et les systèmes doivent être adaptés aux changements du contexte des utilisateurs. Le contexte doit donc être collecté et interprété et les règles d adaptation du système doivent être définies. Sur les systèmes étendus, riches, dynamiques et hétérogènes, tels que ceux considéré dans le cadre de cette thèse, ces opérations doivent être automatisées. Vu la quantité et la complexité des données contextuelles à considérer, l utilisation de la sémantique dans la gestion de contexte peut faciliter cette automatisation et ouvrir la porte au raisonnement et à l adaptation automatiques. Aujourd hui, peu de solutions viables existent pour cette problématique. Nous proposons alors d utiliser et d adapter des mécanismes et technologies provenant du web sémantique pour décrire et manipuler les informations de contexte. Dans un premier temps, nous avons proposé une méthodologie de conception qui nous permit de proposer Ubiquity-Ont : une ontologie générique au domaine des TIC, flexible et extensible. Les données de contexte ont alors été décrites sous forme de concepts et d instances, reliés par des relations sémantiques. Nous avons ensuite proposé une architecture overlay, composée de deux niveaux de vitalisation et permettant d intégrer un gestionnaire de contexte, basé sur la sémantique, sur des environnements réseaux et services. Cette solution overlay permet de (a) masquer l hétérogénéité des composants du système et (b) d augmenter virtuellement les entités du système existant par les capacités nécessaires à la manipulation et au raisonnement sur les données sémantiques du contexte. Nos propositions ont étés implémentées et testées sur une plateforme réelle et appliquées à deux cas d études : Gestion de la mobilité sur des environnements de réseaux d accès hétérogènes et Optimisation de la consommation d énergie dans les terminaux mobilesFuture Information and Telecommunication Systems are expected to be pervasive and ubiquitous solutions, able to consider users context and to automatically adapt to their environments. Traditional configuration and management tools are not adapted. The richness, the heterogeneity and the complexity of the upcoming systems require automated solutions able to gather contextual information, to reason on them and to make the appropriate adaptation decisions. The representation and the sharing of contextual information is a key issue. In this thesis, we proposed and used a methodology to conceive Ubiquity-Ont , a generic ontology dedicated to Information and Telecommunication Systems. Contextual information are the described through semantic concepts, instances and relations. We then proposed an overlay architecture, composed of two virtualization layers that can integrate a semantic context management framework over existing networking environments. This architecture is able (a) to hide any heterogeneity among the system components and (b) to augment the different entities with additional capacities for context gathering, reasoning and sharing operations. The proposed solutions were then implemented and tested in Lab for two applications. The fisrt is related to mobility management over heterogeneous Wireless Networks and the second aims to power optimization on mobile terminals. These two case studies helped in proving and enhancing the proposed solutionsEVRY-INT (912282302) / SudocSudocFranceF

    Analyse et amélioration de la qualité de services WEB multimédia et leurs mises en oeuvre sur ordinateur et sur FPGA

    Get PDF
    Résumé : Les services Web, issus de l’avancée technologique dans le domaine des réseaux informatiques et des dispositifs de télécommunications portables et fixes, occupent une place primordiale dans la vie quotidienne des gens. La demande croissante sur des services Web multimédia (SWM), en particulier, augmente la charge sur les réseaux d’Internet, les fournisseurs de services et les serveurs Web. Cette charge est essentiellement due au fait que les SWM de haute qualité nécessitent des débits de transfert et des tailles de paquets importants. La qualité de service (par définition, telle que vue par l’utilisateur) est influencée par plusieurs facteurs de performance, comme le temps de traitement, le délai de propagation, le temps de réponse, la résolution d’images et l’efficacité de compression. Le travail décrit dans cette thèse est motivé par la demande continuellement croissante de nouveaux SWM et le besoin de maintenir et d’améliorer la qualité de ces services. Nous nous intéressons tout d’abord à la qualité de services (QdS) des SWM lorsqu’ils sont mis en œuvre sur des ordinateurs, tels que les ordinateurs de bureau ou les portables. Nous commençons par étudier les aspects de compatibilité afin d’obtenir des SWM fonctionnant de manière satisfaisante sur différentes plate-formes. Nous étudions ensuite la QdS des SWM lorsqu’ils sont mis en œuvre selon deux approches différentes, soit le protocole SOAP et le style RESTful. Nous étudions plus particulièrement le taux de compression qui est un des facteurs influençant la QdS. Après avoir considéré sous différents angles les SWM avec mise en œuvre sur des ordinateurs, nous nous intéressons à la QdS des SWM lorsqu’ils sont mis en œuvre sur FPGA. Nous effectuons alors une étude et une mise en œuvre qui permet d’identifier les avantages à mettre en œuvre des SWM sur FPGA. Les contributions se définissent en cinq volets comme suit : 1. Nous introduisons des méthodes de création, c’est-à-dire conception et mise en œuvre, de SWM sur des plate-formes logicielles hétérogènes dans différents environnements tels que Windows, OS X et Solaris. Un objectif que nous visons est de proposer une approche permettant d’ajouter de nouveaux SWM tout en garantissant la compatibilité entre les plate-formes, dans le sens où nous identifions les options nous permettant d’offrir un ensemble riche et varié de SWM pouvant fonctionner sur les différentes plate-formes. 2. Nous identifions une liste de paramètres pertinents influençant la QdS des SWM mis en œuvre selon le protocole SOAP et selon le style REST. 3. Nous développons un environnement d’analyse pour quantifier les impacts de chaque paramètre identifié sur la QdS de SWM. Pour cela, nous considérons les SWM mis en œuvre selon le protocole SOAP et aussi selon style REST. Les QdS obtenues avec SOAP et REST sont comparées objectivement. Pour faciliter la comparaison, la même gamme d’images (dans l’analyse de SWM SOAP) a été réutilisée et les mêmes plate-formes logicielles. 4. Nous développons une procédure d’analyse qui permet de déterminer une corrélation entre la dimension d’une image et le taux de compression adéquat. Les résultats obtenus confirment cette contribution propre à cette thèse qui confirme que le taux de compression peut être optimisé lorsque les dimensions de l’image ont la propriété suivante : le rapport entre la longueur et la largeur est égal au nombre d’or connu dans la nature. Trois libraires ont été utilisées à savoir JPEG, JPEG2000 et DjVu. 5. Dans un volet complémentaire aux quatre volets précédents, qui concernent les SWM sur ordinateurs, nous étudions ainsi la conception et la mise en œuvre de SWM sur FPGA. Nous justifions l’option de FPGA en identifiant ses avantages par rapport à deux autres options : ordinateurs et ASICs. Afin de confirmer plusieurs avantages identifiés, un SWM de QdS élevée et de haute performance est créé sur FPGA, en utilisant des outils de conception gratuits, du code ouvert (open-source) et une méthode fondée uniquement sur HDL. Notre approche facilitera l’ajout d’autres modules de gestions et d’orchestration de SWM. 6. La mise à jour et l’adaptation du code open-source et de la documentation du module Ethernet IP Core pour la communication entre le FPGA et le port Ethernet sur la carte Nexys3. Ceci a pour effet de faciliter la mise en œuvre de SWM sur la carte Nexys3. // Abstract : Web services, which are the outcome of the technological advancements in IT networks and hand-held mobile devices for telecommunications, occupy an important role in our daily life. The increasing demand on multimedia Web services (MWS), in particular, augments the load on the Internet, on service providers and Web servers. This load is mainly due to the fact that the high-quality multimedia Web services necessitate high data transfer rates and considerable payload sizes. The quality of service (QoS, by definition as it is perceived by the user) is influenced by several factors, such as processing time, propagation delay, response time, image resolution and compression efficacy. The research work in this thesis is motivated by the persistent demand on new MWS, and the need to maintain and improve the QoS. Firstly, we focus on the QoS of MWS when they are implemented on desktop and laptop computers. We start with studying the compatibility aspects in order to obtain MWS functioning satisfactorily on different platforms. Secondly, we study the QoS for MWS implemented according to the SOAP protocol and the RESTful style. In particular, we study the compression rate, which is one of the pertinent factors influencing the QoS. Thirdly, after the study of MWS when implemented on computers, we proceed with the study of QoS of MWS when implemented on hardware, in particular on FPGAs. We achieved thus comprehensive study and implementations that show and compare the advantages of MWS on FPGAs. The contributions of this thesis can be resumed as follows: 1. We introduce methods of design and implementation of MWS on heterogeneous platforms, such as Windows, OS X and Solaris. One of our objectives is to propose an approach that facilitates the integration of new MWS while assuring the compatibility amongst involved platforms. This means that we identify the options that enable offering a set of rich and various MWS that can run on different platforms. 2. We determine a list of relevant parameters that influence the QoS of MWS. 3. We build an analysis environment that quantifies the impact of each parameter on the QoS of MWS implemented on both SOAP protocol and RESTful style. Both QoS for SOAP and REST are objectively compared. The analysis has been held on a large scale of different images, which produces a realistic point of view describing the behaviour of real MWS. 4. We develop an analysis procedure to determine the correlation between the aspect ratio of an image and its compression ratio. Our results confirm that the compression ratio can be improved and optimised when the aspect ratio of iiiiv an image is close to the golden ratio, which exists in nature. Three libraries of compression schemes have been used, namely: JPEG, JPEG2000 and DjVu. 5. Complementary to the four contributions mentioned above, which concern the MWS on computers, we study also the design and implementation of MWS on FPGA. This is justified by the numerous advantages that are offered by FPGAs, compared to the other technologies such as computers and ASICs. In order to highlight the advantages of implementing MWS on FPGA, we developed on FPGA a MWS of high performance and high level of QoS. To achieve our goal, we utilised freely available design utilities, open-source code and a method based only on HDL. This approach is adequate for future extensions and add-on modules for MWS orchestration

    Le code à effacement Mojette : Applications dans les réseaux et dans le Cloud

    Get PDF
    Dans ce travail, je présente l'intérêt du code correcteur à effacement Mojette pour des architectures de stockage distribuées tolérantes aux pannes. De manière générale, l'approche par code permet de réduire d'un facteur 2 le volume de données stockées par rapport à l'approche standard par réplication qui consiste à copier la donnée en autant de fois que l'on suppose de pannes. De manière spécifique, le code à effacement Mojette présente les performances requises pour la lecture et l'écriture de données chaudes i.e très régulièrement sollicitées. Ces performances en entrées/sorties permettent par exemple l'exécution de machines virtuelles sur des données distribuées par le système de fichier RozoFS. En outre, j'effectue un rappel de mes contributions dans le domaine des réseaux auto-organisés de type P2P et ad hoc mobile en présentant respectivement les protocoles P2PWeb et MP-OLSR. L'ensemble de ce travail est le fruit de 5 encadrements doctoraux et de 3 projets collaboratifs majeurs
    corecore