15 research outputs found

    L'impact spatial et énergétique des data centers sur les territoires

    Get PDF
    Face à la croissance massive des échanges de données et des besoins de stockage, l’impact spatial et énergétique des data centers va être de plus en plus structurant pour les territoires. Leur diversité d’usages, d’acteurs, de tailles et d’implantations rend aujourd’hui complexe la lecture de leurs dynamiques et de leurs effets spatiaux.Le présent rapport s’attache donc à donner une image du paysage des data centers en Ile-de-France et dans trois territoires des États-Unis, représentant chacun des situations spatiales et énergétiques différentes (ville dense, espace périphérique, rural). Facteur potentiel de déséquilibre des systèmes énergétiques locaux, objets dont l’accumulation urbaine et la dispersion rurale questionnent, les data centers font ici l’objet d’une analyse approfondie pour mieux appréhender les nouveaux territoires numériques en construction, les solidarités énergétiques à construire et les alliances d’acteurs à mettre en place.Un focus est également réalisé sur les infrastructures numériques alternatives et citoyennes, qui se développent aussi bien en Afrique, Amérique du Sud, que dans les territoires mal couverts en Europe ou aux États-Unis. Dédiées à l’accès à Internet et de plus en plus, aux services d’hébergement et de cloud, elles peuvent constituer une réponse distribuée et pair-à-pair, dont l’impact écologique pourrait finalement se révéler plus limité que les infrastructures centralisées de grande échelle car calibrées au plus près des besoins locaux, mais aussi plus résilientes car moins centralisées techniquement et moins concentrées spatialement. Elles constituent ainsi une option à considérer, soutenir mais aussi à mieux évaluer, pour réduire les impacts spatiaux et énergétiques des data centers.Le rapport propose également des visions prospectives qui combinent des tendances de fond et des signaux faibles pour imaginer les mondes numériques de demain, dont trois possibles sont décrits : « Croissance et ultracentralisation numérique » ; « Stabilisation du Système Technique Numérique et diversité infrastructurelle : quête d’une difficile résilience » ; « Ultradécentralisation numérique : la fin des data centers ? ». Enfin, des recommandations sont proposées autour de 3 axes : les acteurs et la gouvernance ; l’urbanisme et l’environnement ; l’énergie. Des pistes d’approfondissement et d’études sont également présentées

    Gestion efficiente et écoresponsable des données sauvegardées dans l'infonuagique : bilan énergétique des opérations CRUD (créer, lire, modifier et effacer) de MySQL-Java stockées dans un nuage privé

    Get PDF
    Les technologies de l’information et des communications (TIC) permettent de générer de plus en plus des données et de conserver des renseignements. Leur surcroissance dans les centres de traitement des données (CTD) et dans les disques durs des ordinateurs crée des problèmes de capacité. La matrice CRUD (create, read, update, delete) est un outil conceptuel qui illustre les interactions de divers processus en informatique. Elle est utilisée pour mesurer le cycle de vie du contenu d’une base de données, soit l’insertion « C », la lecture « R », la mise à jour « U » et la suppression « D » des données qu’elle contient. Ces opérations fragmentées sont assimilées aux requêtes INSERT, SELECT, UPDATE et DELETE dans le système de gestion de base de données MySQL. Sous le langage de programmation Java, la commande « System.nanotime() » mesure le temps d’exécution total pour chacune des activités traitées sur un ordinateur et sauvegardées dans un CTD local pour les comparer à celles stockées dans un nuage privé. Le temps d’exécution total, la puissance énergétique de l’unité centrale de traitement (UCT) et le pourcentage d’utilisation du processeur permettent de calculer l’énergie totale en joules consommée par les requêtes SQL exécutées de façon synchrone et asynchrone, individuellement et en séquences. L’objectif est de caractériser le profil énergétique des données sauvegardées dans l’infonuagique pour déterminer si le nuage apporte à l’ordinateur une réduction d’énergie aussi notoire que semble dire la position majoritaire dans le milieu scientifique. Les résultats démontrent que selon le type, le taux et la séquence d’activité CRUD traités dans l’ordinateur, le stockage dans les nuages n’est pas toujours l’opération la plus écoresponsable. Avec cette analyse, il est possible pour l’entreprise de comparer pour ces différentes options (lesquelles) du traitement et sauvegarde des données et d’adapter de façon plus écologique la gestion et l’utilisation des opérations CRUD dans l’infonuagique

    Localisation des centres de données pour des services internet dans la province de Québec

    Get PDF
    L'étude de la localisation des centres de données est un domaine de recherche très actif. Les services Internet populaires sont hébergés dans des centres de données distribuées géographiquement. La localisation des centres de données a un impact direct sur le temps de réponse des services et les coûts (fixes et variables) y compris le coût d’énergie et des équipements de technologie d’information (TI). La localisation prend en considération plusieurs critères y compris la proximité aux zones de marché; les sources d'énergie dans la région ; les coûts des terrains, d'électricité, la main d'œuvre ; et la température moyenne dans la localisation. Les objectifs sont d'optimiser les coûts de mise en place des centres de données et de déterminer l’efficacité énergétique (PUE). Notre projet de recherche introduit un modèle d’optimisation basé sur la programmation linéaire mixte en nombres entiers. L’approche proposée vise à localiser des centres de données offrant des services Internet et à la fois permet de réduire l’énergie consommée par les équipements TI. La résolution du modèle mathématique se fait avec un logiciel d’optimisation : LINGO. La validation et les résultats sont validés à travers un exemple d’expérimentation et une étude numérique

    Modélisation conséquentielle de la consommation d'énergie d'un groupe de serveurs générant un nuage informatique et attributionnelle des bénéfices de la virtualisation

    Get PDF
    L’électricité est actuellement un élément essentiel des sociétés modernes, utilisée dans la vie de tous les jours par l’ensemble de la population. Cependant, sa production contribue à certains dégâts environnementaux, dont le dégagement de gaz à effet de serre (GES), reconnu par une très grande majorité de la communauté scientifique comme étant à l’origine du réchauffement climatique. Les centres de données, pouvant être considérés comme des superordinateurs, représentent 1,3 % de la consommation mondiale d’électricité, ce qui est très impressionnant, en considérant la jeunesse de cette technologie. Pour diminuer leur consommation, différentes stratégies d’optimisation existent, il est notamment possible de citer la virtualisation. Celle-ci permet la création de machines virtuelles (VM), c’est-à-dire l’équivalent virtuel d’un système d’opération possédant toutes les fonctionnalités d’un serveur physique. Les serveurs, pouvant héberger plusieurs VM, sont dès lors capables de répondre simultanément aux demandes de plusieurs clients, permettant ainsi une augmentation de l’utilisation des ressources (par rapport à un serveur par client). Cependant, la virtualisation a un coût lié à l’utilisation d’un « hypervisor », c’est-à-dire d’un programme liant les VM au matériel physique des serveurs. Pour pouvoir choisir adéquatement quelle stratégie d’optimisation à mettre en oeuvre, il est nécessaire de posséder des outils d’évaluation environnementale permettant une comparaison équitable des différentes approches d’optimisation, pour ainsi permettre la quantification de leurs impacts et de leurs bénéfices environnementaux. L’analyse du cycle de vie (ACV) semble satisfaire l’ensemble de ces critères, car c’est une méthodologie permettant de quantifier les impacts environnementaux potentiels de l’ensemble du cycle de vie d’un produit, d’un procédé ou d’un service. Néanmoins, l’ACV est encore une approche en développement, car de nombreux aspects méthodologiques doivent être améliorés. Le cadre de ce mémoire est la quantification des impacts environnementaux liés à l’installation de centres de données, au Canada, ainsi que l’évaluation des bénéfices environnementaux de la virtualisation. La problématique se divise ainsi en deux parties : premièrement, comment modéliser la consommation électrique future de centres de données implantés au Canada, et deuxièmement, comment quantifier les bénéfices environnementaux de la virtualisation? Deux objectifs principaux ont ainsi été fixés pour répondre aux deux parties de la problématique développée ci-dessus : modéliser, en combinant l’ACV conséquentielle à un modèle vii économique, les impacts environnementaux de la consommation d'énergie de la phase d'utilisation d'un groupe de serveurs implanté au Canada et réaliser une ACV permettant l’évaluation des bénéfices environnementaux potentiels de la virtualisation. Deux méthodologies sont utilisées pour remplir les deux objectifs du mémoire. La première, pour évaluer l’impact de l’implantation de centres de données au Canada sur le système énergétique nord-américain, développe une approche conséquentielle et prospective combinant l’ACV et le modèle économique, E3MC (celui-ci décrit le système énergétique nord-américain). Une ACV est dite prospective et conséquentielle lorsqu’elle étudie respectivement des systèmes futurs et des impacts environnementaux liés à des changements dans un système. Cette analyse est réalisée en 5 étapes. Premièrement, des scénarios, décrivant l’évolution de la consommation des centres de données au cours du temps, sont développés avec un scénario de référence dans lequel aucun centre de données n’est implanté. Deuxièmement, les scénarios sont implémentés dans le modèle E3MC. Troisièmement, les technologies marginales, c’est-à-dire les technologies répondant à la demande électrique supplémentaire des nouveaux centres de données, sont identifiées à partir des résultats obtenus avec le modèle E3MC. Quatrièmement, les impacts environnementaux de chaque scénario sont calculés en utilisant le mix de technologies marginales fourni à l’étape précédente, la base de données ACV ecoinvent et la méthode d’impact « IMPACT2002+ ». Finalement, les résultats obtenus sont interprétés et comparés à ceux obtenus à partir d’une approche attributionnelle. La deuxième méthodologie est une ACV préliminaire, c’est-à-dire utilisant des données approximatives, d’un service de vidéoconférences. Le système étudié est ainsi composé de quatre éléments principaux : les ordinateurs et les équipements d’accès à internet des clients utilisant le service de vidéoconférences, la consommation d’énergie des infrastructures permettant le transfert de l’information et le système de serveurs contenant le serveur lame hébergeant le service de vidéoconférences. Un serveur lame contient tous les équipements électroniques d’un serveur, mais arrangés de manière compacte pour minimiser l’espace nécessaire. Une étude plus approfondie du cycle de vie du système de serveurs est réalisée pour permettre une meilleure description des bénéfices environnementaux que peut réaliser l’opérateur du centre de données. L’évaluation de la virtualisation se fait à l’aide de trois scénarios d’utilisation du serveur lame : dans le premier, le serveur lame hébergeant le service de vidéoconférences n’utilise pas la virtualisation. Dans le second scénario, la virtualisation est utilisée par le serveur lame. Finalement dans le troisième scénario, deux serveurs lames ayant recours à la virtualisation sont utilisés pour héberger le service viii de vidéoconférences, pour ainsi améliorer sa fiabilité. Finalement, pour tester la robustesse des conclusions, différentes analyses de sensibilité sont réalisées. Les résultats obtenus à partir de l’approche combinant l’ACV au modèle E3MC indiquent que les principales sources futures d’électricité marginales sont le gaz naturel et le charbon avec une légère participation de l’hydroélectricité. De plus, la demande électrique des nouveaux centres de données induit une diminution marginale importante des exportations du Canada vers les États-Unis. Cette diminution marginale des exportations provoque une production marginale compensatoire aux États-Unis à base de combustible fossile. Enfin, l’augmentation de la demande électrique des nouveaux centres de données provoque une augmentation de la proportion d’hydroélectricité et une diminution de celle du charbon dans le grid mix marginal. Cependant, bien que l’utilisation du modèle E3MC augmente le nombre de critères considérés à travers l’utilisation de nombreux paramètres économiques, technologiques, démographiques, environnementaux…, elle augmente également les incertitudes et diminue la transparence de l’étude. Effectivement, l’utilisation du modèle E3MC, de par sa complexité, a nécessité la participation d’experts de chez Environnement Canada. Par ailleurs, le modèle et les données utilisées pour le calibrer n’ont pas pu être obtenus pour des raisons de confidentialité. Ainsi, pour développer l’utilisation de modèles économiques en ACV, car ceux-ci permettent de prendre en considération de nombreux phénomènes, il serait nécessaire de faire appel à différents experts pour réaliser un travail multidisciplinaire incluant à la fois la science de l’ACV et de l’économie. Les résultats obtenus à partir de l’ACV préliminaire indiquent clairement des bénéfices non négligeables au niveau des serveurs lorsque la virtualisation est utilisée, mais les bénéfices sont mitigés par la faible participation du système de serveurs aux impacts totaux d’une vidéoconférence. Effectivement, l’ACV préliminaire indique que les impacts d’une vidéoconférence sont majoritairement provoqués par la production de l’ordinateur portable et par la consommation d’électricité du transfert de données et de l’ordinateur portable. Néanmoins, l’application d’une stratégie de virtualisation à plus grande échelle, pour des applications nécessitant une plus grande capacité de calcul, pourrait apporter des gains environnementaux globaux plus importants. Par ailleurs, la virtualisation permet d’augmenter l’utilisation des serveurs existants, évitant ainsi la construction de nouveaux centres de données. Ainsi, l’ACV préliminaire a permis d’apporter une vision plus globale à ce type d’évaluation environnementale, en considérant à la fois l’entièreté du cycle de vie et un grand nombre de critères environnementaux. Cependant, les incertitudes entourant les résultats sont importantes et il serait nécessaire pour améliorer les ACV touchant au secteur des TIC d’augmenter la coopération avec les industries utilisant et produisant les TIC, pour ainsi combler l’important manque de données présent dans la description des TIC en ACV. ---------- Nowadays, electricity is an essential element of our modern society, people use it every day in their daily activities. However, its production is responsible for numerous environmental damages accounting for 30% of the global greenhouse gas (GHG) emissions, recognized by the majority of the scientific community to be the origin of the climatic changes. Data center can be considered as supercomputers and represent already 1,3 % of the global electricity consumption. It is a very high portion considering the youth of this technology. To decrease their consumption, different strategies of optimization exist, for example the virtualization, which makes it possible to install several operating systems known as virtual machines (VM) on a single server, increasing its utilization. But virtualization has a cost due to the utilisation of a programme, named “hypervisor”, which connects the VM to the hardware. To choose adequately the strategy to apply, it is necessary to possess an environmental evaluation tool, allowing the quantification of the environmental gains and costs of each optimization approaches. Life cycle assessment (LCA) seems to satisfy these conditions because it is a methodology that quantifies the potential environmental impacts of the entire life cycle of a product or service. However, LCA is a methodological tool still in development and many issues are in discussion. This master thesis aims to quantify the environmental impacts induced by the installation of data centers in Canada and to evaluate the environmental benefits of using virtualization. The problematic is divided in two parts: first, how to model the environmental impacts of new data centers installed in Canada, and second, how to quantify the benefits of virtualization? Two objectives are fixed to solve the two parts of the problematic: evaluate, by combining consequential LCA with an economic model, the environmental impacts of energy consumption of data centers implanted in Canada and evaluate with a LCA approach the environmental benefits of virtualization. The first part of the methodology develops a consequential and prospective approach, combining LCA with the economic model E3MC (which describe the North American energy sector and the Canadian economy), to evaluate the impact on the North American energy sector of datacenters implantation in Canada. A LCA is prospective when a future system is evaluated and it is consequential when impacts from a change due to a decision are evaluated. This analysis is xi divided in five steps. Firstly, scenarios are developed describing the evolution of datacenters consumption between 2015 and 2030, with a reference scenario where no datacenters are installed. Secondly, the scenarios are modeled in the E3MC model. Thirdly, the marginal technologies, those which supply the new datacenters, are identified with the results of the E3MC model. Fourthly, the environmental impacts are calculated with the marginal technologies, the impact method “IMPACT2002+” and the LCA data base ecoinvent. Finally the results are interpreted and compared with those obtained with an attributional approach. The second part of the methodology is a screening-LCA study where approximated data are used to draw a preliminary picture of the environmental impact of a videoconference service with call management servers relying on virtualization. The studied system is composed of four processes: the laptop and the internet access device of the customer, the energy consumption needed for the data transfer and the server hosting the videoconference. A more accurate study of the server impact is done to obtain a better description of the benefits of virtualization. Three scenarios of server utilization are modeled: in the first one the server does not use virtualisation, in the second scenario the virtualisation is used by the server and in the third scenario two servers, using the virtualisation, share the videoconferencing management to increase the reliability of the service. Finely, different sensitivity analysis are performed to test the conclusion strength. The results from the combination of LCA with the E3MC model indicate three major conclusions: first, the marginal technologies are mainly the natural gas and coal with a small participation of hydroelectricity at the end of the simulation. Second, the perturbation induced an important compensatory production from the United-States. Third, an increase of the perturbation induces an increase of the marginal production in Canada resulting in an increase of hydroelectricity and a decrease of the coal in the marginal technologies share. The model allows the consideration of a high number of parameters but increases also the uncertainties and decreases the results transparency. Indeed, the complexity of recent economic models increases the need for economists to create, use and understand them. We recommend to increase the cooperation between economists and LCA analysts in the future when economic models are used to determine marginal technologies. The screening LCA of the videoconferencing service indicates clearly a high decrease of server environmental impacts when virtualization is used, but the importance of these benefits is xii mitigated by the small participation of server to the videoconferencing service total impacts. Indeed, the total impacts are mainly caused by the customer’s laptop and the data transfer. But, the application of virtualization to a bigger scale and for applications requiring a higher computing capacity would bring more important environmental benefits. Thus the screening-LCA brought a more global vision to these types of problem by considering the entire life cycle and numerous environmental impacts. However, the uncertainties on the results are high and we recommend to involve industries producing and using ICT for future LCA on the subject to decrease the existing data gap in this sector in LCA

    Agilité des procédés de transformation de la matière dans un contexte d'approvisionnement et de demande instables : application au traitement de la biomasse

    Get PDF
    Dans un contexte industriel instable où l’offre et la demande sont incertaines, les industries de procédés sont poussées à transformer leurs systèmes de production. Ce défi s’inscrit dans une transition globale intégrant les exigences liées au développement durable et portée par des tendances fortes. En effet, cette transformation doit tenir compte de la notion de services qui s’installe durablement dans l’industrie. Par ailleurs, l’intensification de la digitalisation impulsée par les technologies de l’Industrie 4.0 créé de nouvelles perspectives d’organisation des moyens de production. À cet effet, les communautés scientifiques du Génie des Procédés, telle que la Société Française du Génie des Procédés, s’accordent pour le développement d’une Usine du Futur. Les enjeux auxquels elle devra répondre sont multiples. Non contente de développer une approche incluant l’économie circulaire, l’industrie de procédés de demain sera numérique et virtuelle. De plus, elle devra adapter l’ensemble du système de production aux fluctuations de son environnement, tout en considérant l’acceptabilité sociale. Dans cette perspective, les initiatives actuelles proposent des solutions reposant majoritairement sur la flexibilité des opérations unitaires ainsi que la modularité du procédé pour une matière première et/ou un produit final fixé. Cela induit des investissements conséquents que ce soit dans les pilotes de laboratoire ou encore la conception d’unité de fabrication. Pour remédier à ces difficultés, l’agilité des systèmes de production apparaît comme une solution, dépassant les concepts de modularité et de flexibilité déjà mis en oeuvre dans ce domaine. Toutefois, il est constaté une absence de conceptualisation et de méthodes de mise en oeuvre de l’agilité dans la discipline du Génie des Procédés. Ces travaux de thèse visent à combler ce manque en proposant un cadre méthodologique outillé pour l’apport d’agilité à l’ensemble de la chaîne de transformation de la matière. Ainsi l’agilité, telle que proposée, permet de comprendre non seulement la dynamique du procédé dans son environnement mais aussi de mobiliser des moyens de production adaptés, en cas de fluctuations. L’objectif de ces travaux de thèse est de construire une chaîne de transformation de la matière supportée par une usine virtuelle résultant de la collaboration de services offerts par des acteurs à l’échelle d’un territoire. Un service de transformation permet de réaliser tout ou partie des étapes du procédé retenu, et est sélectionné selon les besoins. Le procédé est décentralisé en s’appuyant sur des installations existantes afin de s'adapter à la variabilité et à la dispersion de l'offre (mise en oeuvre, exploitation). Dans cette perspective, la première étape de ces travaux de thèse consiste à concevoir un méta-modèle de l’environnement du procédé (acteurs, services, contexte, objectifs et performance). Un second méta-modèle est ensuite proposé pour représenter la connaissance sur les procédés décrits dans la littérature. Sur la base des résultats précédents, la troisième étape s’intéresse à la création d'un algorithme de déduction de la chaîne de transformation de la matière, intégrant les services logistiques nécessaires à sa bonne réalisation. Cet algorithme a donné lieu à la réalisation d’une preuve de concept logicielle. L’usage de ce cadre méthodologique et outillé sera illustré dans le cas de la transformation de la biomasse, à l’aide de données réalistes. En effet, le bioraffinage est l’une des principales voies proposées pour mener la transition énergétique. Cependant, le système actuel de traitement de la biomasse, figé et hautement spécialisé, doit faire face à une grande variabilité en raison de plusieurs contraintes internes et externes (qualité, quantité, pureté, etc.). Pour faire face à cette instabilité, il est nécessaire de faire preuve d'agilité tant en termes de procédé de transformation que d’acteurs et de réseaux logistiques

    Gestion de l'énergie dans les systèmes de production : évaluation et application des pratiques énergétiques dans l'industrie forestière

    Get PDF
    La lutte contre les changements climatiques est au cœur des préoccupations du 21e siècle. Pour faire face à cet enjeu, tous les secteurs d'activité doivent être alignés sur les principes du développement durable. L'industrie forestière, figurant parmi les plus énergivores au monde, doit adopter des stratégies lui permettant de réduire ses émissions de GES, d'améliorer son efficacité énergétique et de continuer à se développer de manière durable. La mise en œuvre de systèmes de gestion de l'énergie s'inscrit dans cette équation. Ainsi, cette industrie doit tirer profit de l'industrie 4.0 qui digitalise l'ensemble des pratiques opérationnelles des organisations. C'est dans ce contexte que prend place ce mémoire qui vise à promouvoir les pratiques de gestion de l'énergie au sein des processus de production de l'industrie forestière, en particulier dans les scieries. Pour y arriver, une revue de la littérature a d'abord été réalisée en vue de définir les principales dimensions de la gestion de l'énergie qui soutiennent la mise en œuvre d'un système de gestion de l'énergie dans les systèmes de production d'une organisation. Par la suite, la deuxième étape de la recherche a consisté à créer un cadre d'analyse dimensionnel afin d'évaluer le degré de maturité énergétique de l'industrie forestière dans le monde, et d'identifier les stratégies de sa transition énergétique la conduisant vers un développement plus durable. Dans la dernière étape de la recherche, deux scénarios d'analyse ont été élaborés pour les scieries du sous secteur des produits du bois, dans le but de représenter les différentes actions, indicateurs de performance énergétique, stratégies, contrôles et méthodes pouvant être utilisés pour surveiller la performance énergétique des opérations lorsque le niveau d'accès à l'information diffère entre chaque scierie. Cette dernière étape du projet a permis de constater qu'en fonction du niveau d'accès à l'information, il est possible de choisir différents outils et méthodes de contrôle de l'énergie adaptés au contexte énergétique de chaque scierie et de définir différentes actions stratégiques. Ce mémoire propose donc un tour d'horizon visant à montrer l'application des approches de gestion de l'énergie dans l'industrie forestière. Les outils développés sont des incitatifs pouvant être implantés au sein des entreprises. Les bénéfices permettront non seulement une meilleure gestion de l'énergie, mais également une réduction des impacts sur l'environnement.The 21st century will be the century of the fight against climate change. To face this challenge, all business sectors must be aligned with the principles of sustainable development. The forest industry, one of the most energy-intensive in the world, must adopt strategies that allow it to reduce its GHG emissions, improve its energy efficiency and continue to develop in a sustainable way. The implementation of energy management systems fits into this equation. Similarly, this industry must take advantage of Industry 4.0 that is digitizing all operational practices of organizations. It is in this context that this research is carried out, which aims to promote energy management practices within the production processes of the forest industry, more particularly in sawmills. To achieve this, first a literature review was carried out in order to define the main dimensions of energy management that support the implementation of an energy management system in the production system of an organization. Subsequently, the second phase of the research consisted in creating a dimensional analysis framework in order to assess the energy maturity level of the forest industry in the world, and to identify the strategies of its energy transition leading it towards a more sustainable development. In the final phase of there search, two analysis scenarios were developed for the sawmills of the wood products subsector, in order to illustrate the different actions, energy performance indicators, strategies, controls and methods that can be used to control the energy efficiency of operations, when access to information differs between each sawmill. This last phase of the project made it possible to verify that depending on the level of access to information, it is possible to choose different tools and energy control methods adapted to the energy context of each sawmill and to define different strategic actions. Therefore, this research provides an overview intended to show the application of energy management approaches in the forest industry. The tools developed are incentives that can be implemented within companies. The benefits will not only allow better energy management, but also a reduction in environmental impacts

    Déploiement de réseaux optiques d'accès NGPON dans des métropoles de pays en développement : proposition de nouvelles techniques d'implémentation de l'OFDM

    Get PDF
    The rapid development of multimedia services and applications such as broadband Internet, 3G, LTE, has led customers to force operators to increase throughput of all network segments, including the access network. Solutions using optical fiber tend to gradually replace cable based-copper or coaxial communications to ensure larger transfer capacity. The optical fiber is a very attractive medium because its linear attenuation is very low and its bandwidth very high. However, the chromatic dispersion of the fiber associated with the chirp of the optical sources limit the rise in flowrate in future optical access networks (beyond rates of 10 Gb/s) NG-PON (Next Generation Passive Optical Network). In this context, modulation formats with higher spectral efficiency than NRZ-OOK could be selected. OFDM is a solution to increase the spectral efficiency, while ensuring a better performance and high robustness against frequency selective channel such as fiber optics. In this thesis, we proposed a new OFDM techniques implementation for NG-PON and evaluated their performance in an IM/DD channel. We showed by simulations system of a realistic optical channel, that New DCO, New INC-ACO and DC-ACO OFDM techniques are able to increase the limited transmission distances imposed by the NRZ-OOK modulation with the use of low-cost components. Thus, we showed that using the “Minimization and E-Tight (MET)”or the Levin-Campello algorithm, the New DCO and DC-ACO techniques permit to achieve data rates of 10 Gb/s with a split ratio of 1 × 64 over a distance of 70 km with New DCO and 55 km for DC-ACO. Then we conclude that the New AMOFDM approach is a good choice for the deployment of optical access networks in metropolitan cities of developing countries.L’évolution rapide des services et applications multimédias (Internet haut débit, 3G, LTE) a entrainé un besoin chez les clients qui contraint les opérateurs à augmenter le débit de tous les segments du réseau, y compris le réseau d’accès. Les solutions utilisant la fibre optique tendent à remplacer progressivement les liaisons câblées (cuivre ou coaxial) afin de garantir des capacités de transfert plus importantes. La fibre optique est un medium très attractif car son atténuation linéique est très faible et sa bande passante importante. Cependant la dispersion chromatique de la fibre associée au chirp des sources optiques limite la montée en débit dans les futurs réseaux d’accès optiques (débits au-delà de 10 Gb/s) NG-PON (Next Generation Passive Optical Network). Dans ce contexte, des formats de modulation à efficacité spectrale meilleure que le NRZ pourraient être retenus. L’OFDM est une solution pour accroître l’efficacité spectrale, tout en garantissant une meilleure performance et une grande robustesse face aux canaux sélectifs en fréquence comme la fibre optique. Dans ce travail de thèse, nous avons proposé de nouvelles techniques d’implémentation de l’OFDM pour le NG-PON et évalué leurs performances dans un canal IM/DD. Nous avons montré par des simulations système dans un canal optique réaliste, que les techniques New DCO, New INC-ACO et DC-ACO sont capables d’augmenter les limitations de distances de transmission imposées par la modulation NRZ-OOK (Non-Return to Zero On-Off Keying) avec l’utilisation de composants bas coût. Ainsi, nous avons montré qu’avec les méthodes «MET (Minimization E-Tight)» et Levin-Campello, les techniques New DCO et DC-ACO permettent de réaliser des débits de 10 Gb/s sur une distance de 70 km en New DCO et 55 km en DC-ACO avec un taux de partage de 1×64. Cela permet d’affirmer que l’approche New AMOFDM serait un bon candidat pour le déploiement de réseaux d’accès optiques dans les métropoles de pays en développement

    JNOG 33 - 2013

    No full text
    National audienceRecueil JNOG 3

    Hydrologie des régions méditerranéennes

    Get PDF
    corecore