42 research outputs found

    Gestion prédictive d'un micro-réseau résidentiel

    Get PDF
    International audienceDans cet article est présentée une stratégie de gestion prédictive destinée au pilotage des systèmes de production et de stockage d'énergie d'un micro-réseau résidentiel. Ainsi, un habitat d'une surface de 190 m2, situé dans le sud de la France et qu'il est possible d'équiper de panneaux solaires photovoltaïques, d'une éolienne à axe vertical et de batteries, a été modélisé. Une tarification dynamique a également été considérée. Cette stratégie tient compte des états actuel et futur du réseau électrique ainsi que des interactions entre ce dernier et le micro-réseau. L'objectif est ici de favoriser l'auto-consommation d'énergie, tout en minimisant l'impact négatif de la production locale sur le réseau électrique. Les résultats obtenus en simulation démontrent notamment que le recours à un système de stockage électrique, piloté grâce à la stratégie proposée, permet d'optimiser l'interaction avec le réseau électrique. Enfin, l'auto-consommation est favorisée par le mix-énergétique considéré

    Model predictive control for microgrid functionalities: review and future challenges

    Get PDF
    ABSTRACT: Renewable generation and energy storage systems are technologies which evoke the future energy paradigm. While these technologies have reached their technological maturity, the way they are integrated and operated in the future smart grids still presents several challenges. Microgrids appear as a key technology to pave the path towards the integration and optimized operation in smart grids. However, the optimization of microgrids considered as a set of subsystems introduces a high degree of complexity in the associated control problem. Model Predictive Control (MPC) is a control methodology which has been satisfactorily applied to solve complex control problems in the industry and also currently it is widely researched and adopted in the research community. This paper reviews the application of MPC to microgrids from the point of view of their main functionalities, describing the design methodology and the main current advances. Finally, challenges and future perspectives of MPC and its applications in microgrids are described and summarized.info:eu-repo/semantics/publishedVersio

    Solar Irradiance Ramp Forecasting Based on All-Sky Imagers

    Get PDF
    Solar forecasting constitutes a critical tool for operating, producing and storing generated power from solar farms. In the framework of the International Energy Agency’s Photovoltaic Power Systems Program Task 16, the solar irradiance nowcast algorithms, based on five all-sky imagers (ASIs), are used to investigate the feasibility of ASIs to foresee ramp events. ASIs 1–2 and ASIs 3–5 can capture the true ramp events by 26.0–51.0% and 49.0–92.0% of the cases, respectively. ASIs 1–2 provided the lowest

    Virtualia 2016. La réalité virtuelle au service de la recherche: Actes du séminaire organisé par le CIREVE à Caen (19 octobre 2016),

    Get PDF
    International audienceLe séminaire Virtualia est né en 2006 en même temps que le Centre Interdisciplinaire de Réalité Virtuelle (CIREVE) de l’Université de Caen Normandie. Son objectif est de permettre aux équipes associées au CIREVE d’exposer leurs méthodologies et les résultats de leurs travaux dans le domaine de la Réalité Virtuelle, tout en s’ouvrant à des communications extérieures. Il a connu quatre éditions de 2006 à 2009.2016 fut l’occasion de relancer VIRTUALIA et de concrétiser le partenariat avec les Universités de Rouen et du Havre dans le cadre de la COMUE. Une Structure Fédérative de Recherche « CIREVE » est en effet en cours de labellisation au sein de Normandie Université. 2016 est également une année importante car elle marque à la fois le dixième anniversaire du CIREVE et la finalisation d’une plate-forme de réalité virtuelle normande, unique en son genre sur le territoire français. Elle est composée d’une salle immersive quatre faces de 45 m2, équipée d’un tapis roulant particulièrement adapté pour l’analyse de la marche en temps réel (GRAIL de Motek Medical). Les calculateurs de cette salle immersive sont mutualisés avec un amphithéâtre attenant de 150 places, de manière que les expérimentations effectuées avec un sujet unique dans la salle immersive puissent être suivies par un auditoire nombreux (besoins de formation notamment). Les équipes utilisent le matériel au fur et à mesure des développements informatiques et de nouveaux protocoles d’expérimentation germent dans l’esprit des chercheurs qui voient dans la réalité virtuelle des possibilités de tests jamais atteintes.Une centaine de chercheurs utilise régulièrement le plateau technique CIREVE, dans des visées de recherche qui leur sont propres. Il est toutefois apparu qu’un certain nombre de problématiques concernaient toutes les disciplines et qu’une partie de la réflexion sur les mondes virtuels pouvait être mutualisée. Le séminaire VIRTUALIA permet d’offrir un espace de rencontre à ces chercheurs, issus d’horizons différents, pour discuter de l’utilisation de l’outil d’un point de vue épistémologique. Il est par exemple capital de s’interroger sur la notion de présence. Le sujet se comporte-il de la même façon dans l’environnement virtuel et dans le monde réel ? Les chemins de circulation choisis dans le modèle virtuel sont-ils les mêmes que ceux qui seraient empruntés en réalité ? Les conclusions établies dans le modèle virtuel sont-elles directement transposables à la réalité ? Un des enjeux du travail est d’évaluer la pertinence subjective des modèles virtuels, ce qui est capital avant de généraliser leur utilisation dans des actions de formation par exemple. L’utilisation d’une technologie n’est jamais complètement neutre. Dans le cadre des mondes virtuels, l’interaction de l’homme avec le monde de synthèse n’est possible qu’au travers de logiciels et d’interfaces matérielles. Il faut s’assurer que les processus cognitifs soient adéquats avant de s’interroger sur le résultat des simulations. Naturellement, le séminaire permet également à chaque discipline d’exposer les résultats des dernières recherches réalisées grâce à la réalité virtuelle.Les domaines scientifiques concernés par la réalité virtuelle sont multiples : les civilisations et les patrimoines culturels, la médecine, les neurosciences, la psychologie, les sciences du mouvement et du sport, l’ingénierie, l’informatique. L’Université de Caen Normandie étant pluridisciplinaire, le spectre des utilisations est très large. Elles se répartissent en trois axes principaux et un axe en émergence :LA REPRÉSENTATION : la réalité virtuelle permet de représenter et de visualiser, interactivement et en trois dimensions, des environnements disparus, dégradés, inaccessibles, ou des environnements futurs.Domaines concernés : civilisations, patrimoine, linguistique...L'EXPÉRIMENTATION : en permettant d'interagir en temps réel avec un monde numérique 3D, la réalité virtuelle offre de nouvelles perspectives d'expérimentations dans des environnements de plus en plus proches du réel et en même temps parfaitement contrôlables.Domaines concernés : santé, neuropsychologie, psychologie, activités physiques et sportives...LA CREATION ET LE DEVELOPPEMENT D’OUTILS : les informaticiens créent et testent des applications concernant les méthodes de navigation en monde virtuel, de restitution de la réalité.Domaine concerné : informatique.LA FORMATION (axe en émergence) : par la représentation de la connaissance, par les diverses possibilités d'expérimentation, la réalité virtuelle est un formidable outil de formation.Domaines concernés : sciences du langage, médecine, informatique (serious game, simulation...).Une partie importante de la réflexion développée lors du séminaire Virtualia 2016 a été consacrée aux enjeux sociétaux liés à la réalité virtuelle : notions de mémoire, d’apprentissage des gestes techniques, d’être humain « augmenté » etc. Les articles publiés attestent du savoir-faire, bien réel cette fois, que le CIREVE a acquis en termes de création de mondes virtuels pour représenter, expérimenter et former. La publication des actes du séminaire Virtualia vise à mettre en lumière des recherches particulièrement innovantes qui s’effectuent dans un cadre technologique exceptionnel.- S. Madeleine, Virtualia 2016. Introduction (et direction de l'édition)- J. Grieu, F. Lecroq, Th. Galinho, H. Boukachour, Environnements industriels virtualisés et processus d’apprentissage- Ph. Brunet, J. Dehut, Images 3D et humanités numériques : modélisation et restitution du geste théâtral- G. Lecouvey, J. Gonneaud, N. Legrand, G. Rauchs, F. Eustache, B. Desgranges, Réalité virtuelle et mémoire- N. Benguigui, C. Mandil, M. Mallek, L. Lejeune, R. Thouvarecq, Étude des liens entre perception et action dans des environnements virtuels- E.-G. Dupuy, A. Maneuvrier, E. Vlamynck, S. Besnard, B. Bienvenu, L.-M. Decker, Le syndrome d’Ehlers-Danlos type hypermobile : évolution des stratégies posturales en réponse à un programme de rééducation à visée somesthésique- C. Weismann-Arcache, Réalité virtuelle et humain augmenté : subjectivation, désubjectivation ?- L. Haddouk, Réalité psychique en visioconsultatio

    Prédiction par réseaux de neurones de l'état d'un procédé de dépollution

    No full text
    Les stations de traitement des eaux usées ont pour objectifs principaux de satisfaire la demande en eau et d'assurer un niveau d'épuration élevé. Cela nécessite une connaissance et une surveillance approfondie des divers procédés de traitement mis en jeu. Certains paramètres caractérisant l'eau à différents stades d'un procédé biologique de dépollution sont mesurables en ligne grâce à des capteurs physiques. D'autres, pouvant fournir une information précieuse sur la qualité des flux entrants et sortants, ne peuvent être connus qu'à partir d'analyses de laboratoires, longues et onéreuses.L'intérêt et l'originalité du travail présenté résident dans l'élaboration d'une procédure de prédiction, basée sur un réseau de neurones multi-couches, permettant d'estimer des paramètres, impossibles à mesurer directement en ligne, afin de fournir une aide à la décision pertinente pour des opérateurs chargés de la surveillance d'un procédé biologique d'élimination de la pollution.Cette procédure de prédiction, développée dans un premier temps à partir d'un jeu de données simulées, fait intervenir un traitement par clustering K-Means puis par Analyse en Composantes Principales afin d'optimiser la phase d'apprentissage du réseau de neurones. Elle a ensuite été confrontée à des données réelles décrivant le procédé biologique, fortement non linéaire, de la station de traitement des eaux de la ville de Saint Cyprien. Les paramètres estimés sont la DCO, la DBO et le NH4.Un capteur optique permettant la mesure de la turbidité sans encrassement et pour un faible coût a été mis au point afin de compléter l'information fournie par la prédiction neuronale.Wastewater treatment plants have as principal objectives to satisfy the demand for water and to provide a high level of pollution removal. That requires a knowledge and a thorough monitoring of the various treatment processes. Some parameters characterizing the water at various stages of a biological treatment process are measurable on line by physical sensors. Others parameters, able to provide invaluable information on the quality of entering and outgoing flows, can only be known by means of long and expensive laboratory analyses. The interest and the originality of this work is the development of a procedure of prediction, based on a multi-layer neural network, allowing to estimate parameters, impossible to measure directly on line, in order to provide a relevant decision-making aid for operators in charge of the monitoring of a wastewater treatment plant. This procedure of prediction, initially developed with a simulated data set, utilizes a treatment by K-Means clustering and by principal components analysis to optimize the learning phase of the neural network. The procedure was confronted with real data describing the biological process, strongly nonlinear, of the wastewater treatment plant of Saint Cyprien.The estimated parameters are the Chemical Oxygen Demand (COD), the Biochemical Oxygen Demand (BOD) and the NH4.An optical sensor allowing the measurement of turbidity (a parameter characterizing the visual aspect of a water) without clogging and at a low cost was developed in order to complete the information provided by the neuronal procedure of prediction.PERPIGNAN-BU Lettres-Sc.humaines (661362102) / SudocSudocFranceF

    Intra-Day Direct Normal Irradiance Forecasting Under Clear Sky Conditions Using ANFIS

    No full text
    International audienceThis paper deals with an intra-day Direct Normal Irradiance (DNI) forecasting methodology under clear sky conditions, for time horizon varying up to 5 h. The goal is to evaluate the variability and the needs of forecasting models under such conditions. It is a part of a project which aims to forecast the DNI under various sky conditions at short term horizon and high spatial resolution. A quick review of the clear sky DNI modeling is firstly performed. Then, the database selection and filtering process is described. Finally, the forecasting approaches are presented and compared to persistent models used as references. The most efficient model presented here is based on adaptive network-based fuzzy inference systems and the optimal configuration achieves very good forecasting results and validates the proposed methodology

    Comparison between Time- and Observation-Based Gaussian Process Regression Models for Global Horizontal Irradiance Forecasting

    No full text
    With the development of predictive management strategies for power distribution grids, reliable information on the expected photovoltaic power generation, which can be derived from forecasts of global horizontal irradiance (GHI), is needed. In recent years, machine learning techniques for GHI forecasting have proved to be superior to classical approaches. This work addresses the topic of multi-horizon forecasting of GHI using Gaussian process regression (GPR) and proposes an in-depth study on some open questions: should time or past GHI observations be chosen as input? What are the appropriate kernels in each case? Should the model be multi-horizon or horizon-specific? A comparison between time-based GPR models and observation-based GPR models is first made, along with a discussion on the best kernel to be chosen; a comparison between horizon-specific GPR models and multi-horizon GPR models is then conducted. The forecasting results obtained are also compared to those of the scaled persistence model. Four performance criteria and five forecast horizons (10 min, 1 h, 3 h, 5 h, and 24 h) are considered to thoroughly assess the forecasting results. It is observed that, when seeking multi-horizon models, using a quasiperiodic kernel and time as input is favored, while the best horizon-specific model uses an automatic relevance determination rational quadratic kernel and past GHI observations as input. Ultimately, the choice depends on the complexity and computational constraints of the application at hand

    Load management in multi-energy buildings: a simulation case study

    No full text
    International audienceThis paper presents a comprehensive approach about energy resources management in buildings connected to the electricity grid and equipped with energy production and storage systems. The aim of the work is to find interesting configurations that favour energy self-consumption while minimizing the impact of the local production on the grid. Energy and economic criteria are proposed to evaluate the proposed strategy. A parametric study allowed the local systems to be optimally designed. So, we used first the TRNSYS software to model the thermal behaviour of a single-storey house, inhabited by four persons and equipped with photovoltaic solar panels, a vertical-axis windmill and batteries for electricity storage. The results we obtained in simulation prove that one can design in an optimal way the just-mentioned systems and find configurations that offer a very good compromise between energy self-consumption and renewable energy coverage rate while limiting the negative impact of the local production on the electricity grid

    A Survey of Recent Advances in the Smart Management of Microgrids and Networked Microgrids

    No full text
    Microgrids (MGs) and networked (interconnected) microgrids (NMGs) are emerging as an efficient way for integrating distributed energy resources (DERs) into power distribution systems. MGs and NMGs can disconnect from the main grid and operate autonomously, strengthen grid resilience, and help mitigate grid disturbances and maintain power quality. In addition, when supported by sophisticated and efficient management strategies, MGs and NMGs have the ability to enhance power supply reliability. However, their deployment comes with many challenges, in particular regarding the efficient management of DERs. That is why a survey of recent advances in the smart management—the term refers to a variety of planning and control tasks—of MGs and NMGs is presented in this paper. It aims at establishing a picture of strategies and identifying trends in methods. The reader is provided with an in-depth analysis of a variety of papers recently published in peer-reviewed journals: the way the methods are used and the common issues addressed by the scientific community are discussed. Following this analysis, one can especially observe that (1) model-based predictive control (MPC) is emerging as a competitive alternative to conventional methods, in particular in voltage and frequency regulation and DER management (2) due to their ability to handle complex tasks, data-driven strategies are getting more and more attention from the scientific community (3) game theory (GT) is a very good candidate for efficient management of complex systems as NMGs (4) MPC and artificial intelligence are increasingly being used for proper MG islanded operation or to manage electric vehicles (EVs) efficiently

    A Comparative Study of Machine Learning-Based Methods for Global Horizontal Irradiance Forecasting

    No full text
    The proliferation of photovoltaic (PV) power generation in power distribution grids induces increasing safety and service quality concerns for grid operators. The inherent variability, essentially due to meteorological conditions, of PV power generation affects the power grid reliability. In order to develop efficient monitoring and control schemes for distribution grids, reliable forecasting of the solar resource at several time horizons that are related to regulation, scheduling, dispatching, and unit commitment, is necessary. PV power generation forecasting can result from forecasting global horizontal irradiance (GHI), which is the total amount of shortwave radiation received from above by a surface horizontal to the ground. A comparative study of machine learning methods is given in this paper, with a focus on the most widely used: Gaussian process regression (GPR), support vector regression (SVR), and artificial neural networks (ANN). Two years of GHI data with a time step of 10 min are used to train the models and forecast GHI at varying time horizons, ranging from 10 min to 4 h. Persistence on the clear-sky index, also known as scaled persistence model, is included in this paper as a reference model. Three criteria are used for in-depth performance estimation: normalized root mean square error (nRMSE), dynamic mean absolute error (DMAE) and coverage width-based criterion (CWC). Results confirm that machine learning-based methods outperform the scaled persistence model. The best-performing machine learning-based methods included in this comparative study are the long short-term memory (LSTM) neural network and the GPR model using a rational quadratic kernel with automatic relevance determination
    corecore