902 research outputs found

    Integrating long-term economic scenarios into peak load forecasting: An application to Spain

    Full text link
    The treatment of trend components in electricity demand is critical for long-term peak load forecasting. When forecasting high frequency variables, like daily or hourly loads, a typical problem is how to make long-term scenarios - regarding demographics, GDP growth, etc. - compatible with short-term projections. Traditional procedures that apply de-trending methods are unable to simulate forecasts under alternative long-term scenarios. On the other hand, existing models that allow for changes in long-term trends tend to be characterized by end-of-year discontinuities. In this paper a novel forecasting procedure is presented that improves upon these approaches and is able to combine long and short-term features by employing temporal disaggregation techniques. This method is applied to forecast electricity load for Spain and its performance is compared to that of a nonlinear autoregressive neural network with exogenous inputs. Our proposed procedure is flexible enough to be applied to different scenarios based on alternative assumptions regarding both long-term trends as well as short-term projection

    Improving Demand Forecasting: The Challenge of Forecasting Studies Comparability and a Novel Approach to Hierarchical Time Series Forecasting

    Get PDF
    Bedarfsprognosen sind in der Wirtschaft unerlässlich. Anhand des erwarteten Kundenbe-darfs bestimmen Firmen beispielsweise welche Produkte sie entwickeln, wie viele Fabri-ken sie bauen, wie viel Personal eingestellt wird oder wie viel Rohmaterial geordert wer-den muss. Fehleinschätzungen bei Bedarfsprognosen können schwerwiegende Auswir-kungen haben, zu Fehlentscheidungen führen, und im schlimmsten Fall den Bankrott einer Firma herbeiführen. Doch in vielen Fällen ist es komplex, den tatsächlichen Bedarf in der Zukunft zu antizipie-ren. Die Einflussfaktoren können vielfältig sein, beispielsweise makroökonomische Ent-wicklung, das Verhalten von Wettbewerbern oder technologische Entwicklungen. Selbst wenn alle Einflussfaktoren bekannt sind, sind die Zusammenhänge und Wechselwirkun-gen häufig nur schwer zu quantifizieren. Diese Dissertation trägt dazu bei, die Genauigkeit von Bedarfsprognosen zu verbessern. Im ersten Teil der Arbeit wird im Rahmen einer überfassenden Übersicht über das gesamte Spektrum der Anwendungsfelder von Bedarfsprognosen ein neuartiger Ansatz eingeführt, wie Studien zu Bedarfsprognosen systematisch verglichen werden können und am Bei-spiel von 116 aktuellen Studien angewandt. Die Vergleichbarkeit von Studien zu verbes-sern ist ein wesentlicher Beitrag zur aktuellen Forschung. Denn anders als bspw. in der Medizinforschung, gibt es für Bedarfsprognosen keine wesentlichen vergleichenden quan-titativen Meta-Studien. Der Grund dafür ist, dass empirische Studien für Bedarfsprognosen keine vereinheitlichte Beschreibung nutzen, um ihre Daten, Verfahren und Ergebnisse zu beschreiben. Wenn Studien hingegen durch systematische Beschreibung direkt miteinan-der verglichen werden können, ermöglicht das anderen Forschern besser zu analysieren, wie sich Variationen in Ansätzen auf die Prognosegüte auswirken – ohne die aufwändige Notwendigkeit, empirische Experimente erneut durchzuführen, die bereits in Studien beschrieben wurden. Diese Arbeit führt erstmals eine solche Systematik zur Beschreibung ein. Der weitere Teil dieser Arbeit behandelt Prognoseverfahren für intermittierende Zeitreihen, also Zeitreihen mit wesentlichem Anteil von Bedarfen gleich Null. Diese Art der Zeitreihen erfüllen die Anforderungen an Stetigkeit der meisten Prognoseverfahren nicht, weshalb gängige Verfahren häufig ungenügende Prognosegüte erreichen. Gleichwohl ist die Rele-vanz intermittierender Zeitreihen hoch – insbesondere Ersatzteile weisen dieses Bedarfs-muster typischerweise auf. Zunächst zeigt diese Arbeit in drei Studien auf, dass auch die getesteten Stand-der-Technik Machine Learning Ansätze bei einigen bekannten Datensät-zen keine generelle Verbesserung herbeiführen. Als wesentlichen Beitrag zur Forschung zeigt diese Arbeit im Weiteren ein neuartiges Verfahren auf: Der Similarity-based Time Series Forecasting (STSF) Ansatz nutzt ein Aggregation-Disaggregationsverfahren basie-rend auf einer selbst erzeugten Hierarchie statistischer Eigenschaften der Zeitreihen. In Zusammenhang mit dem STSF Ansatz können alle verfügbaren Prognosealgorithmen eingesetzt werden – durch die Aggregation wird die Stetigkeitsbedingung erfüllt. In Expe-rimenten an insgesamt sieben öffentlich bekannten Datensätzen und einem proprietären Datensatz zeigt die Arbeit auf, dass die Prognosegüte (gemessen anhand des Root Mean Square Error RMSE) statistisch signifikant um 1-5% im Schnitt gegenüber dem gleichen Verfahren ohne Einsatz von STSF verbessert werden kann. Somit führt das Verfahren eine wesentliche Verbesserung der Prognosegüte herbei. Zusammengefasst trägt diese Dissertation zum aktuellen Stand der Forschung durch die zuvor genannten Verfahren wesentlich bei. Das vorgeschlagene Verfahren zur Standardi-sierung empirischer Studien beschleunigt den Fortschritt der Forschung, da sie verglei-chende Studien ermöglicht. Und mit dem STSF Verfahren steht ein Ansatz bereit, der zuverlässig die Prognosegüte verbessert, und dabei flexibel mit verschiedenen Arten von Prognosealgorithmen einsetzbar ist. Nach dem Erkenntnisstand der umfassenden Literatur-recherche sind keine vergleichbaren Ansätze bislang beschrieben worden

    Predicting the Future

    Get PDF
    Due to the increased capabilities of microprocessors and the advent of graphics processing units (GPUs) in recent decades, the use of machine learning methodologies has become popular in many fields of science and technology. This fact, together with the availability of large amounts of information, has meant that machine learning and Big Data have an important presence in the field of Energy. This Special Issue entitled “Predicting the Future—Big Data and Machine Learning” is focused on applications of machine learning methodologies in the field of energy. Topics include but are not limited to the following: big data architectures of power supply systems, energy-saving and efficiency models, environmental effects of energy consumption, prediction of occupational health and safety outcomes in the energy industry, price forecast prediction of raw materials, and energy management of smart buildings

    Distributed quantitative precipitation forecasts combining information from radar and numerical weather prediction model outputs

    Get PDF
    Thesis (Ph.D.)--Massachusetts Institute of Technology, Dept. of Civil and Environmental Engineering, 2002.Includes bibliographical references (p. 205-218).Applications of distributed Quantitative Precipitation Forecasts (QPF) range from flood forecasting to transportation. Obtaining QPF is acknowledged to be one of the most challenging areas in hydrology and meteorology. Recent advances in precipitation physics, Numerical Weather Prediction (NWP) models, availability of high quality remotely sensed measurements, and data dictated forecasting tools, offer the opportunity of improvements in this area. Investigative studies were performed to quantify the value of available tools and data, which indicated the promise and the pitfalls of emerging ideas. Our studies suggested that an intelligent combination of NWP model outputs and remotely sensed radar measurements, that uses process physics and data dictated tools, could improve distributed QPF. Radar measurements have distributed structure, while NWP-QPF incorporate large scale physics. Localized precipitation processes are not well handled by NWP models, and grid average NWP-QPF are not too useful for distributed QPF owing to the spatial variability of rainfall. However, forecasts for atmospheric variables from NWP have information relevant for modeling localized processes and improving distributed QPF, especially in the Summer. Certain precipitation processes like advection and large scale processes could be modeled using physically based algorithms. The physics for other processes like localized convection or residual structures are not too well understood, and data dictated tools like traditional statistical models or Artificial Neural Networks (ANN) are often more applicable.(cont.) A new strategy for distributed QPF has been proposed that utilizes information from radar and NWP. This strategy decomposes the QPF problem into component processes, and models these processes using precipitation physics and data dictated tools, as appropriate and applicable. The proposed strategy improves distributed QPF over existing techniques like radar extrapolation alone, NWP-QPF with or without statistical error correction, hybrid models that combine radar extrapolation with NWP-QPF, parameterized physically based methods, and data dictated tools alone. New insights are obtained on the component processes of distributed precipitation, the information content in radar and NWP, and the achievable precipitation predictability.by Auroop R. Ganguly.Ph.D

    A disposition of interpolation techniques

    Get PDF
    A large collection of interpolation techniques is available for application in environmental research. To help environmental scientists in choosing an appropriate technique a disposition is made, based on 1) applicability in space, time and space-time, 2) quantification of accuracy of interpolated values, 3) incorporation of ancillary information, and 4) incorporation of process knowledge. The described methods include inverse distance weighting, nearest neighbour methods, geostatistical interpolation methods, Kalman filter methods, Bayesian Maximum Entropy methods, etc. The applicability of methods in aggregation (upscaling) and disaggregation (downscaling) is discussed. Software for interpolation is described. The application of interpolation techniques is illustrated in two case studies: temporal interpolation of indicators for ecological water quality, and spatio-temporal interpolation and aggregation of pesticide concentrations in Dutch surface waters. A valuable next step will be to construct a decision tree or decision support system, that guides the environmental scientist to easy-to-use software implementations that are appropriate to solve their interpolation problem. Validation studies are needed to assess the quality of interpolated values, and the quality of information on uncertainty provided by the interpolation method
    • …
    corecore