17 research outputs found
Formation and Development of Self-Organizing Intelligent Technologies of Inductive Modeling
The purpose of this paper is analysing the background of the GMDH invention by Ivakhnenko and the evolution of model self-organization ideas, methods and tools during the halfcentury historical period of successful development of the inductive modeling methodology.Метою дослідження є аналіз передумов винайдення МГУА О.Г. Івахненком та еволюції ідей, методів та інструментів самоорганізації моделей протягом піввікового історичного періоду успішного розвитку методології індуктивного моделювання.Целью работы является анализ эволюции идей, методов и инструментов самоорганизации моделей в течение полувекового исторического периода успешного развития методологии индуктивного моделирования. Проанализированы основные предпосылки создания академиком А.Г. Ивахненко метода группового учета аргументов (МГУА), исследуется эволюция его научных идей и взглядов, а также основные достижения в развитии МГУА в период 1968–1997 годов. Охарактеризован вклад исследователей разных стран в модификацию и применение МГУА. Приведены результаты дальнейших разработок методов и инструментов индуктивного моделирования в отделе Информационных технологий индуктивного моделирования и указаны наиболее перспективные направления исследований в этой области
Метод индуктивного синтеза РБФ нейронных сетей с помощью алгоритма клонального отбора
В статье предложен метод адаптивного синтеза радиально-базисных нейронных сетей для решения задач прогнозирования и идентификации. В предложенном методе использован алгоритм клонального отбора и внешние критерии.В статті запропоновано метод адаптивного синтезу радіально-базисних нейронних мереж для розв'язання задач прогнозування та ідентифікації. В запропонованому методі використовується алгоритм клонального добору і зовнішні критерії.In this paper, a method for the synthesis of adaptive radial basis neural networks for solving the problems of forecasting and identification is suggested. In the method we use the algorithm of clonal selection and external criteria
Scour detection with monitoring methods and machine learning algorithms - a critical review
Foundation scour is a widespread reason for the collapse of bridges worldwide. However, assessing bridges is a complex task, which requires a comprehensive understanding of the phenomenon. This literature review first presents recent scour detection techniques and approaches. Direct and indirect monitoring and machine learning algorithm-based studies are investigated in detail in the following sections. The approaches, models, characteristics of data, and other input properties are outlined. The outcomes are given with their advantages and limitations. Finally, assessments are provided at the synthesis of the research.This research was funded by FCT (Portuguese national funding agency for science, research,
and technology)/MCTES through national funds (PIDDAC) under the R&D Unit Institute for Sustainability and Innovation in Structural Engineering (ISISE), under reference UIDB/04029/2020 and
trough the doctoral Grant 2021.06162.BD. This work has also been partly financed within the European
Horizon 2020 Joint Technology Initiative Shift2Rail through contract no. 101012456 (IN2TRACK3)
Recommended from our members
Applications of machine learning to water resources management: A review of present status and future opportunities
Data availability:
No data was used for the research described in the article.The corrected proof will be replaced by version of record in due course.Copyright © 2024 The Authors. Water is the most valuable natural resource on earth that plays a critical role in the socio-economic development of humans worldwide. Water is used for various purposes, including, but not limited to, drinking, recreation, irrigation, and hydropower production. The expected population growth at a global scale, coupled with the predicted climate change-induced impacts, warrants the need for proactive and effective management of water resources. Over the recent decades, machine learning tools have been widely applied to various water resources management-related fields and have often shown promising results. Despite the publication of several review articles on machine learning applications in water-related fields, this review paper presents for the first time a comprehensive review of machine learning techniques applied to water resources management, focusing on the most recent achievements. The study examines the potential for advanced machine learning techniques to improve decision support systems in the various sectors within the realm of water resources management, which includes groundwater management, streamflow forecasting, water distribution systems, water quality and wastewater treatment, water demand and consumption, hydropower and marine energy, water drainage systems, and flood management and defence. This study provides an overview of the state-of-the-art machine learning approaches to the water industry and how they can be used to ensure water supply sustainability, quality, and flood and drought mitigation. This review covers the most recent related studies to provide the most recent snapshot of machine learning applications in the water industry. Overall, LSTM networks have been proven to exhibit reliable performance, often outperforming ANN models, traditional machine learning models, and established physics-based models. Hybrid ML techniques have exhibited great forecasting accuracy across all water-related fields, often showing superior computational power over traditional ANNs architectures. In addition to purely data-driven models, physical-based hybrid models have also been developed to improve prediction performance. These efforts further demonstrate that Machine learning can be a powerful practical tool for water resources management. It provides insights, predictions, and optimisation capabilities to help enhance sustainable water use and management and improve socio-economic development, healthy ecosystems and human existence.EPSRC project reference 2339403 to S. Sayed and A. Ahmed
Computational approaches to Explainable Artificial Intelligence: Advances in theory, applications and trends
Deep Learning (DL), a groundbreaking branch of Machine Learning (ML), has emerged as a driving force in both theoretical and applied Artificial Intelligence (AI). DL algorithms, rooted in complex and non-linear artificial neural systems, excel at extracting high-level features from data. DL has demonstrated human-level performance in real-world tasks, including clinical diagnostics, and has unlocked solutions to previously intractable problems in virtual agent design, robotics, genomics, neuroimaging, computer vision, and industrial automation. In this paper, the most relevant advances from the last few years in Artificial Intelligence (AI) and several applications to neuroscience, neuroimaging, computer vision, and robotics are presented, reviewed and discussed. In this way, we summarize the state-of-the-art in AI methods, models and applications within a collection of works presented at the 9
International Conference on the Interplay between Natural and Artificial Computation (IWINAC). The works presented in this paper are excellent examples of new scientific discoveries made in laboratories that have successfully transitioned to real-life applications
Agent-based technology applied to power systems reliability
Tese de doutoramento. Engenharia Electrotécnica e de Computadores. Faculdade de Engenharia. Universidade do Porto. 200
Computational Approaches to Explainable Artificial Intelligence:Advances in Theory, Applications and Trends
Deep Learning (DL), a groundbreaking branch of Machine Learning (ML), has emerged as a driving force in both theoretical and applied Artificial Intelligence (AI). DL algorithms, rooted in complex and non-linear artificial neural systems, excel at extracting high-level features from data. DL has demonstrated human-level performance in real-world tasks, including clinical diagnostics, and has unlocked solutions to previously intractable problems in virtual agent design, robotics, genomics, neuroimaging, computer vision, and industrial automation. In this paper, the most relevant advances from the last few years in Artificial Intelligence (AI) and several applications to neuroscience, neuroimaging, computer vision, and robotics are presented, reviewed and discussed. In this way, we summarize the state-of-the-art in AI methods, models and applications within a collection of works presented at the 9 International Conference on the Interplay between Natural and Artificial Computation (IWINAC). The works presented in this paper are excellent examples of new scientific discoveries made in laboratories that have successfully transitioned to real-life applications
Dynamical Systems
Complex systems are pervasive in many areas of science integrated in our daily lives. Examples include financial markets, highway transportation networks, telecommunication networks, world and country economies, social networks, immunological systems, living organisms, computational systems and electrical and mechanical structures. Complex systems are often composed of a large number of interconnected and interacting entities, exhibiting much richer global scale dynamics than the properties and behavior of individual entities. Complex systems are studied in many areas of natural sciences, social sciences, engineering and mathematical sciences. This special issue therefore intends to contribute towards the dissemination of the multifaceted concepts in accepted use by the scientific community. We hope readers enjoy this pertinent selection of papers which represents relevant examples of the state of the art in present day research. [...
Improving Demand Forecasting: The Challenge of Forecasting Studies Comparability and a Novel Approach to Hierarchical Time Series Forecasting
Bedarfsprognosen sind in der Wirtschaft unerlässlich. Anhand des erwarteten Kundenbe-darfs bestimmen Firmen beispielsweise welche Produkte sie entwickeln, wie viele Fabri-ken sie bauen, wie viel Personal eingestellt wird oder wie viel Rohmaterial geordert wer-den muss. Fehleinschätzungen bei Bedarfsprognosen können schwerwiegende Auswir-kungen haben, zu Fehlentscheidungen führen, und im schlimmsten Fall den Bankrott einer Firma herbeiführen.
Doch in vielen Fällen ist es komplex, den tatsächlichen Bedarf in der Zukunft zu antizipie-ren. Die Einflussfaktoren können vielfältig sein, beispielsweise makroökonomische Ent-wicklung, das Verhalten von Wettbewerbern oder technologische Entwicklungen. Selbst wenn alle Einflussfaktoren bekannt sind, sind die Zusammenhänge und Wechselwirkun-gen häufig nur schwer zu quantifizieren.
Diese Dissertation trägt dazu bei, die Genauigkeit von Bedarfsprognosen zu verbessern.
Im ersten Teil der Arbeit wird im Rahmen einer überfassenden Übersicht über das gesamte Spektrum der Anwendungsfelder von Bedarfsprognosen ein neuartiger Ansatz eingeführt, wie Studien zu Bedarfsprognosen systematisch verglichen werden können und am Bei-spiel von 116 aktuellen Studien angewandt. Die Vergleichbarkeit von Studien zu verbes-sern ist ein wesentlicher Beitrag zur aktuellen Forschung. Denn anders als bspw. in der Medizinforschung, gibt es für Bedarfsprognosen keine wesentlichen vergleichenden quan-titativen Meta-Studien. Der Grund dafür ist, dass empirische Studien für Bedarfsprognosen keine vereinheitlichte Beschreibung nutzen, um ihre Daten, Verfahren und Ergebnisse zu beschreiben. Wenn Studien hingegen durch systematische Beschreibung direkt miteinan-der verglichen werden können, ermöglicht das anderen Forschern besser zu analysieren, wie sich Variationen in Ansätzen auf die Prognosegüte auswirken – ohne die aufwändige Notwendigkeit, empirische Experimente erneut durchzuführen, die bereits in Studien beschrieben wurden. Diese Arbeit führt erstmals eine solche Systematik zur Beschreibung ein.
Der weitere Teil dieser Arbeit behandelt Prognoseverfahren für intermittierende Zeitreihen, also Zeitreihen mit wesentlichem Anteil von Bedarfen gleich Null. Diese Art der Zeitreihen erfüllen die Anforderungen an Stetigkeit der meisten Prognoseverfahren nicht, weshalb gängige Verfahren häufig ungenügende Prognosegüte erreichen. Gleichwohl ist die Rele-vanz intermittierender Zeitreihen hoch – insbesondere Ersatzteile weisen dieses Bedarfs-muster typischerweise auf. Zunächst zeigt diese Arbeit in drei Studien auf, dass auch die getesteten Stand-der-Technik Machine Learning Ansätze bei einigen bekannten Datensät-zen keine generelle Verbesserung herbeiführen. Als wesentlichen Beitrag zur Forschung zeigt diese Arbeit im Weiteren ein neuartiges Verfahren auf: Der Similarity-based Time Series Forecasting (STSF) Ansatz nutzt ein Aggregation-Disaggregationsverfahren basie-rend auf einer selbst erzeugten Hierarchie statistischer Eigenschaften der Zeitreihen. In Zusammenhang mit dem STSF Ansatz können alle verfügbaren Prognosealgorithmen eingesetzt werden – durch die Aggregation wird die Stetigkeitsbedingung erfüllt. In Expe-rimenten an insgesamt sieben öffentlich bekannten Datensätzen und einem proprietären Datensatz zeigt die Arbeit auf, dass die Prognosegüte (gemessen anhand des Root Mean Square Error RMSE) statistisch signifikant um 1-5% im Schnitt gegenüber dem gleichen Verfahren ohne Einsatz von STSF verbessert werden kann. Somit führt das Verfahren eine wesentliche Verbesserung der Prognosegüte herbei.
Zusammengefasst trägt diese Dissertation zum aktuellen Stand der Forschung durch die zuvor genannten Verfahren wesentlich bei. Das vorgeschlagene Verfahren zur Standardi-sierung empirischer Studien beschleunigt den Fortschritt der Forschung, da sie verglei-chende Studien ermöglicht. Und mit dem STSF Verfahren steht ein Ansatz bereit, der zuverlässig die Prognosegüte verbessert, und dabei flexibel mit verschiedenen Arten von Prognosealgorithmen einsetzbar ist. Nach dem Erkenntnisstand der umfassenden Literatur-recherche sind keine vergleichbaren Ansätze bislang beschrieben worden
Intelligent Energy-Savings and Process Improvement Strategies in Energy-Intensive Industries
S tím, jak se neustále vyvíjejí nové technologie pro energeticky náročná průmyslová odvětví, stávající zařízení postupně zaostávají v efektivitě a produktivitě. Tvrdá konkurence na trhu a legislativa v oblasti životního prostředí nutí tato tradiční zařízení k ukončení provozu a k odstavení. Zlepšování procesu a projekty modernizace jsou zásadní v udržování provozních výkonů těchto zařízení. Současné přístupy pro zlepšování procesů jsou hlavně: integrace procesů, optimalizace procesů a intenzifikace procesů. Obecně se v těchto oblastech využívá matematické optimalizace, zkušeností řešitele a provozní heuristiky. Tyto přístupy slouží jako základ pro zlepšování procesů. Avšak, jejich výkon lze dále zlepšit pomocí moderní výpočtové inteligence. Účelem této práce je tudíž aplikace pokročilých technik umělé inteligence a strojového učení za účelem zlepšování procesů v energeticky náročných průmyslových procesech. V této práci je využit přístup, který řeší tento problém simulací průmyslových systémů a přispívá následujícím: (i)Aplikace techniky strojového učení, která zahrnuje jednorázové učení a neuro-evoluci pro modelování a optimalizaci jednotlivých jednotek na základě dat. (ii) Aplikace redukce dimenze (např. Analýza hlavních komponent, autoendkodér) pro vícekriteriální optimalizaci procesu s více jednotkami. (iii) Návrh nového nástroje pro analýzu problematických částí systému za účelem jejich odstranění (bottleneck tree analysis – BOTA). Bylo také navrženo rozšíření nástroje, které umožňuje řešit vícerozměrné problémy pomocí přístupu založeného na datech. (iv) Prokázání účinnosti simulací Monte-Carlo, neuronové sítě a rozhodovacích stromů pro rozhodování při integraci nové technologie procesu do stávajících procesů. (v) Porovnání techniky HTM (Hierarchical Temporal Memory) a duální optimalizace s několika prediktivními nástroji pro podporu managementu provozu v reálném čase. (vi) Implementace umělé neuronové sítě v rámci rozhraní pro konvenční procesní graf (P-graf). (vii) Zdůraznění budoucnosti umělé inteligence a procesního inženýrství v biosystémech prostřednictvím komerčně založeného paradigmatu multi-omics.Zlepšení průmyslových procesů, Model založený na datech, Optimalizace procesu, Strojové učení, Průmyslové systémy, Energeticky náročná průmyslová odvětví, Umělá inteligence.