59 research outputs found
A DMAIC integrated fuzzy FMEA model: A case study in the automotive industry
The growing competitiveness in the automotive industry and the strict standards to which it is subject, require high quality standards. For this, quality tools such as the failure mode and effects analysis (FMEA) are applied to quantify the risk of potential failure modes. However, for qualitative defects with subjectivity and associated uncertainty, and the lack of specialized technicians, it revealed the inefficiency of the visual inspection process, as well as the limitations of the FMEA that is applied to it. The fuzzy set theory allows dealing with the uncertainty and subjectivity of linguistic terms and, together with the expert systems, allows modeling of the knowledge involved in tasks that require human expertise. In response to the limitations of FMEA, a fuzzy FMEA system was proposed. Integrated in the design, measure, analyze, improve and control (DMAIC) cycle, the proposed system allows the representation of expert knowledge and improves the analysis of subjective failures, hardly detected by visual inspection, compared to FMEA. The fuzzy FMEA system was tested in a real case study at an industrial manufacturing unit. The identified potential failure modes were analyzed and a fuzzy risk priority number (RPN) resulted, which was compared with the classic RPN. The main results revealed several differences between both. The main differences between fuzzy FMEA and classical FMEA come from the non-linear relationship between the variables and in the attribution of an RPN classification that assigns linguistic terms to the results, thus allowing a strengthening of the decision-making regarding the mitigation actions of the most “important” failure modes.publishersversionpublishe
Consensus of recommendations guiding comparative effectiveness research methods
Purpose
Because of an increasing demand for quality comparative effectiveness research (CER), methods guidance documents have been published, such as those from the Agency for Healthcare Research and Quality (AHRQ) and the Patient-Centered Outcomes Research Institute (PCORI). Our objective was to identify CER methods guidance documents and compare them to produce a summary of important recommendations which could serve as a consensus of CER method recommendations.
Methods
We conducted a systematic literature review to identify CER methods guidance documents published through 2014. Identified documents were analyzed for methods guidance recommendations. Individual recommendations were categorized to determine the degree of overlap.
Results
We identified nine methods guidance documents, which contained a total of 312 recommendations, 97% of which were present in two or more documents. All nine documents recommended transparency and adaptation for relevant stakeholders in the interpretation and dissemination of results. Other frequently shared CER methods recommendations included: study design and operational definitions should be developed a priori and allow for replication (n = 8 documents); focus on areas with gaps in current clinical knowledge that are relevant to decision-makers (n = 7); validity of measures, instruments, and data should be assessed and discussed (n = 7); outcomes, including benefits and harms, should be clinically meaningful, and objectively measured (n = 7). Assessment for and strategies to minimize bias (n = 6 documents), confounding (n = 6), and heterogeneity (n = 4) were also commonly shared recommendations between documents.
Conclusions
We offer a field-consensus guide based on nine CER methods guidance documents that will aid researchers in designing CER studies and applying CER methods
Intelligent Control Strategies for an Autonomous Underwater Vehicle
The dynamic characteristics of autonomous underwater vehicles (AUVs) present a control
problem that classical methods cannot often accommodate easily. Fundamentally, AUV dynamics
are highly non-linear, and the relative similarity between the linear and angular velocities about
each degree of freedom means that control schemes employed within other flight vehicles are not
always applicable. In such instances, intelligent control strategies offer a more sophisticated
approach to the design of the control algorithm. Neurofuzzy control is one such technique, which
fuses the beneficial properties of neural networks and fuzzy logic in a hybrid control architecture.
Such an approach is highly suited to development of an autopilot for an AUV.
Specifically, the adaptive network-based fuzzy inference system (ANFIS) is discussed in
Chapter 4 as an effective new approach for neurally tuning course-changing fuzzy autopilots.
However, the limitation of this technique is that it cannot be used for developing multivariable
fuzzy structures. Consequently, the co-active ANFIS (CANFIS) architecture is developed and
employed as a novel multi variable AUV autopilot within Chapter 5, whereby simultaneous control
of the AUV yaw and roll channels is achieved. Moreover, this structure is flexible in that it is
extended in Chapter 6 to perform on-line control of the AUV leading to a novel autopilot design
that can accommodate changing vehicle pay loads and environmental disturbances.
Whilst the typical ANFIS and CANFIS structures prove effective for AUV control system
design, the well known properties of radial basis function networks (RBFN) offer a more flexible
controller architecture. Chapter 7 presents a new approach to fuzzy modelling and employs both
ANFIS and CANFIS structures with non-linear consequent functions of composite Gaussian form.
This merger of CANFIS and a RBFN lends itself naturally to tuning with an extended form of the
hybrid learning rule, and provides a very effective approach to intelligent controller development.The Sea Systems and Platform Integration Sector,
Defence Evaluation and Research Agency, Winfrit
Soft computing applied to optimization, computer vision and medicine
Artificial intelligence has permeated almost every area of life in modern society, and its significance continues to grow. As a result, in recent years, Soft Computing has emerged as a powerful set of methodologies that propose innovative and robust solutions to a variety of complex problems. Soft Computing methods, because of their broad range of application, have the potential to significantly improve human living conditions. The motivation for the present research emerged from this background and possibility. This research aims to accomplish two main objectives: On the one hand, it endeavors to bridge the gap between Soft Computing techniques and their application to intricate problems. On the other hand, it explores the hypothetical benefits of Soft Computing methodologies as novel effective tools for such problems. This thesis synthesizes the results of extensive research on Soft Computing methods and their applications to optimization, Computer Vision, and medicine. This work is composed of several individual projects, which employ classical and new optimization algorithms. The manuscript presented here intends to provide an overview of the different aspects of Soft Computing methods in order to enable the reader to reach a global understanding of the field. Therefore, this document is assembled as a monograph that summarizes the outcomes of these projects across 12 chapters. The chapters are structured so that they can be read independently. The key focus of this work is the application and design of Soft Computing approaches for solving problems in the following: Block Matching, Pattern Detection, Thresholding, Corner Detection, Template Matching, Circle Detection, Color Segmentation, Leukocyte Detection, and Breast Thermogram Analysis. One of the outcomes presented in this thesis involves the development of two evolutionary approaches for global optimization. These were tested over complex benchmark datasets and showed promising results, thus opening the debate for future applications. Moreover, the applications for Computer Vision and medicine presented in this work have highlighted the utility of different Soft Computing methodologies in the solution of problems in such subjects. A milestone in this area is the translation of the Computer Vision and medical issues into optimization problems. Additionally, this work also strives to provide tools for combating public health issues by expanding the concepts to automated detection and diagnosis aid for pathologies such as Leukemia and breast cancer. The application of Soft Computing techniques in this field has attracted great interest worldwide due to the exponential growth of these diseases. Lastly, the use of Fuzzy Logic, Artificial Neural Networks, and Expert Systems in many everyday domestic appliances, such as washing machines, cookers, and refrigerators is now a reality. Many other industrial and commercial applications of Soft Computing have also been integrated into everyday use, and this is expected to increase within the next decade. Therefore, the research conducted here contributes an important piece for expanding these developments. The applications presented in this work are intended to serve as technological tools that can then be used in the development of new devices
Memaksimalkan Daya Keluaran Sistem Pembangkit Listrik Sel Surya Yang Tertutup Bayangan Menggunakan Rangkaian Matriks Saklar Berbasis Logika Fuzzy Dan Regulator Tegangan Berbasis Kontroler Pid
Berdasarkan penelitian-penelitian terdahulu, pada umumnya metode yang
digunakan untuk memaksimalkan daya keluaran dari photovoltaic (PV) adalah
dengan menggunakan mekanisme Maximum Power Point Tracking (MPPT). Pada
kasus PV string yang sebagian modulnya tertutup bayangan (shading) yang
bervariasi, maka sistem kontrol berbasis MPPT ini tidak dapat bekerja dengan
baik. Hal itu diakibatkan efek shading yang bervariasi, sehingga daya PV Farm
yang dihasilkan tidak optimal.
Penelitian ini menawarkan suatu metode alternatif untuk mengoptimasi
daya PV Farm berbasis cluster tegangan string PV. Dimana kapasitas daya
terpasang pada penelitian ini adalah 12000 Wp, terdiri dari 4 string PV dan setiap
stringnya terdiri dari 12 Modul, sehingga total modul PV yang digunakan sebanyak
48 modul PV. Modul-modul PV yang terdapat pada string PV dihubungkan secara
seri. Dimana akibat variasi efek shading maka besar tegangan antar string PV
berpotensi berbeda. Perbedaan tersebut mengakibatkan kesulitan dalam hal disain
Mekanisme Maximum Power Point Trucking (MPPT). Untuk itu diusulkan suatu
metode pengelompokan besar tegangan yang bersesuaian dari setiap keluaran hasil
mekanisme MPPT, dimana setiap keluaran MPPT terhubung secara paralel pada
rangkaian matrik saklar. Rangkaian matriks saklar dikontrol menggunakan
mekanisme algoritma Fuzzy Logic Controller (FLC). Selanjutnya masing-masing
hasil pengelompokan dihubungkan ke suatu rangkaian regulator berbasis kontroler
Proportional - Integral-Derivatif (PID controller) yang berfungsi mengontrol
besar tegangan setiap kelompok menjadi sama sesuai setpoint yang diinginkan.
Berdasarkan pengujian Pembangkit PV Array menggunakan metode
cluster untuk kasus tertutup bayangan sebagian terjadi peningkatan daya yang
sangat signifikan bahkan sampai dengan 108%, jika dibandingkan pembangkit PV
Array dengan menggunakan metode konvensional (tanpa cluster). Namun hal
tersebut dapat bervariasi mengikuti dinamika bayangan yang menutupi modulmodul
PV yang terdapat pada pembangkit PV Array. Maka dapat ditarik
kesimpulan bahwa metode yang diusulkan dapat bekerja dengan baik untuk
meningkatkan daya PV Array pada kondisi normal maupun tertutup bayangan
sebagian
=========================================================================================================
Based on previous studies, the method used to maximize the output power
of photovoltaic (PV) is by using Maximum Power Point Tracking (MPPT)
mechanism.
In the case of PV strings that some of the modules are covered with
varying shading, the MPPT
-
based cont
rol system can not work properly. This is
due to the effects of shading vary, so the PV Farm power generated is not optimal.
T
his research offers an alternative method to optimize PV Arrayr based
cluster of PV string. Where the power capacity installed in
this research is 12000
Wp, consisting of 4 string of PV and each string consist of 12 Modules, so total of
PV module used is 48 PV modules.
The PV modules contained in the PV strings
are connected in series. Where due to variations of shading effect, the
voltage
between the PV strings is potentially different.
This difference leads to difficulties
in designing the Maximum Power Point Tracking Mechanism (MPPT). this researc
propose a method of grouping the corresponding voltage according to each output
o
f the MPPT mechanism, in which each MPPT output is connected in parallel to
the switch matrix circuit.
The logic of this switch matrix circuit is generated using
fuzzy logic inference mechanism. Furthermore, each grouping result is connected
to a regulator
circuit based on Proportional
-
Integral
-
Derivative (PID) controller
to control the voltage of each group to be the same according to the desired setpoint.
The voltage output of this proposed system will be compared with the
voltage output of system wi
th MPPT optimization method. Based on PV PV array
testing using cluster method for closed partial shadow case, there is a very
significant increase of power even up to 10
8
%, when compared to PV Array plant
using conventional method (without cluster). Howev
er, it may vary according to
the shadow dynamics that cover the PV modules contained in the PV array
generator. So with the explanation can be concluded that the proposed method can
work well to increase the power of PV Array in normal conditions as well a
s tertup
partial shadow
Ottimizzazione Strutturale di Reti Neurofuzzy
Nella tesi sono stati scelti i modelli neurofuzzy come base di sviluppo di nuovi sistemi di modellamento che utilizzano anche le più recenti tecniche di ottimizzazione strutturale. In altre parole, la sintesi dei parametri del modello è integrata dalla determinazione automatica della complessità strutturale del modello stesso (ossia del numero dei suoi parametri), affinché ne sia massimizzata la capacità di generalizzazione. E’ bene precisare che, per ragioni di sintesi e di chiarezza espositiva, in questa tesi non sarà presentata tutta l’attività svolta nei tre anni di dottorato. Si è preferito concentrare l’attenzione su un particolare sistema di modellamento e sulla procedura di sintesi per esso realizzata, in modo tale da evidenziare i contributi più originali e significativi che hanno caratterizzato il lavoro di ricerca
Assessment of climate change and development of data based prediction models of sediment yields in Upper Indus Basin
Hohe Raten von Sedimentflüssen und ihre Schätzungen in Flusseinzugsgebieten erfordern die Auswahl effizienter Quantifizierungsansätze mit einem besseren Verständnis der dominierten Faktoren, die den Erosionsprozess auf zeitlicher und räumlicher Ebene steuern. Die vorherige Bewertung von Einflussfaktoren wie Abflussvariation, Klima, Landschaft und Fließprozess ist hilfreich, um den geeigneten Modellierungsansatz zur Quantifizierung der Sedimenterträge zu entwickeln. Einer der schwächsten Aspekte bei der Quantifizierung der Sedimentfracht ist die Verwendung traditioneller Beziehung zwischen Strömungsgeschwindigkeit und Bodensatzlöschung (SRC), bei denen die hydrometeorologischen Schwankungen, Abflusserzeugungsprozesse wie Schneedecke, Schneeschmelzen, Eisschmelzen usw. nicht berücksichtigt werden können. In vielen Fällen führt die empirische Q-SSC Beziehung daher zu ungenauen Prognosen.
Heute können datenbasierte Modelle mit künstlicher Intelligenz die Sedimentfracht präziser abschätzen. Die datenbasierten Modelle lernen aus den eingespeisten Datensätzen, indem sie bei komplexen Phänomenen wie dem Sedimenttransport die geeignete funktionale Beziehung zwischen dem Output und seinen Input-Variablen herstellen. In diesem Zusammenhang wurden die datenbasierten Modellierungsalgorithmen in der vorliegenden Forschungsarbeit am Lehrstuhl für Wasser- und Flussgebietsmanagement des Karlsruher Instituts für Technologie in Karlsruhe entwickelt, die zur Vorhersage von Sedimenten in oberen unteren Einzugsgebieten des oberen Indusbeckens von Pakistan (UIB) verwendet wurden.
Die dieser Arbeit zugrunde liegende Methodik gliedert sich in vier Bearbeitungsschritte: (1) Vergleichende Bewertung der räumlichen Variabilität und der Trends von Abflüssen und Sedimentfrachten unter dem Einfluss des Klimawandels im oberen Indus-Becken (2) Anwendung von Soft-Computing-Modellen mit Eingabevektoren der schneedeckten Fläche zusätzlich zu hydro-klimatischen Daten zur Vorhersage der Sedimentfracht (3) Vorhersage der Sedimentfracht unter Verwendung der NDVI-Datensätze (Hydroclimate and Normalized Difference Vegetation Index) mit Soft-Computing-Modellen (4) Klimasignalisierung bei suspendierten Sedimentausträge aus Gletscher und Schnee dominierten Teileinzugsgebeiten im oberen Indus-Becken (UIB).
Diese im UIB durchgeführte Analyse hat es ermöglicht, die dominiertenden Parameter wie Schneedecke und hydrologischen Prozesses besser zu und in eine verbesserte Prognose der Sedimentfrachten einfließen zu lassen.
Die Analyse der Bewertung des Klimawandels von Flüssen und Sedimenten in schnee- und gletscherdominierten UIB von 13 Messstationen zeigt, dass sich die jährlichen Flüsse und suspendierten Sedimente am Hauptindus in Besham Qila stromaufwärts des Tarbela-Reservoirs im ausgeglichenen Zustand befinden. Jedoch, die jährlichen Konzentrationen suspendierter Sedimente (SSC) wurden signifikant gesenkt und lagen zwischen 18,56% und 28,20% pro Jahrzehnt in Gilgit an der Alam Bridge (von Schnee und Gletschern dominiertes Becken), Indus in Kachura und Brandu in Daggar (von weniger Niederschlag dominiertes Becken). Während der Sommerperiode war der SSC signifikant reduziert und lag zwischen 18,63% und 27,79% pro Jahrzehnt, zusammen mit den Flüssen in den Regionen Hindukush und West-Karakorum aufgrund von Anomalien des Klimawandels und im unteren Unterbecken mit Regen aufgrund der Niederschlagsreduzierung. Die SSC während der Wintersaison waren jedoch aufgrund der signifikanten Erwärmung der durchschnittlichen Lufttemperatur signifikant erhöht und lagen zwischen 20,08% und 40,72% pro Jahrzehnt.
Die datenbasierte Modellierung im schnee und gletscherdominierten Gilgit Teilbecken unter Verwendung eines künstlichen neuronalen Netzwerks (ANN), eines adaptiven Neuro-Fuzzy-Logik-Inferenzsystems mit Gitterpartition (ANFIS-GP) und eines adaptiven Neuro-Fuzzy-Logik-Inferenzsystems mit subtraktivem Clustering (ANFIS) -SC), ein adaptives Neuro-Fuzzy-Logik- Inferenzsystem mit Fuzzy-C-Mittel-Clustering, multiplen adaptiven Regressionssplines (MARS) und Sedimentbewertungskurven (SRC) durchgeführt.
Die Ergebnisse von Algorithmen für maschinelles Lernen zeigen, dass die Eingabekombination aus täglichen Abflüssen (Qt), Schneedeckenfläche (SCAt), Temperatur (Tt-1) und Evapotranspiration (Evapt-1) die Leistung der Sedimentvorhersagemodelle verbesserne. Nach dem Vergleich der Gesamtleistung der Modelle schnitt das ANN-Modell besser ab als die übrigen Modelle. Bei der Vorhersage der Sedimentfrachten in Spitzenzeiten lag die Vorhersage der ANN-, ANIS-FCM- und MARS-Modelle näher an den gemessenen Sedimentbelastungen. Das ANIS-FCM-Modell mit einem absoluten Gesamtfehler von 81,31% schnitt bei der Vorhersage der Spitzensedimente besser ab als ANN und MARS mit einem absoluten Gesamtfehler von 80,17% bzw. 80,16%.
Die datenbasierte Modellierung der Sedimentfrachten im von Regen dominierten Brandu-Teilbecken wurde unter Verwendung von Datensätzen für Hydroklima und biophysikalische Eingaben durchgeführt, die aus Strömungen, Niederschlag, mittlerer Lufttemperatur und normalisiertem Differenzvegetationsindex (NDVI) bestehen. Die Ergebnisse von vier ANNs (Artificial Neural Networks) und drei ANFIS-Algorithmen (Adaptive Neuro-Fuzzy Logic Inference System) für das Brandu Teilnbecken haben gezeigt, dass der mittels Fernerkundung bestimmte NDVI als biophysikalische Parameter zusätzlich zu den Hydroklima-Parametern die Leistung das Modell nicht verbessert. Der ANFIS-GP schnitt in der Testphase besser ab als andere Modelle mit einer Eingangskombination aus Durchfluss und Niederschlag. ANN, eingebettet in Levenberg-Marquardt (ANN-LM) für den Zeitraum 1981-2010, schnitt jedoch am besten mit Eingabekombinationen aus Strömungen, Niederschlag und mittleren Lufttemperaturen ab. Die Ergebnisgenauigkeit R2 unter Verwendung des ANN-LM-Algorithmus verbesserte sich im Vergleich zur Sedimentbewertungskurve (SRC) um bis zu 28%. Es wurde gezeigt, dass für den unteren Teil der UIB-Flüsse Niederschlag und mittlere Lufttemperatur dominierende Faktoren für die Vorhersage von Sedimenterträgen sind und biophysikalische Parameter (NDVI) eine untergeordnete Rolle spielen.
Die Modellierung zur Bewertung der Änderungen des SSC in schnee- und gletschergespeiste Gilgit- und Astore-Teilbecken wurde unter Verwendung des Temp-Index degree day modell durchgeführt. Die Ergebnisse des Mann-Kendall-Trendtests in den Flüssen Gilgit und Astore zeigten, dass der Anstieg des SSC während der Wintersaison auf die Erwärmung der mittleren Lufttemperatur, die Zunahme der Winterniederschläge und die Zunahme der Schneeschmelzen im Winter zurückzuführen ist. Während der Frühjahrssaison haben die Niederschlags- und Schneedeckenanteile im Gilgit-Unterbecken zugenommen, im Gegensatz zu seiner Verringerung im Astore-Unterbecken. Im Gilgit-Unterbecken war der SSC im Sommer aufgrund des kombinierten Effekts der Karakorum-Klimaanomalie und der vergrößerten Schneedecke signifikant reduziert. Die Reduzierung des Sommer-SSC im Gilgit Fluss ist auf die Abkühlung der Sommertemperatur und die Bedeckung der exponierten proglazialen Landschaft zurückzuführen, die auf erhöhten Schnee, verringerte Trümmerflüsse Trümmerflüsse und verringerte Schneeschmelzen von Trümmergletschern zurückzuführen sind.
Im Gegensatz zum Gilgit River sind die SSC im Astore River im Sommer erhöht. Der Anstieg des SSC im Astore-Unterbecken ist auf die Verringerung des Frühlingsniederschlags und der Schneedecke, die Erwärmung der mittleren Sommerlufttemperatur und den Anstieg des effektiven Niederschlags zurückzuführen. Die Ergebnisse zeigen ferner eine Verschiebung der Dominanz von Gletscherschmelzen zu Schneeschmelzen im Gilgit-Unterbecken und von Schnee zu Niederschlägen im Astore-Unterbecken bei Sedimenteden Sedimentfrachten in UIB.
Die vorliegende Forschungsarbeit zur Bewertung der klimabedingten Veränderungen des SSC und seiner Vorhersage sowohl in den oberen als auch in den unteren Teilbecken des UIB wird nützlich sein, um den Sedimenttransportprozess besser zu verstehen und aufbauen auf dem verbessertenProzessverständnis ein angepasstes Sedimentmanagement und angepasste Planungen der zukünftigen Wasserinfrastrukturen im UIB ableiten zu können
Експериментальна економіка та машинне навчання для прогнозування динаміки емерджентної економіки: матеріали вибраних робіт 8-ї Міжнародної конференції з моніторингу, моделювання та управління емерджентною економікою (M3E2 2019)
This volume represents the proceedings of the selected papers of the 8th International Conference on Monitoring, Modeling & Management of Emergent Economy (M3E2 2019), held in Odessa, Ukraine, on May 22-24, 2019. It comprises 38 papers dedicated to the experimental economics and machine learning that were carefully peer-reviewed and selected from 71 submissions.Цей том представляє вибрані матеріали 8-ої Міжнародної конференції "Моніторинг, моделювання та менеджмент емерджентної економіки" (M3E2 2019), що відбулася в Одесі, Україна, 22-24 травня 2019 року. Він містить 38 робіт, присвячених експериментальній економіці та машинному навчанню, які були ретельно прорецензовані та відібрані з 71 подання
- …