59 research outputs found

    A DMAIC integrated fuzzy FMEA model: A case study in the automotive industry

    Get PDF
    The growing competitiveness in the automotive industry and the strict standards to which it is subject, require high quality standards. For this, quality tools such as the failure mode and effects analysis (FMEA) are applied to quantify the risk of potential failure modes. However, for qualitative defects with subjectivity and associated uncertainty, and the lack of specialized technicians, it revealed the inefficiency of the visual inspection process, as well as the limitations of the FMEA that is applied to it. The fuzzy set theory allows dealing with the uncertainty and subjectivity of linguistic terms and, together with the expert systems, allows modeling of the knowledge involved in tasks that require human expertise. In response to the limitations of FMEA, a fuzzy FMEA system was proposed. Integrated in the design, measure, analyze, improve and control (DMAIC) cycle, the proposed system allows the representation of expert knowledge and improves the analysis of subjective failures, hardly detected by visual inspection, compared to FMEA. The fuzzy FMEA system was tested in a real case study at an industrial manufacturing unit. The identified potential failure modes were analyzed and a fuzzy risk priority number (RPN) resulted, which was compared with the classic RPN. The main results revealed several differences between both. The main differences between fuzzy FMEA and classical FMEA come from the non-linear relationship between the variables and in the attribution of an RPN classification that assigns linguistic terms to the results, thus allowing a strengthening of the decision-making regarding the mitigation actions of the most “important” failure modes.publishersversionpublishe

    Consensus of recommendations guiding comparative effectiveness research methods

    Get PDF
    Purpose Because of an increasing demand for quality comparative effectiveness research (CER), methods guidance documents have been published, such as those from the Agency for Healthcare Research and Quality (AHRQ) and the Patient-Centered Outcomes Research Institute (PCORI). Our objective was to identify CER methods guidance documents and compare them to produce a summary of important recommendations which could serve as a consensus of CER method recommendations. Methods We conducted a systematic literature review to identify CER methods guidance documents published through 2014. Identified documents were analyzed for methods guidance recommendations. Individual recommendations were categorized to determine the degree of overlap. Results We identified nine methods guidance documents, which contained a total of 312 recommendations, 97% of which were present in two or more documents. All nine documents recommended transparency and adaptation for relevant stakeholders in the interpretation and dissemination of results. Other frequently shared CER methods recommendations included: study design and operational definitions should be developed a priori and allow for replication (n = 8 documents); focus on areas with gaps in current clinical knowledge that are relevant to decision-makers (n = 7); validity of measures, instruments, and data should be assessed and discussed (n = 7); outcomes, including benefits and harms, should be clinically meaningful, and objectively measured (n = 7). Assessment for and strategies to minimize bias (n = 6 documents), confounding (n = 6), and heterogeneity (n = 4) were also commonly shared recommendations between documents. Conclusions We offer a field-consensus guide based on nine CER methods guidance documents that will aid researchers in designing CER studies and applying CER methods

    Intelligent Control Strategies for an Autonomous Underwater Vehicle

    Get PDF
    The dynamic characteristics of autonomous underwater vehicles (AUVs) present a control problem that classical methods cannot often accommodate easily. Fundamentally, AUV dynamics are highly non-linear, and the relative similarity between the linear and angular velocities about each degree of freedom means that control schemes employed within other flight vehicles are not always applicable. In such instances, intelligent control strategies offer a more sophisticated approach to the design of the control algorithm. Neurofuzzy control is one such technique, which fuses the beneficial properties of neural networks and fuzzy logic in a hybrid control architecture. Such an approach is highly suited to development of an autopilot for an AUV. Specifically, the adaptive network-based fuzzy inference system (ANFIS) is discussed in Chapter 4 as an effective new approach for neurally tuning course-changing fuzzy autopilots. However, the limitation of this technique is that it cannot be used for developing multivariable fuzzy structures. Consequently, the co-active ANFIS (CANFIS) architecture is developed and employed as a novel multi variable AUV autopilot within Chapter 5, whereby simultaneous control of the AUV yaw and roll channels is achieved. Moreover, this structure is flexible in that it is extended in Chapter 6 to perform on-line control of the AUV leading to a novel autopilot design that can accommodate changing vehicle pay loads and environmental disturbances. Whilst the typical ANFIS and CANFIS structures prove effective for AUV control system design, the well known properties of radial basis function networks (RBFN) offer a more flexible controller architecture. Chapter 7 presents a new approach to fuzzy modelling and employs both ANFIS and CANFIS structures with non-linear consequent functions of composite Gaussian form. This merger of CANFIS and a RBFN lends itself naturally to tuning with an extended form of the hybrid learning rule, and provides a very effective approach to intelligent controller development.The Sea Systems and Platform Integration Sector, Defence Evaluation and Research Agency, Winfrit

    Soft computing applied to optimization, computer vision and medicine

    Get PDF
    Artificial intelligence has permeated almost every area of life in modern society, and its significance continues to grow. As a result, in recent years, Soft Computing has emerged as a powerful set of methodologies that propose innovative and robust solutions to a variety of complex problems. Soft Computing methods, because of their broad range of application, have the potential to significantly improve human living conditions. The motivation for the present research emerged from this background and possibility. This research aims to accomplish two main objectives: On the one hand, it endeavors to bridge the gap between Soft Computing techniques and their application to intricate problems. On the other hand, it explores the hypothetical benefits of Soft Computing methodologies as novel effective tools for such problems. This thesis synthesizes the results of extensive research on Soft Computing methods and their applications to optimization, Computer Vision, and medicine. This work is composed of several individual projects, which employ classical and new optimization algorithms. The manuscript presented here intends to provide an overview of the different aspects of Soft Computing methods in order to enable the reader to reach a global understanding of the field. Therefore, this document is assembled as a monograph that summarizes the outcomes of these projects across 12 chapters. The chapters are structured so that they can be read independently. The key focus of this work is the application and design of Soft Computing approaches for solving problems in the following: Block Matching, Pattern Detection, Thresholding, Corner Detection, Template Matching, Circle Detection, Color Segmentation, Leukocyte Detection, and Breast Thermogram Analysis. One of the outcomes presented in this thesis involves the development of two evolutionary approaches for global optimization. These were tested over complex benchmark datasets and showed promising results, thus opening the debate for future applications. Moreover, the applications for Computer Vision and medicine presented in this work have highlighted the utility of different Soft Computing methodologies in the solution of problems in such subjects. A milestone in this area is the translation of the Computer Vision and medical issues into optimization problems. Additionally, this work also strives to provide tools for combating public health issues by expanding the concepts to automated detection and diagnosis aid for pathologies such as Leukemia and breast cancer. The application of Soft Computing techniques in this field has attracted great interest worldwide due to the exponential growth of these diseases. Lastly, the use of Fuzzy Logic, Artificial Neural Networks, and Expert Systems in many everyday domestic appliances, such as washing machines, cookers, and refrigerators is now a reality. Many other industrial and commercial applications of Soft Computing have also been integrated into everyday use, and this is expected to increase within the next decade. Therefore, the research conducted here contributes an important piece for expanding these developments. The applications presented in this work are intended to serve as technological tools that can then be used in the development of new devices

    Interactive Feedforward in High Intensity VR Exergaming

    Get PDF

    Memaksimalkan Daya Keluaran Sistem Pembangkit Listrik Sel Surya Yang Tertutup Bayangan Menggunakan Rangkaian Matriks Saklar Berbasis Logika Fuzzy Dan Regulator Tegangan Berbasis Kontroler Pid

    Get PDF
    Berdasarkan penelitian-penelitian terdahulu, pada umumnya metode yang digunakan untuk memaksimalkan daya keluaran dari photovoltaic (PV) adalah dengan menggunakan mekanisme Maximum Power Point Tracking (MPPT). Pada kasus PV string yang sebagian modulnya tertutup bayangan (shading) yang bervariasi, maka sistem kontrol berbasis MPPT ini tidak dapat bekerja dengan baik. Hal itu diakibatkan efek shading yang bervariasi, sehingga daya PV Farm yang dihasilkan tidak optimal. Penelitian ini menawarkan suatu metode alternatif untuk mengoptimasi daya PV Farm berbasis cluster tegangan string PV. Dimana kapasitas daya terpasang pada penelitian ini adalah 12000 Wp, terdiri dari 4 string PV dan setiap stringnya terdiri dari 12 Modul, sehingga total modul PV yang digunakan sebanyak 48 modul PV. Modul-modul PV yang terdapat pada string PV dihubungkan secara seri. Dimana akibat variasi efek shading maka besar tegangan antar string PV berpotensi berbeda. Perbedaan tersebut mengakibatkan kesulitan dalam hal disain Mekanisme Maximum Power Point Trucking (MPPT). Untuk itu diusulkan suatu metode pengelompokan besar tegangan yang bersesuaian dari setiap keluaran hasil mekanisme MPPT, dimana setiap keluaran MPPT terhubung secara paralel pada rangkaian matrik saklar. Rangkaian matriks saklar dikontrol menggunakan mekanisme algoritma Fuzzy Logic Controller (FLC). Selanjutnya masing-masing hasil pengelompokan dihubungkan ke suatu rangkaian regulator berbasis kontroler Proportional - Integral-Derivatif (PID controller) yang berfungsi mengontrol besar tegangan setiap kelompok menjadi sama sesuai setpoint yang diinginkan. Berdasarkan pengujian Pembangkit PV Array menggunakan metode cluster untuk kasus tertutup bayangan sebagian terjadi peningkatan daya yang sangat signifikan bahkan sampai dengan 108%, jika dibandingkan pembangkit PV Array dengan menggunakan metode konvensional (tanpa cluster). Namun hal tersebut dapat bervariasi mengikuti dinamika bayangan yang menutupi modulmodul PV yang terdapat pada pembangkit PV Array. Maka dapat ditarik kesimpulan bahwa metode yang diusulkan dapat bekerja dengan baik untuk meningkatkan daya PV Array pada kondisi normal maupun tertutup bayangan sebagian ========================================================================================================= Based on previous studies, the method used to maximize the output power of photovoltaic (PV) is by using Maximum Power Point Tracking (MPPT) mechanism. In the case of PV strings that some of the modules are covered with varying shading, the MPPT - based cont rol system can not work properly. This is due to the effects of shading vary, so the PV Farm power generated is not optimal. T his research offers an alternative method to optimize PV Arrayr based cluster of PV string. Where the power capacity installed in this research is 12000 Wp, consisting of 4 string of PV and each string consist of 12 Modules, so total of PV module used is 48 PV modules. The PV modules contained in the PV strings are connected in series. Where due to variations of shading effect, the voltage between the PV strings is potentially different. This difference leads to difficulties in designing the Maximum Power Point Tracking Mechanism (MPPT). this researc propose a method of grouping the corresponding voltage according to each output o f the MPPT mechanism, in which each MPPT output is connected in parallel to the switch matrix circuit. The logic of this switch matrix circuit is generated using fuzzy logic inference mechanism. Furthermore, each grouping result is connected to a regulator circuit based on Proportional - Integral - Derivative (PID) controller to control the voltage of each group to be the same according to the desired setpoint. The voltage output of this proposed system will be compared with the voltage output of system wi th MPPT optimization method. Based on PV PV array testing using cluster method for closed partial shadow case, there is a very significant increase of power even up to 10 8 %, when compared to PV Array plant using conventional method (without cluster). Howev er, it may vary according to the shadow dynamics that cover the PV modules contained in the PV array generator. So with the explanation can be concluded that the proposed method can work well to increase the power of PV Array in normal conditions as well a s tertup partial shadow

    Ottimizzazione Strutturale di Reti Neurofuzzy

    Get PDF
    Nella tesi sono stati scelti i modelli neurofuzzy come base di sviluppo di nuovi sistemi di modellamento che utilizzano anche le più recenti tecniche di ottimizzazione strutturale. In altre parole, la sintesi dei parametri del modello è integrata dalla determinazione automatica della complessità strutturale del modello stesso (ossia del numero dei suoi parametri), affinché ne sia massimizzata la capacità di generalizzazione. E’ bene precisare che, per ragioni di sintesi e di chiarezza espositiva, in questa tesi non sarà presentata tutta l’attività svolta nei tre anni di dottorato. Si è preferito concentrare l’attenzione su un particolare sistema di modellamento e sulla procedura di sintesi per esso realizzata, in modo tale da evidenziare i contributi più originali e significativi che hanno caratterizzato il lavoro di ricerca

    Assessment of climate change and development of data based prediction models of sediment yields in Upper Indus Basin

    Get PDF
    Hohe Raten von Sedimentflüssen und ihre Schätzungen in Flusseinzugsgebieten erfordern die Auswahl effizienter Quantifizierungsansätze mit einem besseren Verständnis der dominierten Faktoren, die den Erosionsprozess auf zeitlicher und räumlicher Ebene steuern. Die vorherige Bewertung von Einflussfaktoren wie Abflussvariation, Klima, Landschaft und Fließprozess ist hilfreich, um den geeigneten Modellierungsansatz zur Quantifizierung der Sedimenterträge zu entwickeln. Einer der schwächsten Aspekte bei der Quantifizierung der Sedimentfracht ist die Verwendung traditioneller Beziehung zwischen Strömungsgeschwindigkeit und Bodensatzlöschung (SRC), bei denen die hydrometeorologischen Schwankungen, Abflusserzeugungsprozesse wie Schneedecke, Schneeschmelzen, Eisschmelzen usw. nicht berücksichtigt werden können. In vielen Fällen führt die empirische Q-SSC Beziehung daher zu ungenauen Prognosen. Heute können datenbasierte Modelle mit künstlicher Intelligenz die Sedimentfracht präziser abschätzen. Die datenbasierten Modelle lernen aus den eingespeisten Datensätzen, indem sie bei komplexen Phänomenen wie dem Sedimenttransport die geeignete funktionale Beziehung zwischen dem Output und seinen Input-Variablen herstellen. In diesem Zusammenhang wurden die datenbasierten Modellierungsalgorithmen in der vorliegenden Forschungsarbeit am Lehrstuhl für Wasser- und Flussgebietsmanagement des Karlsruher Instituts für Technologie in Karlsruhe entwickelt, die zur Vorhersage von Sedimenten in oberen unteren Einzugsgebieten des oberen Indusbeckens von Pakistan (UIB) verwendet wurden. Die dieser Arbeit zugrunde liegende Methodik gliedert sich in vier Bearbeitungsschritte: (1) Vergleichende Bewertung der räumlichen Variabilität und der Trends von Abflüssen und Sedimentfrachten unter dem Einfluss des Klimawandels im oberen Indus-Becken (2) Anwendung von Soft-Computing-Modellen mit Eingabevektoren der schneedeckten Fläche zusätzlich zu hydro-klimatischen Daten zur Vorhersage der Sedimentfracht (3) Vorhersage der Sedimentfracht unter Verwendung der NDVI-Datensätze (Hydroclimate and Normalized Difference Vegetation Index) mit Soft-Computing-Modellen (4) Klimasignalisierung bei suspendierten Sedimentausträge aus Gletscher und Schnee dominierten Teileinzugsgebeiten im oberen Indus-Becken (UIB). Diese im UIB durchgeführte Analyse hat es ermöglicht, die dominiertenden Parameter wie Schneedecke und hydrologischen Prozesses besser zu und in eine verbesserte Prognose der Sedimentfrachten einfließen zu lassen. Die Analyse der Bewertung des Klimawandels von Flüssen und Sedimenten in schnee- und gletscherdominierten UIB von 13 Messstationen zeigt, dass sich die jährlichen Flüsse und suspendierten Sedimente am Hauptindus in Besham Qila stromaufwärts des Tarbela-Reservoirs im ausgeglichenen Zustand befinden. Jedoch, die jährlichen Konzentrationen suspendierter Sedimente (SSC) wurden signifikant gesenkt und lagen zwischen 18,56% und 28,20% pro Jahrzehnt in Gilgit an der Alam Bridge (von Schnee und Gletschern dominiertes Becken), Indus in Kachura und Brandu in Daggar (von weniger Niederschlag dominiertes Becken). Während der Sommerperiode war der SSC signifikant reduziert und lag zwischen 18,63% und 27,79% pro Jahrzehnt, zusammen mit den Flüssen in den Regionen Hindukush und West-Karakorum aufgrund von Anomalien des Klimawandels und im unteren Unterbecken mit Regen aufgrund der Niederschlagsreduzierung. Die SSC während der Wintersaison waren jedoch aufgrund der signifikanten Erwärmung der durchschnittlichen Lufttemperatur signifikant erhöht und lagen zwischen 20,08% und 40,72% pro Jahrzehnt. Die datenbasierte Modellierung im schnee und gletscherdominierten Gilgit Teilbecken unter Verwendung eines künstlichen neuronalen Netzwerks (ANN), eines adaptiven Neuro-Fuzzy-Logik-Inferenzsystems mit Gitterpartition (ANFIS-GP) und eines adaptiven Neuro-Fuzzy-Logik-Inferenzsystems mit subtraktivem Clustering (ANFIS) -SC), ein adaptives Neuro-Fuzzy-Logik- Inferenzsystem mit Fuzzy-C-Mittel-Clustering, multiplen adaptiven Regressionssplines (MARS) und Sedimentbewertungskurven (SRC) durchgeführt. Die Ergebnisse von Algorithmen für maschinelles Lernen zeigen, dass die Eingabekombination aus täglichen Abflüssen (Qt), Schneedeckenfläche (SCAt), Temperatur (Tt-1) und Evapotranspiration (Evapt-1) die Leistung der Sedimentvorhersagemodelle verbesserne. Nach dem Vergleich der Gesamtleistung der Modelle schnitt das ANN-Modell besser ab als die übrigen Modelle. Bei der Vorhersage der Sedimentfrachten in Spitzenzeiten lag die Vorhersage der ANN-, ANIS-FCM- und MARS-Modelle näher an den gemessenen Sedimentbelastungen. Das ANIS-FCM-Modell mit einem absoluten Gesamtfehler von 81,31% schnitt bei der Vorhersage der Spitzensedimente besser ab als ANN und MARS mit einem absoluten Gesamtfehler von 80,17% bzw. 80,16%. Die datenbasierte Modellierung der Sedimentfrachten im von Regen dominierten Brandu-Teilbecken wurde unter Verwendung von Datensätzen für Hydroklima und biophysikalische Eingaben durchgeführt, die aus Strömungen, Niederschlag, mittlerer Lufttemperatur und normalisiertem Differenzvegetationsindex (NDVI) bestehen. Die Ergebnisse von vier ANNs (Artificial Neural Networks) und drei ANFIS-Algorithmen (Adaptive Neuro-Fuzzy Logic Inference System) für das Brandu Teilnbecken haben gezeigt, dass der mittels Fernerkundung bestimmte NDVI als biophysikalische Parameter zusätzlich zu den Hydroklima-Parametern die Leistung das Modell nicht verbessert. Der ANFIS-GP schnitt in der Testphase besser ab als andere Modelle mit einer Eingangskombination aus Durchfluss und Niederschlag. ANN, eingebettet in Levenberg-Marquardt (ANN-LM) für den Zeitraum 1981-2010, schnitt jedoch am besten mit Eingabekombinationen aus Strömungen, Niederschlag und mittleren Lufttemperaturen ab. Die Ergebnisgenauigkeit R2 unter Verwendung des ANN-LM-Algorithmus verbesserte sich im Vergleich zur Sedimentbewertungskurve (SRC) um bis zu 28%. Es wurde gezeigt, dass für den unteren Teil der UIB-Flüsse Niederschlag und mittlere Lufttemperatur dominierende Faktoren für die Vorhersage von Sedimenterträgen sind und biophysikalische Parameter (NDVI) eine untergeordnete Rolle spielen. Die Modellierung zur Bewertung der Änderungen des SSC in schnee- und gletschergespeiste Gilgit- und Astore-Teilbecken wurde unter Verwendung des Temp-Index degree day modell durchgeführt. Die Ergebnisse des Mann-Kendall-Trendtests in den Flüssen Gilgit und Astore zeigten, dass der Anstieg des SSC während der Wintersaison auf die Erwärmung der mittleren Lufttemperatur, die Zunahme der Winterniederschläge und die Zunahme der Schneeschmelzen im Winter zurückzuführen ist. Während der Frühjahrssaison haben die Niederschlags- und Schneedeckenanteile im Gilgit-Unterbecken zugenommen, im Gegensatz zu seiner Verringerung im Astore-Unterbecken. Im Gilgit-Unterbecken war der SSC im Sommer aufgrund des kombinierten Effekts der Karakorum-Klimaanomalie und der vergrößerten Schneedecke signifikant reduziert. Die Reduzierung des Sommer-SSC im Gilgit Fluss ist auf die Abkühlung der Sommertemperatur und die Bedeckung der exponierten proglazialen Landschaft zurückzuführen, die auf erhöhten Schnee, verringerte Trümmerflüsse Trümmerflüsse und verringerte Schneeschmelzen von Trümmergletschern zurückzuführen sind. Im Gegensatz zum Gilgit River sind die SSC im Astore River im Sommer erhöht. Der Anstieg des SSC im Astore-Unterbecken ist auf die Verringerung des Frühlingsniederschlags und der Schneedecke, die Erwärmung der mittleren Sommerlufttemperatur und den Anstieg des effektiven Niederschlags zurückzuführen. Die Ergebnisse zeigen ferner eine Verschiebung der Dominanz von Gletscherschmelzen zu Schneeschmelzen im Gilgit-Unterbecken und von Schnee zu Niederschlägen im Astore-Unterbecken bei Sedimenteden Sedimentfrachten in UIB. Die vorliegende Forschungsarbeit zur Bewertung der klimabedingten Veränderungen des SSC und seiner Vorhersage sowohl in den oberen als auch in den unteren Teilbecken des UIB wird nützlich sein, um den Sedimenttransportprozess besser zu verstehen und aufbauen auf dem verbessertenProzessverständnis ein angepasstes Sedimentmanagement und angepasste Planungen der zukünftigen Wasserinfrastrukturen im UIB ableiten zu können

    Експериментальна економіка та машинне навчання для прогнозування динаміки емерджентної економіки: матеріали вибраних робіт 8-ї Міжнародної конференції з моніторингу, моделювання та управління емерджентною економікою (M3E2 2019)

    Get PDF
    This volume represents the proceedings of the selected papers of the 8th International Conference on Monitoring, Modeling & Management of Emergent Economy (M3E2 2019), held in Odessa, Ukraine, on May 22-24, 2019. It comprises 38 papers dedicated to the experimental economics and machine learning that were carefully peer-reviewed and selected from 71 submissions.Цей том представляє вибрані матеріали 8-ої Міжнародної конференції "Моніторинг, моделювання та менеджмент емерджентної економіки" (M3E2 2019), що відбулася в Одесі, Україна, 22-24 травня 2019 року. Він містить 38 робіт, присвячених експериментальній економіці та машинному навчанню, які були ретельно прорецензовані та відібрані з 71 подання
    corecore