7 research outputs found

    Ensemble classification of incomplete data – a non-imputation approach with an application in ovarian tumour diagnosis support

    Get PDF
    Wydział Matematyki i InformatykiW niniejszej pracy doktorskiej zająłem się problemem klasyfikacji danych niekompletnych. Motywacja do podjęcia badań ma swoje źródło w medycynie, gdzie bardzo często występuje zjawisko braku danych. Najpopularniejszą metodą radzenia sobie z tym problemem jest imputacja danych, będąca uzupełnieniem brakujących wartości na podstawie statystycznych zależności między cechami. W moich badaniach przyjąłem inną strategię rozwiązania tego problemu. Wykorzystując opracowane wcześniej klasyfikatory można przekształcić je do formy, która zwraca przedział możliwych predykcji. Następnie, poprzez zastosowanie operatorów agregacji oraz metod progowania, można dokonać finalnej klasyfikacji. W niniejszej pracy pokazuję jak dokonać ww. przekształcenia klasyfikatorów oraz jak wykorzystać strategie agregacji danych przedziałowych do klasyfikacji. Opracowane przeze mnie metody podnoszą jakość klasyfikacji danych niekompletnych w problemie wspomagania diagnostyki guzów jajnika. Dodatkowa analiza wyników na zewnętrznych zbiorach danych z repozytorium uczenia maszynowego Uniwersytetu Kalifornijskiego w Irvine (UCI) wskazuje, że przedstawione metody są komplementarne z imputacją.In this doctoral dissertation I focus on the problem of classification of incomplete data. The motivation for the research comes from medicine, where missing data phenomena are commonly encountered. The most popular method of dealing with data missingness is imputation; that is, inserting missing data on the basis of statistical relationships among features. In my research I choose a different strategy for dealing with this issue. Classifiers of a type previously developed can be transformed to a form which returns an interval of possible predictions. In the next step, with the use of aggregation operators and thresholding methods, one can make a final classification. I show how to make such transformations of classifiers and how to use aggregation strategies for interval data classification. These methods improve the quality of the process of classification of incomplete data in the problem of ovarian tumour diagnosis. Additional analysis carried out on external datasets from the University of California, Irvine (UCI) Machine Learning Repository shows that the aforementioned methods are complementary to imputation

    Fuzzy Natural Logic in IFSA-EUSFLAT 2021

    Get PDF
    The present book contains five papers accepted and published in the Special Issue, “Fuzzy Natural Logic in IFSA-EUSFLAT 2021”, of the journal Mathematics (MDPI). These papers are extended versions of the contributions presented in the conference “The 19th World Congress of the International Fuzzy Systems Association and the 12th Conference of the European Society for Fuzzy Logic and Technology jointly with the AGOP, IJCRS, and FQAS conferences”, which took place in Bratislava (Slovakia) from September 19 to September 24, 2021. Fuzzy Natural Logic (FNL) is a system of mathematical fuzzy logic theories that enables us to model natural language terms and rules while accounting for their inherent vagueness and allows us to reason and argue using the tools developed in them. FNL includes, among others, the theory of evaluative linguistic expressions (e.g., small, very large, etc.), the theory of fuzzy and intermediate quantifiers (e.g., most, few, many, etc.), and the theory of fuzzy/linguistic IF–THEN rules and logical inference. The papers in this Special Issue use the various aspects and concepts of FNL mentioned above and apply them to a wide range of problems both theoretically and practically oriented. This book will be of interest for researchers working in the areas of fuzzy logic, applied linguistics, generalized quantifiers, and their applications

    A copula-based quantified airworthiness modelling for civil aircraft engines

    Get PDF
    The aircraft engine serves as the core system of an aircraft and operates under extreme conditions, requiring high reliability and absolute safety. The design, manufacturing, and after-sales services of aircraft engines are complex processes. To ensure safety and performance, maintenance checks are performed periodically and hierarchically throughout the engine’s life-cycle. Among these checks, shop visit (SV) heavy maintenance checks play a crucial role but are also costly, especially when they occur unexpectedly and unplanned. Analysis of the maintenance logbook, recording aviation operations, reveals a significant occurrence of unplanned SVs, which may be attributed to the existing maintenance policy based on a single time-definition. To address this issue, this paper seeks to establish a novel approach to quantifying airworthiness through copula modeling, which combines two time-definitions: the flying hour (FH) and the flying cycle (FC). This approach is unique in the aviation industry. By employing the Gumbel copula with the generalized extreme value (GEV) distribution as the marginal distribution, and utilizing non-parametric association measurement parameter estimation, the quantified airworthiness of civil aircraft engine fleets across multiple product lines can be effectively modeled. This research provides valuable insights into optimizing maintenance policies and enhancing the reliability and safety of aircraft engines

    Order from non-associative operations

    Get PDF
    Algebraic structures are often converted to ordered structures to gain information about the algebra using the properties of partially ordered sets. Such studies have been predominantly undertaken for semigroups, using various proposed relations. This has led to a spate of works dealing with associative fuzzy logic connectives (FLCs) and the orders that they generate. One such relation, proposed by Clifford, is employed both for its generality as well as utility. In a recent work, Gupta and Jayaram classified the semigroups that yield a partial order through the relation. In this work, we characterise groupoids that would give a partial order by introducing a property called the Generalised Quasi-Projectivity. Further, for the groupoids that lead to an ordered set, we explore the monotonicity of the underlying groupoid operation on the obtained poset. Finally, in light of the above results, we explore the major non-associative fuzzy logic connectives along these lines, thus complementing and augmenting, already existing works in the literature. Our work also shows when an FLC from a given class of operations remains one even w.r.to the order generated from it

    Mathematical Fuzzy Logic in the Emerging Fields of Engineering, Finance, and Computer Sciences

    Get PDF
    Mathematical fuzzy logic (MFL) specifically targets many-valued logic and has significantly contributed to the logical foundations of fuzzy set theory (FST). It explores the computational and philosophical rationale behind the uncertainty due to imprecision in the backdrop of traditional mathematical logic. Since uncertainty is present in almost every real-world application, it is essential to develop novel approaches and tools for efficient processing. This book is the collection of the publications in the Special Issue “Mathematical Fuzzy Logic in the Emerging Fields of Engineering, Finance, and Computer Sciences”, which aims to cover theoretical and practical aspects of MFL and FST. Specifically, this book addresses several problems, such as:- Industrial optimization problems- Multi-criteria decision-making- Financial forecasting problems- Image processing- Educational data mining- Explainable artificial intelligence, etc

    Modélisation et exploitation des connaissances pour les processus d'expertise collaborative

    Get PDF
    Les démarches d’expertise sont aujourd’hui mises en oeuvre dans de nombreux domaines, et plus particulièrement dans le domaine industriel, pour évaluer des situations, comprendre des problèmes ou encore anticiper des risques. Placés en amont des problèmes complexes et mal définis, elles servent à la compréhension de ceux-ci et facilitent ainsi les prises de décisions. Ces démarches sont devenues tellement généralisées qu’elles ont fait l’objet d’une norme (NF X 50-110) et d’un guide de recommandation édité en 2011 (FDX 50-046). Ces démarches reposent principalement sur la formulation d’hypothèses avec un certain doute par un ou plusieurs experts. Par la suite, ces hypothèses vont progressivement être validées ou invalidées au cours des différentes phases de la démarche par rapport aux connaissances disponibles. Ainsi, les certitudes accordées aux hypothèses vont connaître une évolution au cours des dites phases et permettront d’avoir une certitude sur la compréhension d’un problème en fonction des hypothèses valides. Bien que cette approche d’étude de problèmes ait fait l’objet d’une norme, elle manque d’outils automatiques ou semi-automatiques pour assister les experts du domaine lors des différentes phases exploratoires des problèmes. De plus, cette approche quasi manuelle manque des mécanismes appropriés pour gérer les connaissances produites de manière à ce qu’elles soient compréhensibles par les humains et manipulables par les machines. Avant de proposer des solutions à ces limites de l’état actuel des processus d’expertise, une revue des études fondamentales et appliquées en logique, en représentation des connaissances pour l’expertise ou l’expérience, et en intelligence collaborative a été réalisée pour identifier les briques technologiques des solutions proposées. Une analyse de la norme NF X 50-100 a été menée pour comprendre les caractéristiques des Processus d’Expertise et comment ils peuvent être représentés formellement et utilisés comme retour d’expérience. Une étude a été menée sur des rapports d’expertise passés d’accidents d’avion pour trouver comment ils peuvent être représentés dans un format lisible par une machine, général et extensible, indépendant du domaine et partageable entre les systèmes. Cette thèse apporte les contributions suivantes à la démarche d’expertise : Une formalisation des connaissances et une méthodologie de résolution collaborative de problèmes en utilisant des hypothèses. Cette méthode est illustrée par un cas d’étude tiré d’un problème de l’industrie de production, dans lequel un produit fabriqué a été rejeté par des clients. La méthode décrit également des mécanismes d’inférence compatibles avec la représentation formelle proposée. Un raisonnement collaboratif non-monotone basé sur la programmation logique par l’ensemble et la théorie d’incertitude utilisant les fonctions de croyance. Une représentation sémantique des rapports d’expertise basée sur les ontologies. Premièrement, ces contributions ont permis une exécution formelle et systématique des Processus d’Expertise, avec une motivation centrée sur l’humain. Ensuite, elles favorisent leur utilisation pour un traitement approprié selon des propriétés essentielles telles que la traçabilité, la transparence, le raisonnement non-monotone et l’incertitude, en tenant compte du doute humain et de la connaissance limitée des experts. Enfin, ils fournissent une représentation sémantique lisible par l’homme et la machine pour les expertise réalisées
    corecore