3,995 research outputs found

    Formal Concept Analysis Applications in Bioinformatics

    Get PDF
    Bioinformatics is an important field that seeks to solve biological problems with the help of computation. One specific field in bioinformatics is that of genomics, the study of genes and their functions. Genomics can provide valuable analysis as to the interaction between how genes interact with their environment. One such way to measure the interaction is through gene expression data, which determines whether (and how much) a certain gene activates in a situation. Analyzing this data can be critical for predicting diseases or other biological reactions. One method used for analysis is Formal Concept Analysis (FCA), a computing technique based in partial orders that allows the user to examine the structural properties of binary data based on which subsets of the data set depend on each other. This thesis surveys, in breadth and depth, the current literature related to the use of FCA for bioinformatics, with particular focus on gene expression data. This includes descriptions of current data management techniques specific to FCA, such as lattice reduction, discretization, and variations of FCA to account for different data types. Advantages and shortcomings of using FCA for genomic investigations, as well as the feasibility of using FCA for this application are addressed. Finally, several areas for future doctoral research are proposed. Adviser: Jitender S. Deogu

    An overview of decision table literature 1982-1995.

    Get PDF
    This report gives an overview of the literature on decision tables over the past 15 years. As much as possible, for each reference, an author supplied abstract, a number of keywords and a classification are provided. In some cases own comments are added. The purpose of these comments is to show where, how and why decision tables are used. The literature is classified according to application area, theoretical versus practical character, year of publication, country or origin (not necessarily country of publication) and the language of the document. After a description of the scope of the interview, classification results and the classification by topic are presented. The main body of the paper is the ordered list of publications with abstract, classification and comments.

    Conceptual Factors and Fuzzy Data

    Get PDF
    With the growing number of large data sets, the necessity of complexity reduction applies today more than ever before. Moreover, some data may also be vague or uncertain. Thus, whenever we have an instrument for data analysis, the questions of how to apply complexity reduction methods and how to treat fuzzy data arise rather naturally. In this thesis, we discuss these issues for the very successful data analysis tool Formal Concept Analysis. In fact, we propose different methods for complexity reduction based on qualitative analyses, and we elaborate on various methods for handling fuzzy data. These two topics split the thesis into two parts. Data reduction is mainly dealt with in the first part of the thesis, whereas we focus on fuzzy data in the second part. Although each chapter may be read almost on its own, each one builds on and uses results from its predecessors. The main crosslink between the chapters is given by the reduction methods and fuzzy data. In particular, we will also discuss complexity reduction methods for fuzzy data, combining the two issues that motivate this thesis.Komplexitätsreduktion ist eines der wichtigsten Verfahren in der Datenanalyse. Mit ständig wachsenden Datensätzen gilt dies heute mehr denn je. In vielen Gebieten stößt man zudem auf vage und ungewisse Daten. Wann immer man ein Instrument zur Datenanalyse hat, stellen sich daher die folgenden zwei Fragen auf eine natürliche Weise: Wie kann man im Rahmen der Analyse die Variablenanzahl verkleinern, und wie kann man Fuzzy-Daten bearbeiten? In dieser Arbeit versuchen wir die eben genannten Fragen für die Formale Begriffsanalyse zu beantworten. Genauer gesagt, erarbeiten wir verschiedene Methoden zur Komplexitätsreduktion qualitativer Daten und entwickeln diverse Verfahren für die Bearbeitung von Fuzzy-Datensätzen. Basierend auf diesen beiden Themen gliedert sich die Arbeit in zwei Teile. Im ersten Teil liegt der Schwerpunkt auf der Komplexitätsreduktion, während sich der zweite Teil der Verarbeitung von Fuzzy-Daten widmet. Die verschiedenen Kapitel sind dabei durch die beiden Themen verbunden. So werden insbesondere auch Methoden für die Komplexitätsreduktion von Fuzzy-Datensätzen entwickelt

    Combining rough and fuzzy sets for feature selection

    Get PDF

    Fuzzy Logic

    Get PDF
    Fuzzy Logic is becoming an essential method of solving problems in all domains. It gives tremendous impact on the design of autonomous intelligent systems. The purpose of this book is to introduce Hybrid Algorithms, Techniques, and Implementations of Fuzzy Logic. The book consists of thirteen chapters highlighting models and principles of fuzzy logic and issues on its techniques and implementations. The intended readers of this book are engineers, researchers, and graduate students interested in fuzzy logic systems

    Congruencias y factorización como herramientas de reducción en el análisis de conceptos formales

    Get PDF
    Desde su introducción a principios de los años ochenta por B. Ganter y R. Wille, el Análisis de Conceptos Formales (FCA, de sus siglas en inglés) ha sido una de las herramientas matemáticas para el análisis de datos que más desarrollo ha experimentado. El FCA es una teoría matemática que determina estructuras conceptuales entre conjuntos de datos. En particular, las bases de datos se interpretan formalmente en esta teoría con la noción de contexto, que viene determinado por un conjunto de objetos, un conjunto de atributos y una relación entre ambos conjuntos. Las herramientas que proporciona el FCA permiten manipular adecuadamente los datos y extraer información relevante de ellos. Una de las líneas de investigación con más importancia es la reducción del conjunto de atributos que contienen estos conjuntos de datos, preservando la información esencial y eliminando la redundancia que puedan contener. La reducción de atributos también ha sido estudiada en otros ambientes, como en la Teoría de Conjuntos Rugosos, así como en las distintas generalizaciones difusas de ambas teorías. En el FCA, se ha demostrado que cuando se lleva a cabo una reducción de atributos de un contexto formal, se induce una relación de equivalencia sobre el conjunto de conceptos del contexto original. Esta relación de equivalencia inducida tiene una particularidad, sus clases de equivalencia tienen una estructura de semirretículo superior con un elemento máximo, es decir, no forman estructuras algebraicas cerradas, en general. En esta tesis estudiamos cómo es posible complementar las reducciones de atributos dotando a las clases de equivalencia con una estructura algebraica cerrada. La noción de congruencia consigue este propósito, sin embargo, el uso de este tipo de relación de equivalencia puede desembocar en una gran pérdida de información debido a que las clases de equivalencia agrupan demasiados conceptos. Para abordar este problema, en esta tesis se introduce una noción debilitada de congruencia que denominamos congruencia local. La congruencia local da lugar a clases de equivalencia con estructura de subretículo convexo, siendo más flexible a la hora de agrupar conceptos pero manteniendo propiedades interesantes desde un punto de vista algebraico. Se presenta una discusión general de los principales resultados relativos al estudio y aplicación de las congruencias locales que se han obtenido a lo largo de la investigación desarrollada durante la tesis. En particular, se introduce la noción de congruencia local junto con un análisis de las propiedades que satisface, así como una relación de orden sobre el conjunto de las clases de equivalencia. Además, realizamos un análisis profundo del impacto que genera el uso de las congruencias locales en el FCA, tanto en el contexto formal como en el retículo de conceptos. En este análisis identificamos aquellas clases de equivalencia de la relación inducida por una reducción de atributos, sobre las cuales actuaría la congruencia local, realizando una agrupación de conceptos diferente para obtener subretículos convexos. Adicionalmente, llevamos a cabo un estudio sobre el uso de las congruencias locales cuando en la reducción de atributos considerada se han eliminado todos los atributos innecesarios del contexto, obtienen resultados interesantes. Presentamos diversos mecanismos que permiten calcular congruencias locales y aplicarlas sobre retículos de conceptos, detallando las modificaciones que se realizan sobre el contexto formal para proporcionar un método de reducción basado en congruencias locales. Por otra parte, otra de las estrategias que nos permite reducir la complejidad del análisis de los contextos formales son los mecanismos de factorización. Los procedimientos utilizados para factorizar permiten dividir un contexto en dos o más subcontextos formales de menor tamaño, pudiéndose estudiar por separado más fácilmente. Se presenta un estudio preliminar sobre la factorización de contextos formales difusos usando operadores modales, que no se ha publicado aún en una revista. Estos operadores modales ya han sido utilizados para extraer subcontextos independientes de un contexto formal clásico obteniéndose así una factorización del contexto original. En esta tesis estudiamos también diversas propiedades que nos ayudan a comprender mejor cómo funciona la descomposición de tablas de datos booleanos, para luego realizar una adaptación de dichas propiedades al marco de trabajo multiadjunto. El estudio de estas propiedades generales en el marco de trabajo multiadjunto será de gran relevancia para poder obtener en el futuro un procedimiento que nos permita factorizar contextos formales multiadjuntos. Por tanto, la obtención de mecanismos de factorización de contextos multiadjuntos será clave para el análisis y tratamiento de grandes bases de dato

    Data mining by means of generalized patterns

    Get PDF
    The thesis is mainly focused on the study and the application of pattern discovery algorithms that aggregate database knowledge to discover and exploit valuable correlations, hidden in the analyzed data, at different abstraction levels. The aim of the research effort described in this work is two-fold: the discovery of associations, in the form of generalized patterns, from large data collections and the inference of semantic models, i.e., taxonomies and ontologies, suitable for driving the mining proces

    A COMPREHENSIVE GEOSPATIAL KNOWLEDGE DISCOVERY FRAMEWORK FOR SPATIAL ASSOCIATION RULE MINING

    Get PDF
    Continuous advances in modern data collection techniques help spatial scientists gain access to massive and high-resolution spatial and spatio-temporal data. Thus there is an urgent need to develop effective and efficient methods seeking to find unknown and useful information embedded in big-data datasets of unprecedentedly large size (e.g., millions of observations), high dimensionality (e.g., hundreds of variables), and complexity (e.g., heterogeneous data sources, space–time dynamics, multivariate connections, explicit and implicit spatial relations and interactions). Responding to this line of development, this research focuses on the utilization of the association rule (AR) mining technique for a geospatial knowledge discovery process. Prior attempts have sidestepped the complexity of the spatial dependence structure embedded in the studied phenomenon. Thus, adopting association rule mining in spatial analysis is rather problematic. Interestingly, a very similar predicament afflicts spatial regression analysis with a spatial weight matrix that would be assigned a priori, without validation on the specific domain of application. Besides, a dependable geospatial knowledge discovery process necessitates algorithms supporting automatic and robust but accurate procedures for the evaluation of mined results. Surprisingly, this has received little attention in the context of spatial association rule mining. To remedy the existing deficiencies mentioned above, the foremost goal for this research is to construct a comprehensive geospatial knowledge discovery framework using spatial association rule mining for the detection of spatial patterns embedded in geospatial databases and to demonstrate its application within the domain of crime analysis. It is the first attempt at delivering a complete geo-spatial knowledge discovery framework using spatial association rule mining
    corecore