16 research outputs found

    The development of hybrid intelligent systems for technical analysis based equivolume charting

    Get PDF
    This dissertation proposes the development of a hybrid intelligent system applied to technical analysis based equivolume charting for stock trading. A Neuro-Fuzzy based Genetic Algorithms (NF-GA) system of the Volume Adjusted Moving Average (VAMA) membership functions is introduced to evaluate the effectiveness of using a hybrid intelligent system that integrates neural networks, fuzzy logic, and genetic algorithms techniques for increasing the efficiency of technical analysis based equivolume charting for trading stocks --Introduction, page 1

    A Fraud-Detection Fuzzy Logic Based System for the Sudanese Financial Sector

    Get PDF
    Financial fraud considered as a global issue that faces the financial sector and economy; as a result, many financial institutions loose hundreds of millions of dollars annually due to fraud. In Sudan, there are difficulties of getting real data from banks and the unavailability of systems which explain the reasons of suspicious transaction. Hence, there is a need for transparent techniques which can automatically detect fraud with high accuracy and identify its causes and common patterns. Some of the Artificial Intelligence (AI) techniques provide good predictive models, nevertheless they are considered as black-box models which are not easy to understand and analyze. In this paper, we developed a novel intelligent type-2 Fuzzy Logic Systems (FLSs) which can detect fraud in debit cards using real world dataset extracted from financial institutions in Sudan. FLSs provide white-box transparent models which employ linguistic labels and IF-Then rules which could be easily analyzed, interpreted and augmented by the fraud experts. The proposed type-2 FLS system learnt its fuzzy sets parameters from data using Fuzzy C-means (FCM) clustering as well as learning the FLS rules from data. The proposed system has the potential to result in highly accurate automatic fraud-detection for the Sudanese financial institutions and banking sectors

    Exploring variability in medical imaging

    Get PDF
    Although recent successes of deep learning and novel machine learning techniques improved the perfor- mance of classification and (anomaly) detection in computer vision problems, the application of these methods in medical imaging pipeline remains a very challenging task. One of the main reasons for this is the amount of variability that is encountered and encapsulated in human anatomy and subsequently reflected in medical images. This fundamental factor impacts most stages in modern medical imaging processing pipelines. Variability of human anatomy makes it virtually impossible to build large datasets for each disease with labels and annotation for fully supervised machine learning. An efficient way to cope with this is to try and learn only from normal samples. Such data is much easier to collect. A case study of such an automatic anomaly detection system based on normative learning is presented in this work. We present a framework for detecting fetal cardiac anomalies during ultrasound screening using generative models, which are trained only utilising normal/healthy subjects. However, despite the significant improvement in automatic abnormality detection systems, clinical routine continues to rely exclusively on the contribution of overburdened medical experts to diagnosis and localise abnormalities. Integrating human expert knowledge into the medical imaging processing pipeline entails uncertainty which is mainly correlated with inter-observer variability. From the per- spective of building an automated medical imaging system, it is still an open issue, to what extent this kind of variability and the resulting uncertainty are introduced during the training of a model and how it affects the final performance of the task. Consequently, it is very important to explore the effect of inter-observer variability both, on the reliable estimation of model’s uncertainty, as well as on the model’s performance in a specific machine learning task. A thorough investigation of this issue is presented in this work by leveraging automated estimates for machine learning model uncertainty, inter-observer variability and segmentation task performance in lung CT scan images. Finally, a presentation of an overview of the existing anomaly detection methods in medical imaging was attempted. This state-of-the-art survey includes both conventional pattern recognition methods and deep learning based methods. It is one of the first literature surveys attempted in the specific research area.Open Acces

    Forecasting monthly airline passenger numbers with small datasets using feature engineering and a modified principal component analysis

    Get PDF
    In this study, a machine learning approach based on time series models, different feature engineering, feature extraction, and feature derivation is proposed to improve air passenger forecasting. Different types of datasets were created to extract new features from the core data. An experiment was undertaken with artificial neural networks to test the performance of neurons in the hidden layer, to optimise the dimensions of all layers and to obtain an optimal choice of connection weights – thus the nonlinear optimisation problem could be solved directly. A method of tuning deep learning models using H2O (which is a feature-rich, open source machine learning platform known for its R and Spark integration and its ease of use) is also proposed, where the trained network model is built from samples of selected features from the dataset in order to ensure diversity of the samples and to improve training. A successful application of deep learning requires setting numerous parameters in order to achieve greater model accuracy. The number of hidden layers and the number of neurons, are key parameters in each layer of such a network. Hyper-parameter, grid search, and random hyper-parameter approaches aid in setting these important parameters. Moreover, a new ensemble strategy is suggested that shows potential to optimise parameter settings and hence save more computational resources throughout the tuning process of the models. The main objective, besides improving the performance metric, is to obtain a distribution on some hold-out datasets that resemble the original distribution of the training data. Particular attention is focused on creating a modified version of Principal Component Analysis (PCA) using a different correlation matrix – obtained by a different correlation coefficient based on kinetic energy to derive new features. The data were collected from several airline datasets to build a deep prediction model for forecasting airline passenger numbers. Preliminary experiments show that fine-tuning provides an efficient approach for tuning the ultimate number of hidden layers and the number of neurons in each layer when compared with the grid search method. Similarly, the results show that the modified version of PCA is more effective in data dimension reduction, classes reparability, and classification accuracy than using traditional PCA.</div

    Interconnected Services for Time-Series Data Management in Smart Manufacturing Scenarios

    Get PDF
    xvii, 218 p.The rise of Smart Manufacturing, together with the strategic initiatives carried out worldwide, have promoted its adoption among manufacturers who are increasingly interested in boosting data-driven applications for different purposes, such as product quality control, predictive maintenance of equipment, etc. However, the adoption of these approaches faces diverse technological challenges with regard to the data-related technologies supporting the manufacturing data life-cycle. The main contributions of this dissertation focus on two specific challenges related to the early stages of the manufacturing data life-cycle: an optimized storage of the massive amounts of data captured during the production processes and an efficient pre-processing of them. The first contribution consists in the design and development of a system that facilitates the pre-processing task of the captured time-series data through an automatized approach that helps in the selection of the most adequate pre-processing techniques to apply to each data type. The second contribution is the design and development of a three-level hierarchical architecture for time-series data storage on cloud environments that helps to manage and reduce the required data storage resources (and consequently its associated costs). Moreover, with regard to the later stages, a thirdcontribution is proposed, that leverages advanced data analytics to build an alarm prediction system that allows to conduct a predictive maintenance of equipment by anticipating the activation of different types of alarms that can be produced on a real Smart Manufacturing scenario

    Diseño de un modelo conceptual multi-dominio para recomendaciones mediante el filtrado de información semántica en los medios sociales

    Get PDF
    Actualmente los usuarios demandan, cada vez, y de manera más intensa, la búsqueda de distintos contenidos almacenados en la Web. Por un lado, existe una gran cantidad de información en la Web y en los medios sociales, esto es debido a la disponibilidad de información sobre los distintos productos, contenidos y servicios que pueden hacer que un usuario se sienta desbordado al intentar discriminar sobre qué producto, qué contenido o qué servicio cubre sus necesidades. Por otro lado, los Sistemas de Recomendación en las distintas áreas de aplicación son cada vez más frecuentes, ya que son útiles para valorar y filtrar esa gran cantidad de información que se encuentra disponible en la Web desde distintos paradigmas. La necesidad de hacer que los procesos de recomendación sean cada vez más claros, que satisfagan y cumplan con las expectativas de los usuarios ha supuesto una gran importancia al estudio relacionado con los distintos modelos formales semánticos existentes en los Sistemas de Recomendación aplicados en los medios sociales, además debido a que los usuarios utilizan la Web para publicar, editar y compartir sus contenidos. Por lo tanto, el uso de los distintos modelos formales semánticos para recomendaciones en los medios sociales facilitan la información y, a su vez, aportan un valor añadido al generar una representación del conocimiento sobre distintos dominios: además la información sirve de base para generar recomendaciones a partir de Sistemas de Recomendación a los distintos usuarios en la Web. La Web semántica posibilita la convergencia entre el uso y la interacción de las personas y los medio sociales, permitiendo crear una gran variedad de contenidos accesibles a las tecnologías semánticas de la Web, a las técnicas de aprendizaje y el filtrado de información. Además, si añadimos que existen las plataformas de comunicación social en la Web, que surgen ante la necesidad de ofrecer una mayor diversidad de información para proporcionar los diversos contenidos personalizados hacia los diferentes tipos de usuarios. Existen distintos modelos semánticos para Sistemas Basados en Conocimiento que pueden aplicarse en diferentes ámbitos multidisciplinarios, tales como, lenguaje natural, realidad virtual, redes neuronales, juegos masivos, sistemas expertos, robótica, sistemas de planeación, reconocimiento de imágenes, traductores, solución de problemas, sistemas evolutivos y el aprendizaje automático entre otros. Sin embargo, los modelos basados en conocimiento semántico en Sistemas de Recomendación para entornos de medios sociales aún no han sido completamente explotados, constituyendo un área de investigación abierta para la búsqueda de constantes soluciones en la información desde distintos dominios. Por lo tanto, esta investigación plantea el diseño de un nuevo modelo conceptual multi-dominio semántico para la representación del conocimiento sobre los distintos productos, marcas sus características y servicios ofertados en las redes sociales, a su vez, el modelo conceptual multi-dominio puede modelar y gestionar el conocimiento de diferentes perfiles de usuarios, productos y medios sociales caracterizados para distintos dominios, dentro de un contexto de servicios y productos que, sin cambiar sus conceptos principales, el modelo pueda ser aplicado a distintos dominios para la representación del conocimiento. Además de las hipótesis que marcaron las directrices de trabajo y los objetivos planteados, la presente tesis aporta el diseño del propuesto modelo. La metodología seguida para la elaboración de esta tesis, ha consistido en lo siguiente: 1. – Estudio del estado de la cuestión de la investigación. Dicho análisis permitirá conocer la originalidad y los recursos existentes en el área que se pretende abordar. 2. – Definición de un nuevo modelo conceptual multi-dominio basado en el conocimiento semántico. En paralelo al estudio del estado de la cuestión que permite conocer el estudio del problema y, que a su vez, facilita la definición del modelo. El modelo se desarrollará bajo una herramienta de modelado que facilita la gestión de los conceptos representados en el modelo y, un experto que facilita la interpretación de los datos. 3. – Extracción de datos semánticos basados en contenido estructurado, la información será extraída desde las fuentes de información almacenadas en la Web. 4. – Solución preliminar, dicha etapa nos permite conocer los primeros resultados y un primer comportamiento del modelado a partir de la extracción de datos. 5. – Diseño de un marco computacional. Dicha etapa será el desarrollo de un marco de trabajo basado en el modelo propuesto que integrará un Sistema Basado en Conocimiento, un Sistema de Recomendación, los datos semánticos basados en contenido estructurado semántico y la información que será extraída desde la Web. 6. – Validación y experimentación, en esta fase se ha comprobado las hipótesis planteadas en la investigación, además que el modelo desarrollado puede representar el conocimiento relativo al problema, aplicándolo a la representación del conocimiento para distintos dominios a partir de marco computacional desarrollado y, que a su vez es basado en conocimiento semántico y contenido estructurado. 7. – Verificación y análisis de los resultados. Tras la etapa de validación se estudian los resultados obtenidos que permiten comprobar la validez del modelo propuesto en esta investigación. El objetivo de esta valoración es generar conocimiento para diferentes dominios a partir del modelo conceptual, la información almacenada en el sistema sirve para la generación de recomendaciones a partir de un Sistema de Recomendación. Por último, se presentan las conclusiones extraídas de la etapa verificación y análisis de los resultados que permiten comprobar la validez del modelo y las herramientas propuestas para ésta investigación. 8. – Documentación. A lo largo de todo el proceso de elaboración de la tesis se ha generado la documentación que constituye la presente tesis doctoral. Las conclusiones del modelo conceptual multi-dominio abre nuevas posibilidades en el área de la Web semántica, Sistemas Basados en Conocimiento y los modelos formales semánticos pertenecientes al área de la Inteligencia Artificial, específicamente en la concepción y desarrollo de un nuevo modelo conceptual multi-dominio. Además, a partir del modelado de técnicas multi-dominio facilita la búsqueda de soliviones en la información, la toma de decisiones y el empleo de conocimiento especializado en diferentes dominios de aplicación de contenido estructurado y semántico, a su vez, generando información relevante sobre los gustos, necesidades y preferencias de los usuarios permitiendo generar recomendaciones a partir de un Sistema de Recomendación.Gracias al Consejo Nacional de Ciencia y Tecnología (CONACYT) y la Secretaría de Educación Pública (SEP) a través de PROMEP por conceder los recursos económicos para la realización de esta investigación. Asimismo, al proyecto "FLORA: Financial Linked Open Data-based Reasoning and Management for Web Science". (TIN2011-27405).Programa Oficial de Doctorado en Ciencia y Tecnología InformáticaPresidente: Antonio Bibiloni Coll.- Secretario: María Belén Ruiz Mezcua.- Vocal: Giner Alor Hernánde

    Interconnected Services for Time-Series Data Management in Smart Manufacturing Scenarios

    Get PDF
    xvii, 218 p.The rise of Smart Manufacturing, together with the strategic initiatives carried out worldwide, have promoted its adoption among manufacturers who are increasingly interested in boosting data-driven applications for different purposes, such as product quality control, predictive maintenance of equipment, etc. However, the adoption of these approaches faces diverse technological challenges with regard to the data-related technologies supporting the manufacturing data life-cycle. The main contributions of this dissertation focus on two specific challenges related to the early stages of the manufacturing data life-cycle: an optimized storage of the massive amounts of data captured during the production processes and an efficient pre-processing of them. The first contribution consists in the design and development of a system that facilitates the pre-processing task of the captured time-series data through an automatized approach that helps in the selection of the most adequate pre-processing techniques to apply to each data type. The second contribution is the design and development of a three-level hierarchical architecture for time-series data storage on cloud environments that helps to manage and reduce the required data storage resources (and consequently its associated costs). Moreover, with regard to the later stages, a thirdcontribution is proposed, that leverages advanced data analytics to build an alarm prediction system that allows to conduct a predictive maintenance of equipment by anticipating the activation of different types of alarms that can be produced on a real Smart Manufacturing scenario

    Evaluation of optimal solutions in multicriteria models for intelligent decision support

    Get PDF
    La memoria se enmarca dentro de la optimización y su uso para la toma de decisiones. La secuencia lógica ha sido la modelación, implementación, resolución y validación que conducen a una decisión. Para esto, hemos utilizado herramientas del análisis multicrerio, optimización multiobjetivo y técnicas de inteligencia artificial. El trabajo se ha estructurado en dos partes (divididas en tres capítulos cada una) que se corresponden con la parte teórica y con la parte experimental. En la primera parte se analiza el contexto del campo de estudio con un análisis del marco histórico y posteriormente se dedica un capítulo a la optimización multicriterio en el se recogen modelos conocidos, junto con aportaciones originales de este trabajo. En el tercer capítulo, dedicado a la inteligencia artificial, se presentan los fundamentos del aprendizaje estadístico , las técnicas de aprendizaje automático y de aprendizaje profundo necesarias para las aportaciones en la segunda parte. La segunda parte contiene siete casos reales a los que se han aplicado las técnicas descritas. En el primer capítulo se estudian dos casos: el rendimiento académico de los estudiantes de la Universidad Industrial de Santander (Colombia) y un sistema objetivo para la asignación del premio MVP en la NBA. En el siguiente capítulo se utilizan técnicas de inteligencia artificial a la similitud musical (detección de plagios en Youtube), la predicción del precio de cierre de una empresa en el mercado bursátil de Nueva York y la clasificación automática de señales espaciales acústicas en entornos envolventes. En el último capítulo a la potencia de la inteligencia artificial se le incorporan técnicas de análisis multicriterio para detectar el fracaso escolar universitario de manera precoz (en la Universidad Industrial de Santander) y, para establecer un ranking de modelos de inteligencia artificial de se recurre a métodos multicriterio. Para acabar la memoria, a pesar de que cada capítulo contiene una conclusión parcial, en el capítulo 8 se recogen las principales conclusiones de toda la memoria y una bibliografía bastante exhaustiva de los temas tratados. Además, el trabajo concluye con tres apéndices que contienen los programas y herramientas, que a pesar de ser útiles para la comprensión de la memoria, se ha preferido poner por separado para que los capítulos resulten más fluidos
    corecore