22 research outputs found
Marco de Descubrimiento de Conocimiento para Datos Estructuralmente Complejos con Énfasis en el Análisis de Eventos en Series Temporales
El proceso de Descubrimiento de Conocimiento en Bases de Datos (mas conocido por su nombre en ingles, Knowledge Discovery in Databases) es el proceso de extracción de conocimiento util, implícito y previamente desconocido a partir de grandes volúmenes de datos. Dicho proceso se compone de diferentes etapas entre las que cabe destacar la etapa de Data Mining, en la que se analizan los datos y se extrae conocimiento util de ellos haciendo uso de un conjunto de algoritmos. Data Mining ofrece una gran variedad de técnicas para resolver diferentes tipos de problemas. En los últimos anos, dichas técnicas han sido empleadas en multitud de dominios en los que el análisis se ha centrado en individuos cuya informacion se representa habitualmente mediante una tabla de atributos univaluados de tipo entero, real o enumerado. Sin embargo, existen muchos dominios en los que cada individuo no se representa mediante una simple tabla de atributos sino mediante un conjunto de datos con estructura más compleja, incluyendo tanto atributos univaluados como series temporales. El análisis de esos datos requiere nuevos enfoques. En esta Tesis se ha propuesto un marco de trabajo para el descubrimiento de conocimiento útil a partir de datos estructuralmente complejos, que pueden contener tanto series temporales como datos univaluados. Dicho marco consta de herramientas para la modelización conceptual, comparación y obtención de modelos de referencia a partir de esos datos. En particular, se han propuesto algoritmos para el análisis de series temporales en las que la informacion relevante de las mismas se concentra solo en aquellas regiones que se corresponden con eventos de interés para los expertos de cada dominio. El marco de extracción de conocimiento propuesto ha sido probado sobre datos estructuralmente complejos procedentes de dos áreas medicas: la Estabilometria, una disciplina que estudia el equilibrio de los seres humanos, y la Neurología, un área medica que estudia las enfermedades del sistema nervioso y los músculos. La obtencion de resultados satisfactorios en dominios tan complejos y diferentes entre si confirma la generalidad del marco propuesto. Abstract The analysis of large volumes of data with the aim of extracting interesting knowledge is an important challenge in the area of Computer Science. The extraction of useful, implicit and previously unknown knowledge from large amount of data is a process called Knowledge Discovery in Databases. Data Mining is a stage of that process in which data are analysed and useful knowledge is extracted by using a set of techniques and tools. Nowadays there is a great variety of Data Mining techniques that can be used to solve different kinds of problems. Over the last decades, these techniques have been applied on a great number of domains, where each object under analysis is represented by a number of attributes of type integer, float or enumerated. Nevertheless, there are a growing number of domains where data have a more complex structure and, therefore, new approaches are needed. In those domains, each object under analysis might not be represented by a number of attributes but by a complex set of data, which makes the analysis much more difficult. Moreover, those data might not have a trivial type but a complex structure such as time series, which are series of data recorded in a period of time. In this Thesis, we have proposed a framework for extracting useful knowledge from a set of structurally complex data. This framework provides with tools for data conceptual modelling and, at the same time, proposes a set of techniques for the analysis of structurally complex data with a hierarchical organization. Particularly, we have proposed algorithms for the analysis of time series where the relevant information is concentrated in certain regions of interest for the experts in each domain, known as events. The proposed framework has been tested on data from the medical domain obtaining very satisfactory results. The presented techniques have been applied on structurally complex data from the field of Stabilometry, an area of medicine studying balance-related functionalities in human beings, and Neurology, a branch of medicine studying pathologies linked to nervous system and muscles. The good results obtained in both cases confirm the validity of the framework described in this Thesis
Modelo para la comparación de datos posturográficos estructuralmente complejos
Esta Tesis tiene por finalidad desarrollar todo un Marco de Trabajo (modelos de datos, algoritmos, etc.) que permita la extracción de conocimiento útil a partir de datos estructuralmente complejos, mediante el uso de técnicas de Data Mining. Dicho conocimiento será utilizado para la toma de decisiones en el entorno de estos datos. Para diseñar, desarrollar y validar el modelo se utilizarán datos de un entorno médico, concretamente datos recogidos con un Posturógrafo, que es un sistema de valoración muscular que permite medir diversos aspectos relacionados con el equilibrio y la coordinación psicomotriz. En concreto se ha empleado el dispositivo denominado Balance Master, de la compañía Neurocom.
Los datos procedentes de las pruebas posturográficas están formados por series temporales multidimensionales en conjunción con otros atributos univaluados.
En este trabajo se van a abordar dos problemas: el primero consiste en encontrar un modelo o una estructura que permita representar y, por tanto, almacenar los datos; el segundo es la comparación entre dos conjuntos de datos complejos, algo que no es un problema trivial. De hecho, la comparación entre datos es un problema fundamental, que se considera la base a la hora de resolver otros muchos, como el de encontrar patrones que se repiten en dos o más conjuntos de datos.
En primer lugar, se ha creado un modelo de datos y una base de datos capaz de almacenar toda la información necesaria. Con esto, se ha resuelto el primero de los problemas descritos. En segundo lugar, se ha planteado toda una arquitectura para resolver el problema de la comparación entre conjuntos de datos complejos, así como los algoritmos que es necesario ejecutar para hacer posible dicho proceso de comparación. Dicha arquitectura y dichos algoritmos son lo suficientemente genéricos como para poder ser empleados, no solo en el dominio de la posturografía, sino en muchos otros de características similares.
La técnica aquí descrita se basa en la comparación, tanto de las series temporales como de los atributos univaluados, de dos pruebas posturográficas. De especial interés resulta el algoritmo empleado para comparar series temporales, que se basa en el análisis de los eventos de dichas series temporales. Los eventos son zonas de especial interés en las series temporales; en sismografía, por ejemplo, los eventos se localizan en aquellos momentos de las series temporales que recogen un seísmo, la actividad volcánica previa al mismo o las réplicas. En el algoritmo planteado, se propone una comparación entre los eventos de dos series temporales, mediante la realización de un proceso de clustering de dichos eventos. Una vez realizado este proceso de clustering y obtenidos los eventos comunes, se propone una medida de similaridad entre las series, de forma que serán más similares cuanto mayor sea el número de eventos parecidos que éstas tengan en común.
Se ha desarrollado un sistema software que implementa el método descrito en esta Tesis, para cuya evaluación se ha contando con el apoyo del Consejo Superior de Deportes, una institución adscrita al Ministerio de Educación y Ciencia, encargada de coordinar las actividades deportivas en España. Dicha institución ha facilitado para este estudio series temporales de deportistas de élite de diferente sexo, edad y disciplina deportiva. Se ha contado con un experto de dicha institución para validar los resultados generados al ejecutar el método planteado.
La evaluación ha consistido en la realización de comparaciones entre cada par de pruebas posturográficas. Tras evaluar el sistema, los resultados obtenidos han sido muy satisfactorios, tanto para el equipo de investigación como para los expertos, que han mostrado su interés en seguir cooperando en este campo
Generating time series reference models based on event analysis
Creating a reference model that represents a given set of time series is a relevant problem as it can be applied to a wide range of tasks like diagnosis, decision support, fraud detection, etc. In some domains, like seismography or medicine, the relevant information contained in the time series is concentrated in short periods of time called events. In this paper, we propose a technique for generating time series reference models based on the analysis of the events they contain. The proposed technique has been applied to time series from two medical domains: Electroencephalography, a neurological procedure to record the electrical activity produced by the brain and Stabilometry, a branch of medicine studying balance-related functions in human beings
Two Different Approaches of Feature Extraction for Classifying the EEG Signals
The electroencephalograph (EEG) signal is one of the most widely used signals in the biomedicine field due to its rich information about human tasks. This research study describes a new approach based on i) build reference models from a set of time series, based on the analysis of the events that they contain, is suitable for domains where the relevant information is concentrated in specific regions of the time series, known as events. In order to deal with events, each event is characterized by a set of attributes. ii) Discrete wavelet transform to the EEG data in order to extract temporal information in the form of changes in the frequency domain over time- that is they are able to extract non-stationary signals embedded in the noisy background of the human brain.
The performance of the model was evaluated in terms of training performance and classification accuracies and the results confirmed that the proposed scheme has potential in classifying the EEG signals
Modelling Stabilometric Time Series
Stabilometry is a branch of medicine that studies balance-related human functions. Stabilometric systems generate time series. The analysis of these time series using data mining techniques can be very useful for domain experts. In the field of stabilometry, as in many other domains, the key nuggets of information in a time series are concentrated within definite time periods known as events. In this paper, we propose a technique for creating reference models for stabilometric time series based on event analysis. After testing the technique on time series recorded by top-competition sportspeople, we conclude that stabilometric models can be used to classify individuals by their balance-related abilitie
Análisis de actividad de un servicio de teleasistencia social mediante Big Data y Data Mining
In the current moment that we are living now, the use of Big Data is taken a strength and a very important relevance. The biggest companies of social sector and service sector are using Big Data technologies that allow to store and treat all the information that they have of users and, in a second way, the incorporation of the knowledge of the treatment of this information in the life of the users, in the way of improve the services offered and go to the next step in the relationship of customer/company.
In telecare, with the IP technology in Telecare Unit, the communication between the unit and control centre will be done using internet instead of telephony cable. The companies will start to use these technologies to store all the information that the unit will send to the control center. With all this information, the companies will be able to discover patterns of user’s behavior, detect some illnesses like, for example, alzheimer. The most important action that the companies will be able to have is to have more information related to the situation of all devices and sensors installed in user’s home when the emergency alarm is raised.La utilización de Big Data en el momento tecnológico en el que nos encontramos está adquiriendo una gran fuerza e importancia. En las grandes empresas existentes en los principales sectores sociales y de servicios ya han sido implantados sistemas de Big Data que permiten almacenar y tratar toda la información que poseen e incorporarla al día a día de sus clientes y mercados para mejorar los servicios ofrecidos y dar un paso más allá en la relación cliente/empresa.En teleasistencia, con la llegada de tecnologías IP a los terminales domiciliarios, la comunicación que realizan con la central tendrá lugar a través de internet en lugar de línea de teléfono. Esto permitirá que se empiecen a utilizar sistemas de Big Data debido al incremento de información que se envía desde el terminal al centro de atención. Con el volumen de información que se espera recibir, se podrán descubrir patrones de comportamiento de los usuarios, detectar enfermedades, como, por ejemplo, el alzhéimer, pero, sobre todo, se podrá recibir una información más detallada del estado de todos los dispositivos y sensores instalados en la vivienda del usuario en el momento en el que se produce una llamada de emergencia
Aproximación basada en Blockchain para crear un modelo de confianza en la enseñanza superior abierta y ubicua
Bitcoin has revolutionised digital transactions and the global economy. It advocates a decentralised model of confidence for transactions based on a crypto currency. Thousands of followers defend its decentralisation, independence, security and versatility. Its detractors call it a speculative bubble, a way to encourage cybercrime or pseudo pyramid schemes, as well as being built around a non-scalable and inefficient technology. But what if it were possible to take advantage of the benefits of the technology underlying Bitcoin, Blockchain, to revolutionise higher education and its adaptation to today's working world? What if rather than economic transactions it were used to manage transactions of content, teaching and competencies, assessed by consensus by students, trainers and employers, in order to eliminate once and for all the gap between the academic world and the working world? This paper presents a model based on Blockchain to address the current challenges of an increasingly dispersed, open and ubiquitous higher education. The proposed model can be implemented in any training institution to adapt its teaching to the specific needs of professional profiles validated by employers in the sector. This model has been validated by means of a prototype with more than acceptable results.Este trabajo ha obtenido un Accésit del Premio Estudios Financieros 2018 en la modalidad de Educación y Nuevas Tecnologías.
Bitcoin ha supuesto una revolución en las transacciones digitales y en la economía mundial. Propone un modelo descentralizado de confianza para realizar transacciones basadas en una criptomoneda. Miles de seguidores defienden su descentralización e independencia, su seguridad y versatilidad. Sus detractores lo tachan de burbuja especulativa, de medio para fomentar la ciberdelincuencia o de pseudotimo piramidal, además de construirse en torno a una tecnología no escalable e ineficiente. Pero ¿y si fuera posible aprovechar las bondades del Blockchain, la tecnología subyacente a Bitcoin, para revolucionar las enseñanzas superiores y su adecuación al mundo laboral actual? ¿Y si en lugar de transacciones económicas se gestionan transacciones de contenidos, enseñanzas y competencias, evaluadas por consenso por estudiantes, formadores y empleadores para eliminar de una vez por todas el gap entre el mundo académico y el laboral? En este trabajo se presenta un modelo basado en Blockchain para resolver los retos actuales de la educación superior, cada vez más dispersa, abierta y ubicua. El modelo propuesto puede implantarse en cualquier entidad formadora para adecuar sus enseñanzas a las necesidades concretas de perfiles profesionales validados por empleadores del sector. Se ha validado dicho modelo por medio de un prototipo con resultados más que aceptables
A Language for Defining Events in Multi-Dimensional Time Series: Application to a Medical Domain
In many domains, like seismography or medicine, time series analysis focuses on particular regions of interest in the time series, known as events, whereas the remainder of the times series contains hardly any useful information. Research into the field of time series events definition has proposed techniques that are only applicable to specific domains. In this paper, we propose an events definition language that is general enough to be able to simply and naturally define time series events in any domain. The proposed language has been applied to the definition of time series events generated by stabile metric systems within the branch of medicine dealing with balance related functions in human beings
Comparing Time Series Through Event Clusterin
The comparison of two time series and the extraction of subsequences that are common to the two is a complex data mining problem. Many existing techniques, like the Discrete Fourier Transform (DFT), offer solutions for comparing two whole time series. Often, however, the important thing is to analyse certain regions, known as events, rather than the whole times series. This applies to domains like the stock market, seismography or medicine. In this paper, we propose a method for comparing two time series by analysing the events present in the two. The proposed method is applied to time series generated by stabilometric and posture graphic systems within a branch of medicine studying balance-related functions in human beings
Frameworks para la gestión, el almacenamiento y la preparación de grandes volúmenes de datos Big Data
Weather systems like the World Meteorological Organization´s Global Information System need to store different kinds of images, data and files. Big Data and its 3V paradigm can provide a suitable solution to solve this problem. This tutorial presents some concepts around the Hadoop framework, de facto standard implementation of Big Data, and how to store semi-estructured data generated by automatic weather stations using this framework. Finally, a formal method to generate weather reports using Hadoop´s ecosystem frameworks is presented.Los sistemas meteorológicos, como es el Sistema Mundial de Información Global de la Organización Meteorológica Mundial, necesitan almacenar diferentes tipos de imágenes, datos y archivos. Big Data y su modelo 3V puede proporcionar una solución adecuada para resolver este problema. Este tutorial presenta algunos conceptos en torno al framework Hadoop, la implementación y estándar de facto de Big Data, y la forma de almacenar los datos semiestructurados generados por las estaciones meteorológicas automáticas usando este framework. Finalmente, se presenta un método formal para generar informes del tiempo utilizando los frameworks que conforman el ecosistema de Hadoop