146 research outputs found

    OntoFoCE and ObE Forensics. Email-traceability supporting tools for digital forensics

    Get PDF
    This paper shows the research conducted to respond to a continuous requirement of justice regarding the application of scientifically supported forensic tools. Considering ontological engineering as the appropriate framework to respond to this requirement, the article presents OntoFoCE (Spanish abbreviation for Ontology for Electronic Mail Forensics), a specific ontology for the forensic analysis of emails. The purpose of this ontology is to help the computer expert in the validation of an email presented as judicial evidence. OntoFoCE is the fundamental component of the ObE Forensics (Ontology-based Email Forensics) tool. Although there are numerous forensic tools to analyze emails, the originality of the one proposed here lies in the implementation of semantic technologies to represent the traceability of the email transmission process. From that point on, it is possible to provide answers to the items of digital evidence subject to the expert examination. These answers make it possible to support these evidence items in the forensic analysis of an email and to guarantee the gathering of scientifically and technically accepted results that are valid for justice. Thus, the research question that is tried to be answered is: Is it possible to apply ontological engineering as a scientific support to design and develop a forensic tool that allows automatic answers to the evidence items subject to the expert examination in the forensic analysis of emails?&nbsp

    Combinación de clustering, selección de atributos y métodos ontológicos para la clasificación semántica de texto

    Get PDF
    Con el aumento exponencial en la cantidad de datos textuales disponibles en Internet desde fuentes diversas como redes sociales, blogs/foros, sitios web, correos electrónicos, bibliotecas en línea, etc., se ha hecho necesaria la utilización de la Inteligencia Artificial en plataformas digitales, como la aplicación de métodos de aprendizaje profundo y de reconocimiento de patrones, para que esta información pueda ser aprovechada por todo tipo de modelos de negocios, estudios de mercado, planes de marketing, campañas políticas o toma de decisiones estratégicas entre otros, con la finalidad de hacer frente a la competencia y dar respuesta de manera eficiente. El objetivo de esta tesis doctoral fue desarrollar un modelo que combina clustering, selección de atributos y métodos ontológicos para la clasificación semántica de texto, que permita estructurar una metodología aplicable en conjuntos de datos textuales y así mejorar la clasificación automática de texto. El modelo propuesto en esta tesis doctoral se realizó siguiendo los siguientes objetivos específicos: redactar el estado del arte relacionado con la temática estudiada; conformación de un conjunto de datos textuales lo suficientemente extenso para la aplicación de las diferentes técnicas de análisis de datos; desarrollo de una metodología para la clasificación semántica de datos textuales y evaluación de los resultados obtenidos. La metodología consistió de 9 etapas, las 5 primeras (preprocesamiento, clustering, se- lección de atributos, clasificación y test estadístico. Posteriormente 4 etapas adicionales correspondientes análisis ontológico (validación del clúster, análisis semántico, interpretación y representación de relaciones). Se pudo determinar que haciendo SToWVector junto con selección de atributos mediante el wrapper MOES (estrategia de búsqueda) y NaiveBayesMultinomial (evaluador) con ACC (métrica), se obtienen mejores resultados con el clasificador NaiveBayesMultinomial que con otros métodos de clasificación evaluados. Además el método de búsqueda ENORA ha sido utilizado y evaluado demostrando ser un método eficaz para la selección de atributos en datos textuales. De igual manera se pudo dar significado a los dos clústeres obtenidos, logrando identificar un concepto para cada clúster. Clúster 1: UE-G20-G77-MEC y clúster 2: Resto del mundo. Ello permitió establecer una relación directa entre los clústers.With the exponential increase in the amount of textual data available on the Internet from various sources such as: social networks, blogs/forums, websites, emails, online libraries, etc. It has made necessary the use of artificial intelligence in digital platforms, the application of parallel processing, deep learning and pattern recognition so that this information can be used by all kinds of models business, market research, marketing plans, political campaigns or making strategic decisions among others, in order to deal with competition and respond efficiently. This doctoral thesis is focused on developing a model that allows combine clustering, attribute selection and ontological methods for the semantic classification of text, which allows tructuring an applicable methodology in textual data sets to improve the automatic classification of text. The model proposed in this doctoral thesis is carried out following the following specific objectives: draft the status of the art related to the theme studied, conformation of a set of textual data extensive enough for the application of different data analysis techniques, development of a methodology for the semantic classification of textual data and evaluation of the results obtained. The methodology consisted of 9 stages, the first 5 (preprocessing, clustering, attribute selection, classification, and statistical test. Finally, 4 additional stages corresponding to ontological analysis (cluster validation, semantic analysis, interpretation, and relationship representation). Could determine that by doing SToWVector together with feature selection using the MOES wrapper (search strategy) and NaiveBayesMultinomial (evaluator) with ACC (metric), better results are obtained with the NaiveBayesMultinomial classifier than with other classification methods evaluated, in addition, the ENORA search method has been used and evaluated, proving to be an effective method for the selection of attributes in text data. In the same way, it was possible to give meaning to the two clusters obtained, managing to identify a concept for each cluster. Cluster 1: EU−G20−G77−MEC and cluster 2: Rest of the world. This allowed us to establish a direct relationship between the clusters

    Trazabilidad de los alumnos de Educación Media Superior como complemento a la permanencia escolar, aplicando tecnologías semánticas en el CBTis No. 47

    Get PDF
    Una de las principales problemáticas en Educación Media Superior (EMS) es el alto índice de abandono escolar, existiendo estrategias para atenderla como el Sistema Nacional de Tutorías Académicas (SINaTA), apoyos económicos gubernamentales como “Becas Benito Juárez”, así mismo los subsistemas de EMS hacen uso de diferentes sistemas de información cuantitativos que hacen mediciones en periodos semestrales o anuales sobre diversos indicadores escolares como: aprobación, abandono escolar, eficiencia terminal, entre otros calculados al término de ciclos escolares, inicio o fin de cursos sin detección preventiva de alumnos en riesgo durante sus periodos parciales, por lo que el objetivo de este estudio consiste en crear un modelo mediante tecnologías semánticas (methontology apache jena, apache jena fuseki, arc2, sparql, protégé) que permita establecer una ontología educativa que unifique la comunicación entre instituciones de EMS y permita la trazabilidad de alumnos durante sus estudios d EMS, que contenga datos elementales que conforman la calificación de un alumno y permitan detectar situaciones en riesgo de reprobación previa a la aplicación de evaluaciones parciales, fomentando así la permanencia escolar y conservar el histórico de su trayectoria escolar mediante el registro de eventos como: asistencias, seguimiento de casos, monitoreo de productos (aplicando objetos de aprendizaje) y calificaciones

    Desarrollo de un modelo ontológico para la integración de datos de una unidad de climatización en un edificio inteligente

    Get PDF
    El crecimiento de las tecnologías de IoT aplicadas en todo tipo de situaciones y procesos de la vida cotidiana ha incrementado la cantidad de datos que generamos y almacenamos. Englobar los sensores que conforman estructuras para su gestión eficiente, como puede ser un edificio inteligente (Smart Building), e integrar este desarrollo en las agendas de los gobiernos para crear las llamadas ciudades inteligentes (Smart Cities) ha implicado a multitud de organizaciones públicas y privadas. Esta escalada de datos ha generado múltiples paradigmas y formatos dependientes de cada impulsor del proyecto. Por otro lado, el paradigma energético actual y la crisis climática, hacen que la eficiencia energética y la reducción de emisiones de CO2 aumenten de escala en un esfuerzo por aumentar la eficiencia. Organismos oficiales como la Unión Europea han creado comités y estándares para abordar el problema. El análisis energético del consumo de un edificio, expone que el mayor porcentaje de uso se dedica a la climatización, superando incluso cuotas del 40% sobre el total. Una mala gestión de los múltiples sistemas implicados genera costes energéticos y mayores emisiones de CO2 , por lo que son de gran interés los datos que puede proporcionar un Smart Building a la hora de realizar estudios sobre gestión eficiente. El objetivo de este Trabajo Fin de Grado es valorar la adaptación de un entorno de procesamiento de datos IoT basado en datos tabulados, a las tecnologías de procesamiento de información basadas en el uso de ontologías. El uso de ontologías garantiza la independencia entre los datos y su formato (representación sintáctica) mediante el uso de una semántica común compartida con una amplia comunidad. Esto permite una fácil compatibilidad e integración entre plataformas o programas externos que posibilita, entre otras cosas, interactuar con nuevos elementos ajenos al dominio inicial. Otra ventaja la encontramos en la posibilidad que ofrece esta tecnología para obtener nuevo conocimiento aplicando inferencia sobre los datos, lo que amplía la capacidad de actuación del sistema frente a los tratamientos tradicionales sobre datos tabulados. La fuente de datos tomados como referencia para el proceso de adaptación pertenecen a la AHU101 (Unidad de Climatización número 101) del Alice Perry Engineering Building situado en Galway, Irlanda. Se fundamentará y analizará el estándar ISO SAREF (la ontología Smart Applications REFerence), su variante para Smart Building (SAREF4BLDN) y otros estándares relacionados como OWL-Time. Se modelizarán y describirán mediante el estándar OWL (variante OWL2-DL) y se comprobará su validez para obtener consultas y estadísticas descriptivas básicas mediante entornos gráficos.The boosting of IoT technologies applied to all kinds of issues and processes in regular life has increased the data amount generated and stored. Involving sensors that conform structures, like a building, for example, working out its efficient management (Smart Building), and leading it into the government agendas to develop Smart Cities has implicated multitude organizations, public and private. This increasing amount of data has generated different paradigms and formats depending on the developer's approach. On the other hand, the current energy paradigm and the climate crisis make energy efficiency and CO2 emission reductions scale up in an effort to increase efficiency. Official organizations, like the European Union, have developed committees and standards to deal with the problem. The energy analysis of the consumption of a building show that the main percentage is dedicated to air conditioning, even exceeding 40% of the prices as a whole. Poor management of the multiple systems involved generates unnecessary energy costs and CO2 emissions, thus the data extracted from Smart Building can provide us with a lot to carry out efficient management studies. This Final Degree Project’s focus is to assess the fitting of an IoT data processing environment based on tabular data in to information processing technologies based on ontologies. Ontologies guarantees data independence from formats (syntactic representation) through a common semantic lay which shared with other knowledge areas, this causes integration and extends compatibility between platforms or external applications to allow, for example, interacting with new elements out from the initial domain. Another advantage is, in the possibility offered by this technology, to obtain new knowledge by applying data inference, this fact expands the system's capacity in comparation to traditional treatments of tabulated data The data source in reference for the process belongs to AHU101 (Air Conditioning Unit No. 101) located in Alice Perry Engineering Building located in Galway, Ireland. The ISO SAREF standard (the Smart Applications REFerence ontology), its variant for Smart Building (SAREF4BLDN) and other related standards such as OWLTime will be argued and analyzed. Data source will be modeled and described using the OWL standard (OWL2-DL variant) and checked its viability in order to obtain statistical analyzes using graphic environments.Departamento de Informática (Arquitectura y Tecnología de Computadores, Ciencias de la Computación e Inteligencia Artificial, Lenguajes y Sistemas Informáticos)Grado en Ingeniería Informátic

    Process Productivity Improvements through Semantic and Linked Data Technologies

    Get PDF
    Programa de Doctorado en Ciencia y Tecnología Informática por la Universidad Carlos III de MadridPresidente: José María Álvarez Rodríguez.- Secretario: Rafael Valencia García.- Vocal: Alejandro Rodríguez Gonzále

    Visualización del contenido de grafos de conocimiento del patrimonio cultural

    Get PDF
    Esta tesis integra dos áreas científicas, la de las Ciencias Humanas y la de Ciencia y Tecnología. Dentro de las Ciencias Humanas está relacionada con la semantización y visualización de la información de datos del Patrimonio. En cuanto a la Ciencia y Tecnología, este trabajo está relacionado con grafos de conocimiento, diseño de ontologías y la visualización interactiva en tiempo real de datos en dos y tres dimensiones, mediante plataformas web. Tal y como se expone en esta tesis, en la última década ha crecido enormemente la digitalización de los objetos del patrimonio cultural. Este proceso, no se refiere únicamente a digitalizar mediante imágenes, reconocimiento de texto, o modelos 3D, de este tipo de objetos. También comprende el mantenimiento de toda la información posible relacionada con los objetos, su publicación y relación con otras entidades (personas, hechos, materiales, etc.) y la accesibilidad de los mismos a otras personas y/o sistemas informáticos. Por ello, muchos de los datos de objetos son soportados por grafos de conocimiento, que implementan modelos que representan este tipo de información. A pesar de que hay mucha información soportada en diferentes grafos de conocimiento, queda mucho que hacer en este proceso de digitalización del patrimonio. En la actualidad todavía existen grandes cantidades de objetos que aún no están digitalizados. Además, muchos de los datos informatizados no están disponibles públicamente, y usan medios propietarios para representar la información, lo que dificulta su acceso y tratamiento. Debido a que muchos trabajos de investigación se han desarrollado de forma paralela, y/o se han enfocado en las particularidades del mismo, se han digitalizado, y en ocasiones creado desde cero, todo tipo de vocabularios para manejar la información de tipologías, materiales, técnicas, épocas, ubicaciones, etc., relacionado con estos objetos, muchos de ellos con información duplicada. Además, el modelo más utilizado para representar este tipo de datos es el CIDOC-CRM, aún necesita mayor definición para representar algunos procesos importantes relacionados con estos objetos, y tiene una complejidad excesiva. Por estos motivos, existen otros modelos alternativos que también se están utilizando. Debido también a la rapidez de este proceso de digitalización, se ha manifestado en esta década la necesidad de visualizar grandes cantidades de información, mediante plataformas web, que permitan visualizar los datos y relaciones de estos objetos, así como su fluctuación a nivel temporal y espacial. Esta necesidad ha generado el desarrollo de varios proyectos, que generalmente la han resuelto de forma concreta, orientándose al contexto del proyecto. Además, los desarrollos de estos proyectos, no suelen ser abiertos, ni reutilizables por otros sistemas. En estos trabajos existen áreas de trabajo que han sido abordadas con poca profundidad, como la visualización de la fluctuación del tiempo de forma simultánea y la visualización de relaciones entre los objetos. Las dificultades relacionadas con el tiempo y el espacio se hacen mayores en los objetos del Patrimonio Cultural. Esto es debido a que en este campo es muy habitual que exista incerteza en la datación de los hechos relacionados con los datos (creación de los objetos, hechos históricos, etc.), al igual que con el lugar en que acontecieron. Es muy normal que existan objetos que se asocie su creación a diferentes regiones, incluso continentes, además de estar datados en diferentes momentos del tiempo, en ocasiones con varios siglos de diferencia. Tras descubrir la problemática existente, la presente tesis tiene como objetivo principal, la definición de un modelo de visualización de datos de patrimonio cultural que estén soportados por un grafo de conocimiento, y una ontología que lo represente, para diseñar y desarrollar un sistema de visualización interactivo web, basado en el contenido de esta ontología. Para alcanzar este objetivo se ha realizado una serie de tareas y obtenido algunos resultados fruto de éstas: - Revisión del estado del arte en varios campos relacionados con las áreas de investigación que se integran en este trabajo. Por una parte, la representación de datos de patrimonio cultural mediante grafos de conocimiento, por otra parte, analizar las técnicas de visualización de datos, especialmente en datos donde el espacio y el tiempo son variables clave. También se han analizado diferentes proyectos de visualización de datos de patrimonio cultural sobre plataformas web. Además, también se ha investigado la definición formal de la visualización de datos mediante ontologías. Por último, se han estudiado y expuesto en el trabajo diferentes herramientas para la gestión de grafos de conocimiento, así como de visualización de datos en dos y tres dimensiones en tiempo real sobre páginas web. - En base a los estudios realizados en el estado del arte, se han expuesto los aspectos necesarios para definir los conceptos de un modelo que defina la visualización de datos de objetos de patrimonio cultural soportados por grafos de conocimiento. - Se ha diseñado una ontología denominada STEVO para representar el modelo de visualización diseñado. Para el proceso de diseño se ha seguido la metodología METHONTOLOGY. - Se ha diseñado la arquitectura de un marco de trabajo capaz de procesar el contenido de la ontología STEVO y poder representar el contenido del dominio de datos, de acorde a lo especificado en STEVO. - Se ha desarrollado una propuesta de implementación del marco de trabajo, mediante tecnología JavaScript y Unity3D. La propuesta de implementación ha sido integrada en dos proyectos de investigación: SILKNOW y Arxiu Valencià del Dissseny, cuyos resultados se han expuesto de forma detallada en esta memoria. Finalmente, la implementación ha sido evaluada en el proyecto SILKNOW, primero mediante una evaluación de usabilidad, mediante la escala SUS, y también con diferentes pruebas de carga sobre los resultados del proyecto SILKNOW. Los resultados de dichas evaluaciones se han descrito detalladamente en esta investigación

    A semantic Bayesian network for automated share evaluation on the JSE

    Get PDF
    Advances in information technology have presented the potential to automate investment decision making processes. This will alleviate the need for manual analysis and reduce the subjective nature of investment decision making. However, there are different investment approaches and perspectives for investing which makes acquiring and representing expert knowledge for share evaluation challenging. Current decision models often do not reflect the real investment decision making process used by the broader investment community or may not be well-grounded in established investment theory. This research investigates the efficacy of using ontologies and Bayesian networks for automating share evaluation on the JSE. The knowledge acquired from an analysis of the investment domain and the decision-making process for a value investing approach was represented in an ontology. A Bayesian network was constructed based on the concepts outlined in the ontology for automatic share evaluation. The Bayesian network allows decision makers to predict future share performance and provides an investment recommendation for a specific share. The decision model was designed, refined and evaluated through an analysis of the literature on value investing theory and consultation with expert investment professionals. The performance of the decision model was validated through back testing and measured using return and risk-adjusted return measures. The model was found to provide superior returns and risk-adjusted returns for the evaluation period from 2012 to 2018 when compared to selected benchmark indices of the JSE. The result is a concrete share evaluation model grounded in investing theory and validated by investment experts that may be employed, with small modifications, in the field of value investing to identify shares with a higher probability of positive risk-adjusted returns

    Efficient Decision Support Systems

    Get PDF
    This series is directed to diverse managerial professionals who are leading the transformation of individual domains by using expert information and domain knowledge to drive decision support systems (DSSs). The series offers a broad range of subjects addressed in specific areas such as health care, business management, banking, agriculture, environmental improvement, natural resource and spatial management, aviation administration, and hybrid applications of information technology aimed to interdisciplinary issues. This book series is composed of three volumes: Volume 1 consists of general concepts and methodology of DSSs; Volume 2 consists of applications of DSSs in the biomedical domain; Volume 3 consists of hybrid applications of DSSs in multidisciplinary domains. The book is shaped upon decision support strategies in the new infrastructure that assists the readers in full use of the creative technology to manipulate input data and to transform information into useful decisions for decision makers
    corecore