9,217 research outputs found

    El artículo científico en inglés : aspectos teórico-descriptivos, pedagógicos y computacionales de una modelización sistémico-funcional

    Get PDF
    Este libro da cuenta de estudios realizados entre 1999 y 2008 en el marco del proyecto “RedACTe: Modelización contextual y lingüística del artículo de investigación, y desarrollo de un sistema de escritura asistida" (Fases I-V: UNCuyo y CONICET)

    Ontogeneration: Arquitectura basada en ontologías para la generación de textos en castellano

    Get PDF
    En este trabajo se presenta Ontogeneration, una arquitectura para generar textos en castellano utilizando ontologías lingüísticas y de dominio con la tecnología KPML de generación de lenguaje natural. Además se ha construido un sistema que genera textos en castellano en el dominio de las sustancias químicas. Para alcanzar tales resultados, se han seguido los siguientes pasos: a) se ha tomado como fuente de conocimiento una ontología en el dominio químico construida usando la metodología de desarrollo de ontologías llamada METHONTOLOGY y el Entorno de Diseño de Ontologías (Ontology Design Environment: ODE), b) se ha extendido y modificado la ontología lingüística GUM (Generalized Upper Model) para el castellano, c) se ha construido una gramática para el castellano siguiendo el modelo sistémico-funcional usando el entorno KPML (Komet Penman Multilingual). Se consigue, así, que los contenidos almacenados en la ontología de dominio sean accesibles por usuarios legos en la materia

    Validación de informes económicos/contables/financieros semánticos y su implementación en base de datos, de una forma automática

    Get PDF
    Este documento consta de 8 secciones, salvo la bibliografía y glosario. En La primera sección está Introducción y definimos conceptos básicos así con el alcance y objetivos del proyecto. La segunda sección hace referencia a los requerimientos Software y hardware empleados para desarrollar y desplegar el trabajo realizado. La tercera sección muestra el metamodelo definido por la Autoridad Bancaria Europea (EBA) a través de las taxonomías FINREP (Informe Financiero) y COREP (Informe de Solvencia Común) ambas son un Metamodelo de los informes requeridos por la Regulación Bancaria Europea y su mapeo en un modelo Relacional (implementado en MS SQL SERVER 2012). La cuarta Sección hace un estudio de la arquitectura de XBRL, la base de datos, su estructura de tablas como paso hacia un sistema gestor de Base de datos más apropiado (MS SQL Server 2012). La quinta sección se definen las condiciones y tecnología utilizada para la validación del data Point Model (DPM) como paso de datos al modelo relacional, también se definen las pruebas de validación efectuadas. La sexta sección se definen las condiciones utilizadas para el mapeo de data Point Model (DPM) hacia un Modelo de datos Multidimensional (MDM) y el MDM implementado en una base de datos relacional. La séptima sección atañe a los futuros trabajos y mejoras del proyecto definido en este documento. La Octava y última Sección engloban el Estudio de viabilidad, planificación del proyecto y Presupuesto. Se espera que el lector tenga un conocimiento del DPM, así como conocimientos básicos de XBRL, aunque este trabajo, introducirá ambos modelos. También se espera que el lector pueda tener conocimiento en la creación de modelos conceptuales para bases de datos relacionales y multidimensionales.This document consists of 8 sections, except the bibliography and glossary. The first section is Introduction and basic concepts and define the scope and objectives of the project. The second section refers to the software requirements and hardware used to develop and deploy their work. The third section shows the metamodel defined by the European Banking Authority (EBA) through taxonomies FINREP (Financial Report) and COREP (Common Solvency Report) both are a metamodel of the reports required by the Banking Regulation and mapping a relational model (implemented in MS SQL Server 2012). The fourth section is a study of the architecture of XBRL, the database table structure as a step towards a management system more appropriate data base (MS SQL Server 2012). Section five conditions and technology used for validation of data Point Model (DPM) and pass data to the relational model are defined, the validation tests conducted are also defined. The sixth section the conditions used for mapping data Point Model (DPM) to a multidimensional data model (MDM) MDM and implemented in a relational database is defined. The seventh section concerns the future work and improvements to the project defined in this document. The eighth and final section covers the feasibility study, project planning and budget. It is expected that the reader has a knowledge of DPM, as well as basic knowledge of XBRL, although this work will introduce two models. It is also expected that the reader may have knowledge in the creation of conceptual models for relational databases and multidimensional data.Ingeniería Técnica en Informática de Gestió

    Diseño de un Almacén de Datos Históricos en el marco del desarrollo de software dirigido por modelos

    Get PDF
    Un Decision Support System (DSS) asiste a los usuarios en el proceso de análisis de datos en una organización con el propósito de producir información que les permita tomar mejores decisiones. Los analistas que utilizan el DSS están más interesados en identificar tendencias que en buscar algún registro individual en forma aislada [HRU96]. Con ese propósito, los datos de las diferentes transacciones se almacenan y consolidan en una base de datos central denominada Data Warehouse (DW); los analistas utilizan esas estructuras de datos para extraer información de sus negocios que les permita tomar mejores decisiones [GHRU97]. Basándose en el esquema de datos fuente y en los requisitos de información de la organización, el objetivo del diseñador de un DSS es sintetizar esos datos para reducirlos a un formato que le permita, al usuario de la aplicación, utilizarlos en el análisis del comportamiento de la empresa. Dos tipos diferentes (pero relacionados) de actividades están presentes: el diseño de las estructuras de almacenamiento y la creación de consultas sobre esas estructuras. La primera tarea se desarrolla en el ámbito de los diseñadores de aplicaciones informáticas; la segunda, en la esfera de los usuarios finales. Ambas actividades, normalmente, se realizan con escasa asistencia de herramientas automatizadas. A partir de lo expresado anteriormente Identificamos, por consiguiente, tres problemas a resolver: a) la creación de estructuras de almacenamiento eficientes para la toma de decisión, b) la simplificación en la obtención de la información sobre esas estructuras para el usuario final y, c) la automatización, tanto del proceso de diseño de las estructuras de almacenamiento, como en la elaboración iterativa de consultas por parte del usuario de la aplicación. La solución propuesta es el diseño de una nueva estructura de almacenamiento que denominaremos Historical Data Warehouse (HDW) que combina, en un modelo integrado, un Historical Data Base (HDB) y un DW; el diseño de una interface gráfica, derivada del HDW, que permite realizar consultas en forma automática y, por último, el desarrollo de un método de diseño que engloba ambas propuestas en el marco del Model Driven Software Development (MDD).Facultad de Informátic

    Reconocimiento de enfermedades en fichas técnicas de medicamentos y su anotación con SNOMED-CT

    Get PDF
    La interoperabilidad o habilidad para intercambiar información entre sistemas informáticos es una cuestión de gran importancia en la informática médica. La interoperabilidad influye directamente en la calidad de los sistemas médicos existentes en la práctica clínica, ya que permite que la información se trate de manera eficiente y consistente. Para la comunicación entre sistemas informáticos heterogéneos se necesitan terminologías o diccionarios que representen e identifiquen conceptos médicos de forma única, sin importar el idioma o la forma lingüística en la que aparezcan. Estas terminologías permiten a los sistemas informáticos tener la misma visión del mundo y que la información intercambiada sea entendible. Actualmente, los esfuerzos para la adopción de estas terminologías en la práctica clínica recaen en los profesionales del dominio médico. Los profesionales son los encargados de reconocer conceptos médicos manualmente en documentos del área de la medicina y anotarlos con el código del concepto asociado en la terminología. No existe ningún método automático que permita el reconocimiento de conceptos de un determinado dominio, como por ejemplo las enfermedades, y que posteriormente encuentre el concepto asociado dentro de una terminología con un grado de precisión suficientemente elevado para que pueda ser adoptado en la práctica clínica. En esta tesis de máster se propone un nuevo método para el reconocimiento de enfermedades en fichas técnicas de medicamentos y su posterior mapeo con la terminología médica SNOMED-CT en español. El método utiliza dos nuevas técnicas propuestas en la tesis para cada fase. La nueva técnica para el reconocimiento de enfermedades propuesta está basada en reglas y en diccionarios especializados en medicina. La nueva técnica de mapeo está basada en la generación de las posibles combinaciones lingüísticas en las que puede aparecer la enfermedad para realizar comparaciones exactas de palabras, utilizando las funciones sintácticas de las palabras como guía. El método propuesto se centra en la identificación de enfermedades dentro de la sección de indicaciones terapéuticas de las fichas técnicas de medicamentos

    Diseño y generación semi-automática de patrones adaptables para el reconocimiento de entidades

    Get PDF
    La tarea de Reconocimiento de Entidades Nombradas (NER) facilita la gestión de información y tiene utilidad en otras áreas, como Anotación Semántica, Sistemas de Búsqueda de Respuesta, Población de Ontologías y Minería de Opiniones. Pero de acuerdo a los resultados de algunos foros, el área de NER podría considerarse resuelta. La tesis profundiza en la evaluación del área y muestra que parece haberse estancado en el reconocimiento de entidades típicas, para las que habitualmente existen recursos anotados. Esto contrasta con la diversidad de tipos de entidad y dominios de aplicación actuales. Este trabajo contribuye con el diseño de un método para el reconocimiento de entidades más consecuente con el problema de no disponer de corpus anotados para cualquier tipo de entidad requerida y sobre cualquier dominio. El método diseñado integra los siguientes aspectos: Transparencia: patrones legibles y con alto grado de estandarización. Flexibilidad: posibilidad de incorporar diferentes tipos de atributos capaces de describir las entidades o su contexto. Potencia: reconocimiento de diferentes estructuras del lenguaje en los documentos. Coste: uso de un pequeño conjunto de entidades como semillas iniciales y técnicas de aprendizaje activo para guiar al usuario en el proceso de anotación. Efectividad: tasas de efectividad competitivas en relación al estado del arte, medidas en términos de precisión y exhaustividad. Los resultados obtenidos son evaluados mediante el uso de corpus públicos anotados con diferentes tipos de entidades, y comparados con otros trabajos relacionados en la literatura científica.The task of Named Entity Recognition (NER) facilitates information management and is useful in other areas like Semantic Annotation, Question Answering, Ontology Population and Opinion Mining. According to the results from some evaluation forums though, NER may be considered a solved task. This dissertation digs into these evaluations and shows that they seemed stuck to the recognition of typical entities for which annotated resources are usually available. This contrasts with the current diversity of entity types and domains of application. The main contribution of this work is the design of a method to recognize entities that is more consistent with the lack of annotated corpora for any required type of entity and in any domain. The designed method integrates the following aspects: Transparency: readable patterns with a high level of standardization. Flexibility: possibility to incorporate different types of features capable of describing entities or their context. Power: recognition of different language structures within documents. Cost: use of a small set of entities as initial seeds and active learning techniques to guide the user through the annotation process. Effectiveness: competitive effectiveness rates compared to the state of the art in terms of precision and recall. The method is evaluated with two public annotated corpora with different types of entities, and compared with related works found in the scientific literature

    Conocimiento de la lengua y técnicas estadísticas en el análisis lingüístico

    Get PDF
    International audienceSon comparados los resultados obtenidos sobre un mismo corpus en la tarea del POS tagging por dos sistemas orientados por enfoques diferentes en lingüística computacional, el uno orientado por el Conocimiento de la lengua (sistema CL) y el otro por Técnicas estadísticas (sistema EST). Se trata de no limitarse a consideraciones globales sobre el « costo » de obtención de los dos tipos de resultados, noción mal definida, ni a cotejar resultados globales, sino de poner en relación los resultados obtenidos con las características lingüísticas involucradas. La problemática de la comparación es clarificada, los sistemas CL y EST presentados, la metodología de la comparación definida y los resultados obtenidos presentados. En el caso comparado, el sistema CL ofrece mejores resultados, pero la conclusión más interesante es la posibilidad de establecer correlaciones entre aspectos de la estructura lingüística y resultados obtenidos por técnicas estadísticas

    Generación de expresiones referenciales bajo incertidumbre con teoría de modelos

    Get PDF
    Tesis (Doctor en Ciencias de la Computación)--Universidad Nacional de Córdoba, Facultad de Matemática, Astronomía, Física y Computación, 2016.En esta tesis investigamos la generación automática de rankings de expresiones referenciales en contextos con incertidumbre. Las posibles aplicaciones de la generación de expresiones referenciales que deben referirse al mundo real (software para robots, sistemas gps, etc.) sufren de incertidumbre por datos ruidosos de sensores y modelos incompletos de la realidad. Extendemos técnicas y algoritmos de teoría de modelos y simulaciones integrando una distribución finita de probabilidades que representa esta incertidumbre. El objetivo es generar un ranking de las expresiones referenciales ordenado por la probabilidad de ser correctamente interpretada en el contexto. En primer lugar, se desarrollaron técnicas y algoritmos de generación de expresiones referenciales que extienden algoritmos clásicos de minimización de autómatas. Los algoritmos de minimización se aplicaron a la caracterización de modelos de primer orden. Dichos algoritmos fueron extendidos usando probabilidades aprendidas de corpora con técnicas de aprendizaje automático. Los algoritmos resultantes fueron evaluados usando técnicas automáticas y evaluaciones de jueces humanos sobre datos de benchmarks del área. Finalmente se recolectó un nuevo corpus de expresiones referenciales de puntos de interés en mapas de ciudades con distintos niveles de zoom. Se evaluó el desempeño del algoritmo en este corpus relevante a aplicaciones sobre mapas del mundo real.In this thesis we investigate the automatic generation of referring expression rankings in uncertain contexts. The potential applications of automatic generation of referring expressions that need to refer to the real world (e.g. robot software, gps systems, etc) suffer from uncertainty due to noisy sensor data and incomplete models. We extend techniques and algorithms from model theory with a finite probability distribution that represents this uncertainty. Our goal is to generate a ranking of referring expressions ordered by the probability of being interpreted successfully. First, we developed techniques and algorithms for generating referring expressions that extend classical algorithms for automata minimization applied to first order model characterization. Such algorithms were extended using probabilities learned from corpora using machine learning techniques. The resulting algorithms were evaluated using automatic metrics and human judgements with respect to benchmarks from the area. Finally, we collected a new corpus of referring expressions of interest points in city maps with different zoom levels. The algorithms were evaluated on this corpus which is relevant to applications with maps of the real world

    Desarrollo, implementación y utilización de modelos para el procesamiento automático de textos

    Get PDF
    El libro recoge ponencias y talleres seleccionados de JALIMI 2005 (Jornadas Argentinas de Lingüística Informática: Modelización e Ingeniería), y está organizado en nueve capítulos y un apéndice. Si bien hay sustantivas diferencias en los enfoques, las metodologías, las propiedades específicas estudiadas y las aplicaciones propuestas o proyectadas, todos los capítulos comunican resultados de investigaciones que pretenden contribuir a alcanzar el objetivo a largo plazo de la Lingüística Informática, a saber: emular en términos cibernéticos la extraordinaria capacidad humana de producir y comprender textos en lengua natural

    Eventos y entidades que se pueden echar: Combinatoria léxica y representación del significado de un verbo polisémico

    Full text link
    Tesis doctoral inédita leída en la Universidad Autónoma de Madrid, Facultad de Filosofía y Letras, Departamento de Filología Española. Fecha de lectura: 25-06-201
    corecore