10,501 research outputs found

    Reflexive pronouns in Spanish Universal Dependencies

    Get PDF
    In this paper, we argue that in current Universal Dependencies treebanks, the annotation of Spanish reflexives is an unsolved problem, which clearly affects the accuracy and consistency of current parsers. We evaluate different proposals for fine-tuning the various categories, and discuss remaining open issues. We believe that the solution for these issues could lie in a multi-layered way of annotating the characteristics, combining annotation of the dependency relation and of the so-called token features, rather than in expanding the number of categories on one layer. We apply this proposal to the v2.5 Spanish UD AnCora treebank and provide a categorized conversion table that can be run with a Python script

    Ontología y Procesamiento de Lenguaje Natural

    Get PDF
    At present, the convergence of several areas of knowledge has led to the design and implementation of ICT systems that support the integration of heterogeneous tools, such as artificial intelligence (AI), statistics and databases (BD), among others. Ontologies in computing are included in the world of AI and refer to formal representations of an area of knowledge or domain. The discipline that is in charge of the study and construction of tools to accelerate the process of creation of ontologies from the natural language is the ontological engineering. In this paper, we propose a knowledge management model based on the clinical histories of patients (HC) in Panama, based on information extraction (EI), natural language processing (PLN) and the development of a domain ontology.Keywords: Knowledge, information extraction, ontology, automatic population of ontologies, natural language processing

    Generación automática de resúmenes abstractivos mono documento utilizando análisis semántico y del discurso

    Get PDF
    The web is a giant resource of data and information about security, health, education, and others, matters that have great utility for people, but to get a synthesis or abstract about one or many documents is an expensive labor, which with manual process might be impossible due to the huge amount of data. Abstract generation is a challenging task, due to that involves analysis and comprehension of the written text in non structural natural language dependent of a context and it must describe an events synthesis or knowledge in a simple form, becoming natural for any reader. There are diverse approaches to summarize. These categorized into extractive or abstractive. On abstractive technique, summaries are generated starting from selecting outstanding sentences on source text. Abstractive summaries are created by regenerating the content extracted from source text, through that phrases are reformulated by terms fusion, compression or suppression processes. In this manner, paraphrasing sentences are obtained or even sentences were not in the original text. This summarize type has a major probability to reach coherence and smoothness like one generated by human beings. The present work implements a method that allows to integrate syntactic, semantic (AMR annotator) and discursive (RST) information into a conceptual graph. This will be summarized through the use of a new measure of concept similarity on WordNet.To find the most relevant concepts we use PageRank, considering all discursive information given by the O”Donell method application. With the most important concepts and semantic roles information got from the PropBank, a natural language generation method was implemented with tool SimpleNLG. In this work we can appreciated the results of applying this method to the corpus of Document Understanding Conference 2002 and tested by Rouge metric, widely used in the automatic summarization task. Our method reaches a measure F1 of 24 % in Rouge-1 metric for the mono-document abstract generation task. This shows that using these techniques are workable and even more profitable and recommended configurations and useful tools for this task.Tesi

    Working memory, attention and compositionality

    Get PDF
    Es una práctica habitual en Psicología desarrollar microteorías para explicar datos muy concretos obtenidos en un conjunto limitado de tareas. Cuando todo el peso de la elaboración teórica recae en unos datos empíricos específicos sin tener en cuenta otras restricciones teóricas más generales, los grados de libertad para elaborar un modelo son en general muchos y esto hace que la proliferación de modelos sea considerable sin que se disponga de las suficientes restricciones para descartar cuáles son inadecuados. Las discusiones sobre qué modelos son los adecuados se enquistan en polémicas interminables. Teorías más generales permitirían integrar un mayor número de datos (empíricos y computacionales) en un todo con sentido y así se podrían descartar, de forma más simple y efectiva, los modelos que no se ajustan a estas restricciones. En este trabajo hemos intentado integrar en una todo con sentido algunas de las teorías existentes sobre un conjunto amplio de procesos (memoria de trabajo, razonamiento, procesamiento visual, procesamiento de lenguaje) y una amplia variedad de datos psicológicos, neurofisiológicos y computacionales. Como resultado se obtiene una teoría más general que, de forma razonable, permite imponer un amplio conjunto de restricciones a la hora de elaborar modelos sobre ciertos fenómenos y permite entre otras cosas descartar como inadecuados modelos actuales que gozan de cierto prestigio.It is standard practice in Psychology to develop microtheories to explain very specific data obtained from a reduced set of tasks. If more general theoretical constraints are disregarded, the results may be an uncontrolled proliferation of models. Discussions of which models are appropiate and which are not cause end less controversy. With a more general theory, one could put together a larger body of data (both empirical and computational) into a meaningful whole and could reject, simply and affectively, the models that do not meet the theory’s constraints. In this paper we bring together some of the existing theories on a set of processes (working memory, reasoning, visual and language processing) and a large variety of psychological, neurophysiological and computational data. We thus formulate a more general theory which, in a reasonable way, imposes a larger set of constraints on the preparation of models and challenges the validity of some inappropiate models that currently enjoy a certain prestige

    La instrucción gramatical y la lengua materna en la era post-método

    Get PDF
    Este artículo propone un momento de reflexión para replantear algunas de las máximas pedagógicas que, contradiciendo lo que desde la “esfera académica” se estableció hace años –décadas, en algunos casos- continuan vigentes en la actualidad en algunos programas de formación y entornos de enseñanza de E/LE. Así, abordaremos dos ejemplos concretos de exclusión axiomática: la exclusión de la instrucción gramatical explícita y de la lengua materna del estudiantes –o de cualquier otra lengua vehicular, como el inglés- de la clase de E/LE. Analizaremos las razones por la que estos “tabúes” o “vetos” deberían ser abandonados y propondremos la gramática cognitiva como una de las herramientas posibles para superar estas y otras dicotomías artificiales. ( This paper suggests a moment to rethink some of the pedagogical believes that, despite of the advances and advices sent from the “academic sphere” years ago –or decades ago, in some cases- they still rule some teaching formation programs and educational E/LE (Spanish as a second language) environments. We will analyze two specific axioms whose validity, according to the present state of the art, should be questioned at least: the ban of explicit grammar instruction and the ban of the student’s mother tongue in the Spanish ASL classroom. We will analyze the reasons for which these “taboos” or “vetos” should be abandoned and we will propose Cognitive Grammar as a possible solution to surpass this and other artificial dicotomies )

    Natural Language Generation: Revision of the State of the Art

    Get PDF
    El ser humano se comunica y expresa a través del lenguaje. Para conseguirlo, ha de desarrollar una serie de habilidades de alto nivel cognitivo cuya complejidad se pone de manifiesto en la tarea de automatizar el proceso, tanto cuando se trata de producir lenguaje como de interpretarlo. Cuando la acción comunicativa ocurre entre una persona y un ordenador y éste último es el destinatario de la acción, se emplean lenguajes computacionales que, como norma general, están sujetos a un conjunto de reglas fuertemente tipadas, acotadas y sin ambigüedad. Sin embargo, cuando el sentido de la comunicación es el contrario y la máquina ha de transmitir información a la persona, si el mensaje se quiere transmitir en lenguaje natural, el procedimiento para generarlo debe lidiar con la flexibilidad y la ambigüedad que lo caracterizan, dando lugar a una tarea de alto nivel de complejidad. Para que las máquinas sean capaces de manejar el lenguaje humano se hacen necesarias técnicas de Lingüística Computacional. Dentro de esta disciplina, el campo que se encarga de crear textos en lenguaje natural se denomina Generación de Lenguaje Natural (GLN). En este artículo se va a hacer un recorrido exhaustivo de este campo. Se describen las fases en las que se suelen descomponer los sistemas de GLN junto a las técnicas que se aplican y se analiza con detalle la situación actual de esta área de investigación y su problemática, así como los recursos más relevantes y las técnicas que se están empleando para evaluar la calidad de los sistemas.Language is one of the highest cognitive skills developed by human beings and, therefore, one of the most complex tasks to be faced from the computational perspective. Human-computer communication processes imply two different degrees of difficulty depending on the nature of that communication. If the language used is oriented towards the domain of the machine, there is no place for ambiguity since it is restricted by rules. However, when the communication is in terms of natural language, its flexibility and ambiguity becomes unavoidable. Computational Linguistic techniques are mandatory for machines when it comes to process human language. Among them, the area of Natural Language Generation aims to automatical development of techniques to produce human utterances, text and speech. This paper presents a deep survey of this research area taking into account different points of view about the theories, methodologies, architectures, techniques and evaluation approaches, thus providing a review of the current situation and possible future research in the field.Esta investigación ha sido financiada por la Generalitat Valenciana a través del proyecto DIIM2.0: Desarrollo de técnicas Inteligentes e Interactivas de Minería y generación de información sobre la web 2.0 (PROMETEOII/2014/001). Además, ha sido parcialmente financiada por la Comisión Europea a través del proyecto SAM (FP7-611312); por el Ministerio de Economía y Competitividad del Gobierno de España mediante los proyectos: “Análisis de Tendencias Mediante Técnicas de Opinión Semántica” (TIN2012-38536-C03-03) y ‘Técnicas de Deconstrucción en la Tecnología del Lenguaje Humano” (TIN2012-31224); y finalmente, por la Universidad de Alicante a través del proyecto “Explotación y tratamiento de la información disponible en Internet para la anotación y generación de textos adaptados al usuario” (GRE13-15)

    POL: a new system for named-entity detection and categorisation

    Get PDF
    El objetivo de este trabajo es desarrollar una metodología para la detección y clasificación de nombres propios (NP) en las categorías de antropónimo, topónimo y nombre de organización. La hipótesis sobre la que se basa la investigación es que el contexto de aparición de los NP - definido como las n palabras previas – así como los elementos que componen el NP mismo, pueden aportar pistas para predecir el tipo de entidad. Para tal fin, se diseñó un algoritmo de clasificación supervisado que se entrena con un corpus ya anotado por otro sistema, que en el caso de nuestros experimentos fue la suite de analizadores de idiomas FreeLing anotando el corpus de la Wikipedia en castellano. En el entrenamiento, nuestro sistema aprende a relacionar tipos de entidades con palabras del contexto así como las que componen los NP anotados. Se evalúan los resultados en el corpus CONLL-2002 y también con un corpus de geopolítica perteneciente a la revista Le Monde Diplomatique en su edición en castellano. Se compara además el desempeño en ese corpus de distintos sistemas de extracción y clasificación de NP en castellano.The purpose of this research is to develop a methodology for the detection and categorisation of named entities or proper names (PPNN), in the categories of geographical place, person and organisation. The hypothesis is that the context of occurrence of the entity - a context window of n words before the target - as well as the components of the PN itself may provide good estimators of the type of PN. To that end, we developed a supervised categorisation algorithm, with a training phase in which the system receives a corpus already annotated by another NERC system. In the case of these experiments, such system was the open-source suite of language analysers FreeLing, annotating the corpus of the Spanish Wikipedia. During this training phase, the system learns to associate the category of entity with words of the context as well as those from the PN itself. We evaluate results with the CONLL-2002 and also with a corpus of geopolitics from the journal Le Monde Diplomatique in its Spanish edition, and compare the results with some well-known NERC systems for Spanish.Investigación financiada por CONICYT (Gobierno de Chile), Proyecto Fondecyt 11140686: “Inducción automática de taxonomías de sustantivos generales y especializados a partir de corpus textuales desde el enfoque de la lingüística cuantitativa"

    Linguistic metaphor labelling for a Spanish document dataset

    Get PDF
    En este trabajo se han etiquetado manualmente las metáforas lingüísticas presentes en la colección de documentos utilizados en SemEval 2013 en la tarea correspondiente a desambiguación léxica en español. El objetivo del trabajo es doble: por un lado realizar una primera aproximación de las dificultades específicas que presenta la identificación de metáforas en el idioma español, y por otro crear un nuevo recurso lingüístico conformado por una colección documental en español que tiene etiquetadas ciertas palabras tanto con su sentido literal como metafórico.This paper introduces the work performed to manually label linguistic metaphors in the document collection of SemEval 2013, in the Spanish lexical disambiguation task. The objectives of this work are two: first, to make a prior identification of the difficulties inherent in metaphor detection in Spanish, and second, to generate a new linguistic resource as a collection of Spanish documents with certain terms label with both, the literal and the metaphoric sense.Esta investigación ha sido subvencionada por el proyecto ATTOS (TIN2012-38536-C03-01) financiado por el Gobierno de España y el proyecto europeo FIRST (FP7-287607)

    Implicaciones del teorema de Godel en ciencias

    Get PDF
    El teorema de Kurt GOdel ha causado gran influencia en la manera en que se entienden los sistemas formales matemáticos Si bien el teorema es ateniente a la matemática y en particular a la lógica, nosotros no nos concentraremos en estos temas sino en las implicaciones que pudiese tener este resultado y las técnicas de su prueba en otras ciencias. Estudiaremos implicaciones del teorema que entendemos se pueden extender a otras ciencias En esta presentación, comenzaremos por repasar los antecedentes y el contenido fundamental del teorema de Godel

    SPECIAL ISSUE: New Insights into Meaning Construction and Knowledge Representation

    Get PDF
    The ten papers that have been selected for publication in this special issue entitled “New Insights into Meaning Construction and Knowledge Representation” present the outcomes of recent relevant investigations conducted both within Spain and international contexts, and which have been supported by research projects related to various aspects of meaning and knowledge representation. In particular, the findings presented in this volume combine insights from theoretical and computational linguistics in the context of natural language understanding, with parallel studies conducted within the realm of cognitive linguistics with special reference to the role of metaphor and other cognitive operations in meaning construction. Many of the contributions that are presented here are examples of the integration and collaboration between linguistics and other diverse fields such as Natural Language Processing (NLP), semantic memory loss disorders, aeronautic engineering or computer science, that reveal the need to link contemporary linguistics to other arenas that may have a direct and significant impact on society..
    corecore