691 research outputs found

    Social Rankings: Visual Sentiment Analysis in Social Networks

    Get PDF
    Social Rankings es una aplicación web que realiza un seguimiento en tiempo real de entidades en las redes sociales. Detecta y analiza las opiniones sobre estas entidades utilizando técnicas de análisis de sentimientos para generar un informe visual de su valoración y su evolución en el tiempo.Social Rankings is a web application that follows different entities in the social networks in real time. It detects and analyses the opinions about these entities using sentiment analysis techniques, to generate a visual report of their reputation and evolution in time.Social Rankings ha sido desarrollada por el Grupo de Procesamiento del Lenguaje Natural y Sistemas de Información (GPLSI) de la Universidad de Alicante. Esta aplicación ha sido financiada parcialmente por el Gobierno Español a través de los proyectos ATTOS (TIN2012-38536-C03-03) y LEGOLANG (TIN2012-31224), la Comisión Europea a través del proyecto SAM (FP7-611312), la Generalitat Valenciana a través del proyecto DIIM2.0 (PROMETEOII/2014/001) y la Universidad de Alicante a través del proyecto emergente “Explotación y tratamiento de la información disponible en Internet para la anotación y generación de textos adaptados al usuario” (GRE13-15)

    ElectionMap: a geolocalized representation of voting intentions to political parties based on twitter's user comments

    Get PDF
    ElectionMap es una aplicación web que realiza un seguimiento a los comentarios publicados en Twitter en relación a entidades que refieren a partidos políticos. Las opiniones de los usuarios sobre estas entidades son clasificadas según su valoración y posteriormente representadas en un mapa geográfico para conocer la aceptación social sobre agrupaciones políticas en las distintas regiones de la geografía española.ElectionMap is a web application that follows, in Twitter, entities previously established and related to the politics. The user's opinions about the entities are classified according to its valuation by using sentiment analysis processes. Afterwards the opinions are represented in a geographic map that allows to know the social acceptance of Spanish political parties in different geographical areas.ElectionMap es una aplicación web desarrollada por el Grupo de Procesamiento del Lenguaje Natural y Sistemas de Información (GPLSI) de la Universidad de Alicante. Esta aplicación ha sido parcialmente financiada por el Gobierno Español y la Comisión Europea a través de los proyectos: ATTOS (TIN2012-38536-C03-03), LEGOLANG (TIN2012-31224), SAM (FP7-611312) y FIRST (FP7-287607) y por la Universidad de Alicante a través del proyecto emergente “Explotación y tratamiento de la información disponible en Internet para la anotación y generación de textos adaptados al usuario” (GRE13-15)

    Exploitation and Processing of Online Information for Annotating and Generating Texts Adapted to the User

    Get PDF
    La gran cantidad de información disponible en Internet está dificultando cada vez más que los usuarios puedan digerir toda esa información, siendo actualmente casi impensable sin la ayuda de herramientas basadas en las Tecnologías del Lenguaje Humano (TLH), como pueden ser los recuperadores de información o resumidores automáticos. El interés de este proyecto emergente (y por tanto, su objetivo principal) viene motivado precisamente por la necesidad de definir y crear un marco tecnológico basado en TLH, capaz de procesar y anotar semánticamente la información, así como permitir la generación de información de forma automática, flexibilizando el tipo de información a presentar y adaptándola a las necesidades de los usuarios. En este artículo se proporciona una visión general de este proyecto, centrándonos en la arquitectura propuesta y el estado actual del mismo.The great amount of available online information is making increasingly more and more difficult that users can assimilate such as volume of information, being this almost inconceivable without using Human Language Technologies (HLT) tools, for instance, information retrieval systems or automatic summarisers. The interest of this emerging project (and therefore its main goal) is precisely motivated by the need to define and create a HLT-based technological framework, able to process and semantically annotate all this information, allowing also the automatic generation of information, and making the type of information to be presented more flexible by adapting it to the users' needs. This article provides an overview of this project, focusing on the proposed architecture and its current status.Este proyecto ha sido financiado por la Universidad de Alicante a través del proyecto emergente “Explotación y tratamiento de la información disponible en Internet para la anotación y generación de textos adaptados al usuario” (GRE13-15) y su temática se enmarca en el contexto de los proyectos “DIIM2.0: Desarrollo de técnicas Inteligentes e Interactivas de Minería y Generación de Información sobre la Web 2.0” (PROMETEOII/2014/001) financiado por la Generalitat Valenciana y el proyecto “Técnicas de Deconstrucción en la Tecnologías del Lenguaje Humano” (TIN2012-31224) financiado por Ministerio de Economía y Competitividad del Gobierno de España

    Analysing and evaluating the task of automatic tweet generation: Knowledge to business

    Get PDF
    In this paper a study concerning the evaluation and analysis of natural language tweets is presented. Based on our experience in text summarisation, we carry out a deep analysis on user's perception through the evaluation of tweets manual and automatically generated from news. Specifically, we consider two key issues of a tweet: its informativeness and its interestingness. Therefore, we analyse: (1) do users equally perceive manual and automatic tweets?; (2) what linguistic features a good tweet may have to be interesting, as well as informative? The main challenge of this proposal is the analysis of tweets to help companies in their positioning and reputation on the Web. Our results show that: (1) automatically informative and interesting natural language tweets can be generated as a result of summarisation approaches; and (2) we can characterise good and bad tweets based on specific linguistic features not present in other types of tweets.This research work has been partially funded by the University of Alicante, Generalitat Valenciana, Spanish Government and the European Commission through the projects, “Tratamiento inteligente de la información para la ayuda a la toma de decisiones” (GRE12-44), “Explotación y tratamiento de la información disponible en Internet para la anotación y generación de textos adaptados al usuario” (GRE13-15), DIIM2.0 (PROMETEOII/2014/001), ATTOS (TIN2012-38536-C03-03), LEGOLANG-UAGE (TIN2012-31224), and SAM (FP7-611312)

    Exploring Flexibility in Natural Language Generation Through Discursive Analysis of New Textual Genres

    Get PDF
    Since automatic language generation is a task able to enrich applications rooted in most of the language-related areas, from machine translation to interactive dialogue, it seems worthwhile to undertake a strategy focused on enhancing generation system’s adaptability and flexibility. It is our first objective to understand the relation between the factors that contribute to discourse articulation in order to devise the techniques that will generate it. From that point, we want to determine the appropriate methods to automatically learn those factors. The role of genre on this approach remains essential as provider of the stable forms that are required in the discourse to meet certain communicative goals. The arising of new web-based genres and the accessibility of the data due to its digital nature, has prompted us to use reviews in our first attempt to learn the characteristics of their singular non-rigid structure. The process and the preliminary results are explained in the present paper.This work has been supported by the grant ACIF/2016/501 from the Generalitat Valenciana. Funds have been also received from the University of Alicante, Spanish Government and the European Commission through the projects “Explotación y tratamiento de la información disponible en Internet para la anotación y generación de textos adaptados al usuario” (GRE13-15) and “DIIM2.0: Desarrollo de técnicas Inteligentes e Interactivas de Minería y generación de información sobre la web 2.0” (PROMETEOII/2014/001), TIN2015-65100-R, TIN2015-65136-C2-2-R, and SAM (FP7-611312), respectively

    TLH Suite: semantic information annotation tool

    Get PDF
    En la actualidad existe gran cantidad de información heterogénea en Internet, esto dificulta que los usuarios puedan encontrar y filtrar fácilmente la información que requieren. Las herramientas basadas en las Tecnologías del Lenguaje Humano (TLH) ofrecen un gran apoyo facilitando la tarea y proporcionando al usuario la información específica que solicita. El objetivo de este artículo es proponer una herramienta capaz de procesar y anotar la información textual proveniente de la Web. Dicha herramienta viene motivada precisamente por la necesidad de definir un marco tecnológico que consiga integrar una serie de recursos TLH existentes, de manera que se genere un paquete de información semántica que pueda ser consultado flexibilizando el tipo de información a recopilar dadas las necesidades del usuario. Los resultados obtenidos en la experimentación demuestran el valor añadido que aporta el marco propuesto con respecto al uso de los recursos TLH de forma individual.Nowadays, the vast amount of heterogeneous information available on the Internet poses difficulties for users when they have to find the information they require, since this is a non-trivial task. In this respect, Human Language Technologies (HLT) tools offer a great support for this task, being able to provide the specific information requested by the user. The aim of this paper is to propose a tool capable of processing and annotating the textual information from the Web. This tool is motivated by the need of defining a technological framework to integrate a number of existing HLT resources, so that a semantic information package is generated. This package may also adapt the type of information to retrieve and generate, based on the particular user needs. The results obtained from the experimentation performed show the added value brought by our proposed HLT framework compared to the use of individual HLT resources.Esta investigación ha sido financiada por la Universidad de Alicante mediante el proyecto “Explotación y tratamiento de la información disponible en Internet para la anotación y generación de textos adaptados al usuario” (GRE13-15), parcialmente financiada por la Generalitat Valenciana a través del proyecto “DIIM2.0: Desarrollo de técnicas inteligentes e interactivas de minería y generación de información sobre la web 2.0” (PROMETEOII/2014/001), por el Gobierno de España (MINECO) a través de los proyectos TIN2015-65100-R, TIN2015-65136-C2-2-R, y por la Comisión Europea a través del proyecto SAM (FP7-611312). También queremos agradecer al programa de Formación de Profesorado Universitario de la Universidad de Alicante (FPUUA) por su apoyo a través de una de sus becas destinada a la formación predoctoral (UAFPU2015-5999)

    Studying the influence of adding lexical-semantic knowledge to Principal Component Analysis technique for multilingual summarization

    Get PDF
    El objetivo de la generación automática de resúmenes es reducir la dimensión de un texto y a su vez mantener la información relevante del mismo. En este artículo se analiza y aplica la técnica de Análisis de Componentes Principales, que es independiente del idioma, para la generación de resúmenes extractivos mono-documento y multilingües. Dicha técnica se estudiará con el objetivo de poder evaluar su funcionamiento cuando se incorpora (o no) conocimiento léxico-semántico, a partir del uso de recursos y herramientas dependientes del idioma. La experimentación propuesta se ha realizado en base a dos corpus de diferente naturaleza: noticias periodísticas y artículos de la Wikipedia en tres idiomas (alemán, español e inglés) para verificar el uso de esta técnica en varios escenarios. Los enfoques propuestos presentan resultados muy competitivos comparados con generadores de resúmenes multilingües existentes, lo que indica que, aunque exista un claro margen de mejora respecto a la técnica y el tipo de conocimiento incorporado, ésta tiene una gran potencial para ser aplicada en otros contextos e idiomas.The objective of automatic text summarization is to reduce the dimension of a text keeping the relevant information. In this paper we analyse and apply the language-independent Principal Component Analysis technique for generating extractive single-document multilingual summaries. This technique will be studied to evaluate its performance with and without adding lexical-semantic knowledge through language-dependent resources and tools. Experiments were conducted using two different corpora: newswire and Wikipedia articles in three languages (English, German and Spanish) to validate the use of this technique in several scenarios. The proposed approaches show very competitive results compared to multilingual available systems, indicating that, although there is still room for improvement with respect to the technique and the type of knowledge to be taken into consideration, this has great potential for being applied in other contexts and for other languages.Esta investigación se ha realizado gracias a la financiación recibida en los proyectos: DIIM2.0: Desarrollo de técnicas Inteligentes e Interactivas de Minería y generación de información sobre la web 2.0 (PROMETEOII/2014/001) de la Generalitat Valenciana; SAM (FP7-611312) de la Comisión Europea; “Análisis de Tendencias Mediante Técnicas de Opinión Semántica” (TIN2012-38536-C03-03) y “Técnicas de Deconstrucción en la Tecnologías del Lenguaje Humano” (TIN2012-31224)), del Ministerio de Economía y Competitividad del Gobierno de España; “Explotación y tratamiento de la información disponible en Internet para la anotación y generación de textos adaptados al usuario” (GRE13-15), de la Universidad de Alicante

    Natural Language Generation: Revision of the State of the Art

    Get PDF
    El ser humano se comunica y expresa a través del lenguaje. Para conseguirlo, ha de desarrollar una serie de habilidades de alto nivel cognitivo cuya complejidad se pone de manifiesto en la tarea de automatizar el proceso, tanto cuando se trata de producir lenguaje como de interpretarlo. Cuando la acción comunicativa ocurre entre una persona y un ordenador y éste último es el destinatario de la acción, se emplean lenguajes computacionales que, como norma general, están sujetos a un conjunto de reglas fuertemente tipadas, acotadas y sin ambigüedad. Sin embargo, cuando el sentido de la comunicación es el contrario y la máquina ha de transmitir información a la persona, si el mensaje se quiere transmitir en lenguaje natural, el procedimiento para generarlo debe lidiar con la flexibilidad y la ambigüedad que lo caracterizan, dando lugar a una tarea de alto nivel de complejidad. Para que las máquinas sean capaces de manejar el lenguaje humano se hacen necesarias técnicas de Lingüística Computacional. Dentro de esta disciplina, el campo que se encarga de crear textos en lenguaje natural se denomina Generación de Lenguaje Natural (GLN). En este artículo se va a hacer un recorrido exhaustivo de este campo. Se describen las fases en las que se suelen descomponer los sistemas de GLN junto a las técnicas que se aplican y se analiza con detalle la situación actual de esta área de investigación y su problemática, así como los recursos más relevantes y las técnicas que se están empleando para evaluar la calidad de los sistemas.Language is one of the highest cognitive skills developed by human beings and, therefore, one of the most complex tasks to be faced from the computational perspective. Human-computer communication processes imply two different degrees of difficulty depending on the nature of that communication. If the language used is oriented towards the domain of the machine, there is no place for ambiguity since it is restricted by rules. However, when the communication is in terms of natural language, its flexibility and ambiguity becomes unavoidable. Computational Linguistic techniques are mandatory for machines when it comes to process human language. Among them, the area of Natural Language Generation aims to automatical development of techniques to produce human utterances, text and speech. This paper presents a deep survey of this research area taking into account different points of view about the theories, methodologies, architectures, techniques and evaluation approaches, thus providing a review of the current situation and possible future research in the field.Esta investigación ha sido financiada por la Generalitat Valenciana a través del proyecto DIIM2.0: Desarrollo de técnicas Inteligentes e Interactivas de Minería y generación de información sobre la web 2.0 (PROMETEOII/2014/001). Además, ha sido parcialmente financiada por la Comisión Europea a través del proyecto SAM (FP7-611312); por el Ministerio de Economía y Competitividad del Gobierno de España mediante los proyectos: “Análisis de Tendencias Mediante Técnicas de Opinión Semántica” (TIN2012-38536-C03-03) y ‘Técnicas de Deconstrucción en la Tecnología del Lenguaje Humano” (TIN2012-31224); y finalmente, por la Universidad de Alicante a través del proyecto “Explotación y tratamiento de la información disponible en Internet para la anotación y generación de textos adaptados al usuario” (GRE13-15)

    A novel concept-level approach for ultra-concise opinion summarization

    Get PDF
    The Web 2.0 has resulted in a shift as to how users consume and interact with the information, and has introduced a wide range of new textual genres, such as reviews or microblogs, through which users communicate, exchange, and share opinions. The exploitation of all this user-generated content is of great value both for users and companies, in order to assist them in their decision-making processes. Given this context, the analysis and development of automatic methods that can help manage online information in a quicker manner are needed. Therefore, this article proposes and evaluates a novel concept-level approach for ultra-concise opinion abstractive summarization. Our approach is characterized by the integration of syntactic sentence simplification, sentence regeneration and internal concept representation into the summarization process, thus being able to generate abstractive summaries, which is one the most challenging issues for this task. In order to be able to analyze different settings for our approach, the use of the sentence regeneration module was made optional, leading to two different versions of the system (one with sentence regeneration and one without). For testing them, a corpus of 400 English texts, gathered from reviews and tweets belonging to two different domains, was used. Although both versions were shown to be reliable methods for generating this type of summaries, the results obtained indicate that the version without sentence regeneration yielded to better results, improving the results of a number of state-of-the-art systems by 9%, whereas the version with sentence regeneration proved to be more robust to noisy data.This research work has been partially funded by the University of Alicante, Generalitat Valenciana, Spanish Government and the European Commission through the projects, “Tratamiento inteligente de la información para la ayuda a la toma de decisiones” (GRE12-44), “Explotación y tratamiento de la información disponible en Internet para la anotación y generación de textos adaptados al usuario” (GRE13-15), DIIM2.0 (PROMETEOII/2014/001), ATTOS (TIN2012-38536-C03-03), LEGOLANG-UAGE (TIN2012-31224), SAM (FP7-611312), and FIRST (FP7-287607)

    Propuesta de un ciclo de vida para creación y gestión del conocimiento. Actualización del análisis de las funcionalidades de las aplicaciones informáticas para la gestión de conocimiento

    Get PDF
    New paradigms for generation, capture, assimilation and knowledge transfer are stimulating the development of new methodologies and techniques. This in turn gives rise to a need to improve lifecycle processes for creating and managing knowledge. Current IT technologies allow the development of highly complex infrastructures for knowledge management, but it is socialand economic pressure that drives the development of specific applications in this field. Currently there are a large number of commercial knowledge management system for specific application areas, but no common platform that integrates these. Hopefully, in the not too distant future, we will have applications which better support global knowledge management for educational communities. Los nuevos paradigmas en cuanto a la generación, captura, asimilación, y transferencia del conocimiento como valor estratégico, están provocando el desarrollo de nuevas metodologías y técnicas con las que afrontarlos. En este sentido interesa que los Ciclos de Vida como procesos para la Creación y Gestión de Conocimiento se perfeccionen. El estado actual de las TIC posibilita el desarrollo de infraestructuras muy complejas que sirven de base para la GC, pero es sin duda la gran presión social y económica la que actúa de impulsora de la construcción de aplicaciones específicas de este campo. El escenario actual refleja la existencia de gran cantidad de SGC comerciales especializados en tareas concretas, sin una plataforma común que los integre. Quizá en un futuro próximo, presionados por una necesidad más extendida en la Creación y Gestión del Conocimiento, dispongamos de aplicaciones con más servicios de apoyo, para una Gestión Globalizada del Conocimiento, adaptados a las comunidades educativas
    corecore