107 research outputs found

    Aplicaciones del procesamiento del lenguaje natural en la recuperación de información en español

    Get PDF
    [Resumen] La relación entre Procesamiento del Lenguaje Natural y Recuperación de Información viene dada por la variación lingüística del idioma, es decir, cómo un mismo concepto se puede expresar de formas diferentes mediante modificaciones en la expresión, constituyendo el principal problema en el ámbito de la Recuperación de Información, El objetivo de esta tesis es el desarrollo de tecnología de base para el Procesamiento del Lenguaje Natural y el estudio de la viabilidad de su aplicación en sistemas de Recuperación de Información sobre documentos en español. Si bien existen estudios similares para otras lenguas, con un claro dominio del inglés, el español ha quedado relegado frecuentemente a un segundo plano. Además, su mayor complejidad lingüística no permite una extrapolación inmediata de los resultados obtenidos para el inglés, demandando la realización de experimentos específicos. Sin embargo, hemos tenido que hacer frente a la carencia de recursos lingüísticos libremente accesibles para el español. Para ello se ha debido restringir la complejidad de las soluciones propuestas, centrándose en la utilización de información léxica, de obtención más sencilla. Además, para minimizar el coste computacional de cara a la aplicación en entornos prácticos, se ha hecho amplio uso de tecnología de estado finito. En este contexto se ha desarrollado, en primer lugar, un preprocesador avanzado de base lingüística para la tokenización y segmentación de textos. A nivel flexivo, se ha estudiado la utilización de la lematización en la normalización de términos simples. A nivel derivativo, se ha desarrollado una herramienta de generación automática de familias morfológicas - conjuntos de palabras ligadas derivativamente y que comparten la misma raiz - para su empleo en la normalización de términos simples

    Audio communication in the face of the renaissance of digital audio

    Get PDF
    In recent years, digital audio has undergone an explosion. The transformation of radio and its expansion to new channels and consumer devices, added to the rise of podcasts and streaming music platforms, have led to the transformation of the audio ecosystem. This transition from the audio medium to audio media has involved an integral change in content, as well as in its production and reception processes. In this regard, the aim of this paper is to approach the present digital audio scene from the standpoint of its content, formats, and broadcasting models as well as of the new professional profiles, business models, and consumer–relationship practices, providing a snapshot that is completed with a prospective reflection on the challenges facing radio in this new ecosystem

    Paynal: Una herramienta de Ingeniería de Software Colaborativa

    Get PDF
    En este trabajo se describe una aplicación, llamada Paynal, que provee herramientas groupware al entorno de desarrollo Eclipse, permitiendo a sus usuarios interactuar mediante chats, foros y mensajes. Dichas interacciones generan un vínculo social y, en conjunto, las mismas conforman una Red Social. Mediante el uso de métricas de Análisis de Redes Sociales se puede extraer información para la detección de líderes de grupo, la identi cación de reemplazantes para desarrolladores que abandonan la empresa, entre otros. Utilizando técnicas de Minería de Texto se pueden extraer tópicos de las interacciones entre dos usuarios, permitiendo discernir temas y habilidades. Dichos tópicos son visualizados utilizando Nubes de Tags: una representación compacta y, a su vez, altamente expresiva. Con el objetivo de realizar experiencias reales, se experimentó con datos provenientes de una organización de desarrollo de software, y luego, utilizando dichos datos, se elaboraron conclusiones utilizando las herramientas provistas por Paynal.Sociedad Argentina de Informática e Investigación Operativ

    Implementación de un Modelo Computacional de recomendación, utilizando técnicas de inteligencia artificial para generar estrategias de investigación dentro de Grupos de investigación

    Get PDF
    En los procesos investigativos se genera una gran cantidad de archivos que contienen información valiosa generada a través de revisión bibliográfica, análisis de datos, trabajo de campo, entre otros que permita al grupo investigador generar nuevo conocimiento, plantear nuevas tesis, defender o discutir una situación concreta. Dicho proceso genera un gran esfuerzo físico y mental que devengan además la inversión de tiempo que en muchas ocasiones genera retrasos en la culminación de dichas investigaciones

    Implementación de un prototipo funcional de aprendizaje de máquina para identificar correos electrónicos de Spear Phishing

    Get PDF
    Trabajo de investigaciónEste trabajo tiene como propósito la detección de correos electrónicos Spear Phishing a mediante un prototipo web, debido a que las técnicas de ingeniería social son muy usadas hoy en día para robar a los usuarios datos de identidad personal y/o credenciales de sus cuentas financieras, por esta razón, todas las personas deben implementar una medida para detectar estos ataques de ingeniería social.2 JUSTIFICACIÓN 3 PLANTEAMIENTO DEL PROBLEMA 4 OBJETIVOS 5 MARCOS DE REFERENCIA 6 ESTADO DEL ARTE 7 METODOLOGÍA 8 DESARROLLO DE LA PROPUESTA 9 INSTALACIÓN Y EQUIPO REQUERIDO 10 RESULTADOS 11 CONCLUSIONES 12 TRABAJOS FUTUROS 13 BIBLIOGRAFÍA 14 ANEXOSPregradoIngeniero de Sistema

    Plataforma para procesado de lenguaje natural como servicio

    Get PDF
    [Resumen] El Procesamiento de Lenguaje Natural (NLP) es el campo de la Inteligencia Artificial que trata de acercar el lenguaje humano a las máquinas. Numerosas herramientas matemáticas y de ingeniería son usadas para construír sistemas que resuelvan distintos problemas para facilitar la relación entre el lenguaje máquina y el humano. En este proyecto se aplicarán los conceptos teóricos y prácticos sobre diversos temas pertenecientes a NLP para crear un demostrador, que consiste en un servicio REST y que resuelve distintos problemas: identificación del idioma, reconocimiento de entidades nombradas, extracción de relaciones, modelado de temas, etc. además de mostrar los resultados mediante una aplicación web.[Abstract] Natural Language Processing (NLP) is the field of Artificial Intelligence that tries to close the human language to machines. Numerous mathematical and engineering tools are used to build systems that resolve different problems in order to easier the relationship between the machine lenguage and the human one. Both theoretical and practical concepts among diverse NLP topics are applied in this project in order to create a demo that consists on a REST service and that resolves different problems such as: language identification, named entities recognition, relation extraction, topic modelling, etc. and that shows users the corresponding results through a web application.Traballo fin de grao. Enxeñaría Informática. Curso 2021/202

    Combinación de clustering, selección de atributos y métodos ontológicos para la clasificación semántica de texto

    Get PDF
    Con el aumento exponencial en la cantidad de datos textuales disponibles en Internet desde fuentes diversas como redes sociales, blogs/foros, sitios web, correos electrónicos, bibliotecas en línea, etc., se ha hecho necesaria la utilización de la Inteligencia Artificial en plataformas digitales, como la aplicación de métodos de aprendizaje profundo y de reconocimiento de patrones, para que esta información pueda ser aprovechada por todo tipo de modelos de negocios, estudios de mercado, planes de marketing, campañas políticas o toma de decisiones estratégicas entre otros, con la finalidad de hacer frente a la competencia y dar respuesta de manera eficiente. El objetivo de esta tesis doctoral fue desarrollar un modelo que combina clustering, selección de atributos y métodos ontológicos para la clasificación semántica de texto, que permita estructurar una metodología aplicable en conjuntos de datos textuales y así mejorar la clasificación automática de texto. El modelo propuesto en esta tesis doctoral se realizó siguiendo los siguientes objetivos específicos: redactar el estado del arte relacionado con la temática estudiada; conformación de un conjunto de datos textuales lo suficientemente extenso para la aplicación de las diferentes técnicas de análisis de datos; desarrollo de una metodología para la clasificación semántica de datos textuales y evaluación de los resultados obtenidos. La metodología consistió de 9 etapas, las 5 primeras (preprocesamiento, clustering, se- lección de atributos, clasificación y test estadístico. Posteriormente 4 etapas adicionales correspondientes análisis ontológico (validación del clúster, análisis semántico, interpretación y representación de relaciones). Se pudo determinar que haciendo SToWVector junto con selección de atributos mediante el wrapper MOES (estrategia de búsqueda) y NaiveBayesMultinomial (evaluador) con ACC (métrica), se obtienen mejores resultados con el clasificador NaiveBayesMultinomial que con otros métodos de clasificación evaluados. Además el método de búsqueda ENORA ha sido utilizado y evaluado demostrando ser un método eficaz para la selección de atributos en datos textuales. De igual manera se pudo dar significado a los dos clústeres obtenidos, logrando identificar un concepto para cada clúster. Clúster 1: UE-G20-G77-MEC y clúster 2: Resto del mundo. Ello permitió establecer una relación directa entre los clústers.With the exponential increase in the amount of textual data available on the Internet from various sources such as: social networks, blogs/forums, websites, emails, online libraries, etc. It has made necessary the use of artificial intelligence in digital platforms, the application of parallel processing, deep learning and pattern recognition so that this information can be used by all kinds of models business, market research, marketing plans, political campaigns or making strategic decisions among others, in order to deal with competition and respond efficiently. This doctoral thesis is focused on developing a model that allows combine clustering, attribute selection and ontological methods for the semantic classification of text, which allows tructuring an applicable methodology in textual data sets to improve the automatic classification of text. The model proposed in this doctoral thesis is carried out following the following specific objectives: draft the status of the art related to the theme studied, conformation of a set of textual data extensive enough for the application of different data analysis techniques, development of a methodology for the semantic classification of textual data and evaluation of the results obtained. The methodology consisted of 9 stages, the first 5 (preprocessing, clustering, attribute selection, classification, and statistical test. Finally, 4 additional stages corresponding to ontological analysis (cluster validation, semantic analysis, interpretation, and relationship representation). Could determine that by doing SToWVector together with feature selection using the MOES wrapper (search strategy) and NaiveBayesMultinomial (evaluator) with ACC (metric), better results are obtained with the NaiveBayesMultinomial classifier than with other classification methods evaluated, in addition, the ENORA search method has been used and evaluated, proving to be an effective method for the selection of attributes in text data. In the same way, it was possible to give meaning to the two clusters obtained, managing to identify a concept for each cluster. Cluster 1: EU−G20−G77−MEC and cluster 2: Rest of the world. This allowed us to establish a direct relationship between the clusters

    Estudio de un sistema de clasificación automática de textos según las emociones del texto y el perfil de los autores

    Get PDF
    Debido al gran volumen de información que hay disponible en Internet se hace necesario el desarrollo de técnicas para la clasificación de esta información de manera automática. Además de las clasificaciones típicas que consisten en dividir los documentos a clasificar según su temática o su autor, por el gran uso que se hace hoy en día de herramientas como las redes sociales o los blogs y la cantidad de opiniones o críticas que los usuarios publican en ellos resulta interesante el estudio de sistemas que permitan clasificar todos estos textos publicados en Internet según el perfil de los autores o según las emociones que los textos expresan, ya que ello permitiría a los usuarios, por ejemplo, detectar los comentarios malos sobre un determinado producto que están interesados en adquirir. Este Proyecto Fin de Carrera estudiará los diferentes algoritmos de clasificación y las características del lenguaje que es necesario tener en cuenta para el desarrollo de un sistema de clasificación automática de textos según el sentimiento que expresan o según el perfil de los autores, así como las fases de las que consta el diseño de estos sistemas. Por último, se presentarán los resultados de algunos trabajos llevados a cabo en este campo por diferentes grupos de investigación.Due to the large amount of information available on the Internet nowadays it is necessary to develop new methods that allow to classify this documents automatically. In addition to the classical classifications that consist on classifying the documents according to its theme or author it is interesting to study new systems that allow to classify the texts that the users publish on social networks or blogs according to their age or genre or according to the sentiments that express their opinions on this texts. These systems would help the users for detecting bad reviews about a product they are interested in. The aim of this project is the study of the different classification algorithms and the language characteristics that are necessary for the development of an automatic texts classification system according to the sentiments of the texts and according to the author’s profile, as well as the different steps for the design of these systems. Finally, the results of some studies carried out in this field by different research groups will be presented.Ingeniería de Telecomunicació

    Creación de una base de conocimiento sobre fiabilidad industrial de utilidad profesional y académica

    Get PDF
    En este trabajo se ha creado una base de conocimiento sobre la fiabilidad industrial, tanto a nivel nacional como a nivel internacional. Para la obtención de la información, me he dirigido a la AEC (Asociación Española de la calidad), Scopus (una de las grandes bases de datos documentales internacionales y multidisciplinares), bases de datos del CSIC (Consejo Superior de Investigaciones Científicas) y Espacenet (Base de datos de patentes), para la gestión y estudio de los datos he usado el gestor “Analyze Scopus”, el programa Bibliometrix y la Clasificación Internacional de Patentes (CIT). Y por último, los gestores de referencias bibliográficas Mendeley y Zotero para la gestión de la bibliografía y la publicación de la base de datos
    corecore