3,305 research outputs found

    Prediction system for job and service requests in professional sectors

    Get PDF
    El presente trabajo presenta un sistema que predice peticiones de trabajos y servicios en formato de texto en categorías o sectores profesionales. Se realiza una comparativa de distintos algoritmos de Categorización Automática de Textos para evaluarlos y construir el sistema. El sistema forma parte de una aplicación web que intermedia entre particulares que demandan presupuestos sobre trabajos y profesionales que buscan clientes y ofertan servicios.System that predicts job requests and services in text format into categories or sectors. A comparison of different algorithms for Automatic Text Categorization is performed in order to build the final system. The system is part of a web application that mediates between individuals who demand estimates about jobs and professionals who seek clients and offer services

    De Python a Kubeflow

    Get PDF
    [EN] With the rapid advancement of technology development for various purposes, companies, institutions and even individuals are contracting computing capacity and storage in Cloud environments, which allow iterating any solution more quickly and efficiently, leaving such vital matters in the hands of the provider. how the maintenance of the infrastructure and its scalability. Providers such as AWS, GCP and Azure (United States) and to a lesser extent, OVH Cloud (Europe) have a large share of the market, offering solutions for practically any problem. Applications run in these environments are often replicated and scaled through virtualization and the use of containers. When the number of these containers (replicas of the same server or a web application, for example) becomes large, the use of some orchestration tool is essential, which allows managing, updating and scaling these containers in an organized and sustainable way. . For this purpose, the most widely used tool today is Kubernetes. On the other hand, many organizations, whether public (universities and research centers) or private (companies) are increasingly interested in deep learning, training neural networks (NN), which can have very varied functions. that allow them to solve the problems they face. The objective of the TFG is to take an evolutionary tour of the tools that can be used to train NN, analyzing the pros and cons of each one of them. Work environments will be created and executed that allow real tests to be carried out with each of the tools used. The database with which the NN will be trained will be that of the MNIST (database of handwritten digits), being initially implemented in Python. Throughout the dissertation, this approach will evolve through the use of libraries such as NumPy, Jupyter Notebooks, TensorFlow and Keras to make the environment that enables NN training more friendly, agile and effective. Once these tools have been analyzed, we will jump to the Cloud environment where we will be able to train the same network using KubeFlow, a set of tools that automates all the training steps using a K8S cluster as execution support. It will start with a local deployment using MiniKF, a tool that allows KubeFlow to be used on a local virtual machine or in a cloud environment. Finally, a real K8S cluster will be deployed on one of the previously mentioned providers and the Kubeflow toolset will be installed on said cluster. This open source tool will be compared with solutions from the cloud environment.[ES] El trabajo en el campo de la inteligencia artificial y específicamente en el del aprendizaje automático con las redes neuronales como punta de lanza, está cobrando más relevancia que nunca. La aparición de herramientas que emplean modelos entrenados como GPT-3 o GPT-4 han popularizado el uso de la inteligencia artificial a través de aplicaciones como ChatGPT o Claude. Dentro de este contexto y del avance futuro de campos como la IA generativa o el reconocimiento del lenguaje natural, se resalta la relevancia y el impacto de los recursos educativos que permiten introducir de forma eficaz y didáctica a cualquier ingeniero en estos temas. Siguiendo esta línea, el trabajo propuesto aborda el análisis, configuración y uso de tecnologías que permiten entrenar y poner a punto modelos de redes neuronales, de forma robusta, escalable y eficiente en recursos.[EN] The work in the field of artificial intelligence, specifically in machine learning with neural networks as the spearhead, is gaining more relevance than ever. The emergence of tools that employ trained models like GPT-3 or GPT-4 has popularized the use of artificial intelligence through applications like ChatGPT or Claude. Within this context and the future advancement of areas such as generative AI or natural language recognition, the significance and impact of educational resources that effectively and didactically introduce any engineer to these subjects are highlighted. Following this line, the proposed work addresses the analysis, configuration, and utilization of technologies that enable the training and fine-tuning of neural network models in a robust, scalable, and resource-efficient manner.Gutiérrez Villalba, S. (2024). De Python a Kubeflow. Universitat Politècnica de València. http://hdl.handle.net/10251/20315

    Hábitos y necesidades de la información de los científicos experimentales encuadrados en el área de ciencias de la vida

    Get PDF
    Se ha realizado un Estudio de Usuarios de los Cientificos españoles que trabajan en el área de las Ciencias de la Vida con el objeto de conocer sus características y su perfil, sus hábitos y sus necesidades de información. Para ello se han utilizado dos métodos de recogida de datos. Uno indirecto, estudiando el consumo de información que realizan, a través del análisis de más de 43.000 peticiones de información realizadas por este Centro de información y Documentación Cientifica (CINDOC) del CSIC, durante los años 1988-1993. El segundo fue un método directo, consistente en una encuesta por correo en la que como instrumento de recogida de datos se utilizó un cuestionario estructurado formado por 22 preguntas y un total de 114 ítems. La tasa de respuesta obtenida fue del 18,24%. Entre los principales resultados, destaca su capacidad de trabajar en equipo, y la existencia de una gran multidisciplinariedad curricular en su formación académica. En cuanto a sus necesidades de información, el tipo de documentado mayoritariamente utilizado fue el artículo de revista. Necesitan información procedente de muy diversas temáticas, mostraron un índice de aislamiento muy bajo, y casi toda la información que solicitaban estaba en inglés. Asimismo se observó una gran utilización de las bibliotecas para obtener información

    Estrategia de desarrollo de negocio para el producto Atos RTTF (Real Time Traffic Forecast)

    Get PDF
    El objetivo del presente proyecto de fin de máster es desplegar la estrategia de negocio completa, desde las declaraciones y premisas hasta la implantación y ejecución, para una solución novedosa de la compañía AtoS. Esta solución se denomina RTTF (Real Time Traffic Forecast), y sus objetivos principales, a alto nivel, son los siguientes: a) Conseguir unas mejores ciudades en la que vivir y trabajar. b) Realizar una gestión de tráfico proactiva para un uso de recursos de las ciudades optimizado. Nuestro planteamiento en este trabajo es, basado en las el módulo de estrategia del máster, diseñar un plan de negocio para desarrollar y potenciar la anterior solución. Para ello también necesitaremos herramientas de otros módulos del máster, como el de marketing, operaciones, o finanzas. Para ello, comenzaremos analizando el entorno desde el punto de vista de la posible receptividad al producto, así como de los posibles competidores, con objeto de posicionar de manera inicial nuestra solución, y reflexionar sobre si ese posicionamiento es el adecuado. Añadiendo también el estudio interno de la compañía y de la propia solución sobre la que versa el proyecto. El principal entregable del presente trabajo será un plan de negocio, con fechas, objetivos y un listado de clientes por orden de prioridad, con el objetivo final de desarrollar la solución

    Breve ensayo sobre crisis y relaciones industriales

    Get PDF

    Elaboración de un tesauro de información de actualidad y conversión en red semántica para su empleo en un sistema de recuperación periodístico.

    Get PDF
    RESUMEN Las experiencias iniciales con el motor de búsqueda e indización automática RetrievalWare en un centro de documentación de información de actualidad, demostraron que las asociaciones semánticas establecidas en el diccionario del sistema no ofrecían un rendimiento totalmente satisfactorio para este tipo de centros. La razón principal es la naturaleza de la red incorporada, elaborada a partir de un diccionario enciclopédico general. Por ello este trabajo plantea la posibilidad de adaptar un tesauro tradicional a las estructuras de diccionarios de este sistema y comparar el efecto de la utilización de un lenguaje controlado (tesauro) y una red semántica basada en unitérminos del lenguaje natural sobre una misma colección documental (base de datos Prensa) y sobre un sistema de recuperación basado en un motor de recuperación y de indización automática (RetrievalWare). Para conseguir este objetivo general ha sido necesario llevar a cabo la creación de un vocabulario controlado, un tesauro de información de actualidad; la conversión de las relaciones paradigmáticas de este tesauro en relaciones cuantitativas, de las que se emplean en redes semánticas, comprobar su funcionamiento y realizar una valoración paralela del rendimiento en la recuperación del tesauro construido y convertido en red semántica y de la red semántica prediseñada por los distribuidores de RetrievalWare. El plan de trabajo y la metodología correspondiente se ha dividido en tres fases, atendiendo a los objetivos planteados. La primera fase ha consistido en la selección y registro de términos. Las fuentes empleadas para la extracción de los términos han tenido en cuenta tanto el criterio de autoridad literaria como el criterio de autoridad del usuario. En la segunda fase se ha elaborado el tesauro con los términos seleccionados utilizando la base de datos relacional Access y en la última fase se han exportado, también mediante Access, los términos del tesauro a un informe compatible con la estructura de la red semántica de RetrievalWare. Para la comprobación automática de errores se han utilizado programas de gestión automática de tesauros. Posteriormente se han realizado pruebas del funcionamiento del nuevo tesauro incorporado como red y además se ha comparado su rendimiento con el diccionario establecido por el sistema. El estudio del rendimiento emplea a usuarios reales que expresan sus solicitudes de información y, posteriormente, juzgan la relevancia de los resultados obtenidos en los procesos de búsqueda, permitiendo el cálculo de exhaustividad y precisión de cada sistema

    Transformación digital de explotaciones apícolas

    Get PDF
    La actividad apícola está experimentando en los últimos años una importante expansión dentro de los principales países productores. Aumenta la demanda de calidad en los mercados externos, por lo que se hace necesario el desarrollo de estrategias para posicionarse competentemente en estos mercados y cumplir las normativas establecidas sobre productos de alimentación. La innovación tecnológica en el ámbito de la apicultura es cada vez más habitual en lo referente a maquinaría que facilita tareas físicas, pero es un campo muy poco explorado en cuanto al análisis y explotación de datos. Esta tendencia es cada vez más importante en la mayoría de ámbitos y organizaciones, no siendo así en el sector apícola. En este trabajo se pretende realizar un análisis de los factores teóricos claves en la actividad apícola, el cual nos sirva como base para el diseño de un sistema que permita mejorar los procesos y técnicas de explotación apícola, recogiendo las necesidades principales detectadas. Para poder llegar a desarrollar un sistema de calidad, es fundamental comprender el ámbito sobre el que se quiere actuar, los factores claves y cómo se relacionan. Este punto es una parte fundamental de este trabajo, sobre el cual se han establecido los requisitos funcionales y el diseño del sistema TI. Esta labor será completada con un estudio del mercado que de luz sobre la viabilidad del proyecto planteado, analizando a los usuarios potenciales, los competidores y procesos claves, entre otros aspectos. Además se establecerá un plan de ejecución para llevar a cabo dicha propuesta con éxito, definiendo estrategias de márquetin, promocionales y recursos necesarios

    Memoria de actividades: 2018

    Get PDF

    Informe anual 2020

    Get PDF
    corecore