2,413 research outputs found

    Bases de datos avanzadas

    Get PDF
    Departament d' Enginyeria i Ciència dels Computadors. Codi d'assignatura: II5

    Razonamiento basado en casos (RBC) para toma de decisiones en proyectos de implementación de sistemas ERP utilizando jColibri

    Get PDF
    Propone un Modelo de Razonamiento Basado en Casos (RBC) que permita contar con información oportuna, ágil y confiable para la gestión del conocimiento y la toma de decisiones en proyectos de Implementación de Sistemas ERP. Para realizar el presente trabajo se utilizará la herramienta jColibri la cual es un armazón o Framework orientado a objetos que facilita la construcción de sistemas de razonamiento basado en casos (RBC). La implementación del modelo incrementa la calidad de la información y reduce los tiempos utilizados en solucionar los problemas de toma de decisiones de estos proyectos.Trabajo de suficiencia profesiona

    Usos de los llamados a publicar o Call for Papers en revistas científicas colombianas

    Get PDF
    It cannot be denied that the call for papers (CFP), used in a systematic way by the ‘predatory’ journals, are important for journals of excellence and second-class ones that turn to these announcements for their regular, themed and commemoratives editions. In this article we show the results of a survey carried out in 2016 to 199 editors of Colombian scientific journals of areas such as Natural Science, Engineering and Technology, Medical Sciences, Agricultural Sciences, Humanities, and Multidisciplinary Sciences. The 75% (143) of the studied journals have a biannual regularity. 37.7% (53) of the editors usually use the CFP announcements to call for articles for their regular editions. 30% (114) of the editors use the journal’s web page to issue their CFP announcements and 29.5% (111) use the e-mail. Nonetheless, 66 editors could not answer how effective were these announcements to draw articles, because they could not define the percentage of the material received that was finally published

    Estudio de herramientas para topic detección en comentarios y post de Facebook

    Get PDF
    Las redes sociales se han vuelto cada vez más importantes en los últimos años. Entre ellas destaca Facebook y Twitter, donde los usuarios comparten opiniones y otros contenidos de forma pública. Dichas redes contiene grandes cantidades de información oculta a simple vista. En este trabajo se pretende trabajar con datos obtenidos de Facebook y analizarlos para obtener información relevante (topics o palabras clave) y obtener conclusiones y quizás alguna idea que pueda adaptarse a Twitter. Para ello se va a hacer uso del análisis semántico, en pos de poder asociar los temas o noticias que dejan los usuarios sobre un tema o marca o comentarios de la propia empresa o marca en su cuenta oficial con temas más generales (o meta-topics). Cabe destacar que, aunque cada vez existe un mayor número de trabajos dedicados a analizar este tipo de redes, el análisis semántico (como el llevado a cabo en este trabajo) de textos es todavía escaso, siendo lo más cercano trabajos parecidos a este sobre las técnicas de Topic Detection. Dada la cantidad de información que se maneja hoy en día en los medios de comunicación y especialmente en la red, resulta imprescindible filtrar los datos que se obtienen (noticias, reflexiones u opiniones), para más tarde tratar toda esa información de la manera más adecuada, ordenarla y tenerla a disposición para sacar el máximo provecho de su contenido. Realizar todo este proceso sin ayuda de procesos automáticos sería costoso e imposible. Este trabajo realiza un estudio con diferentes herramientas para comprobar el rendimiento de ellas sobre la fuente de origen del texto, en este caso Facebook, y comprobar las diferencias o similitudes entre ellas.Social networks have become increasingly important in recent years time. Among them is Facebook and Twitter, where users share opinions and other public contents. These networks contain large amounts of information hiding in plain sight. In this project aims to work with data from Facebook and analyze them to obtain relevant information (topics or keywords) and get conclusions and perhaps some idea that can adapt to Twitter. To do this is to make use of semantic analysis in pursuit of associating topics or news that let users on a topic or brand or comments from the company or brand in their official has more general topics (or meta-topics ). Note that, although an increasing number of works devoted to analyzing such networks exist, semantic analysis (as done in this study) of texts is still rare, being the closest thing works like this on Topic Detection techniques. Given the amount of information used today in the media and especially in the network, it is essential to filter the data obtained (news, thoughts or opinions), later to treat all such information in the most appropriate way , order it and have it on hand to make the most of its contents. Perform this process without the help of automated processes would be expensive and impossible. This paper makes a study of different tools to check the performance of them on the source text, in this case Facebook, and check the differences or similarities between them.Ingeniería Técnica en Sistemas de Telecomunicació

    Indexación automática de vídeos de noticiarios mediante extracción de características visuales globales

    Full text link
    La motivación principal de este Trabajo de Fin de Máster ha sido desarrollar un sistema de indexación automática de vídeo, concretamente de programas informativos o noticiarios, destinado principalmente a agilizar el proceso de búsqueda de información de interés en vídeos almacenados en bases de datos, cuya dimensión se ha visto disparada en los últimos años con la gran cantidad de información en formato digital y accesible a través de Internet. Dado este elevado crecimiento en la información de vídeo disponible y dados los múltiples usos y aplicaciones en los que un sistema de este tipo tiene cabida, se trata de un campo de estudio en el que se investiga activamente. Por ello, el sistema propuesto de indexación de vídeo está basado en un amplio estado del arte, con numerosas implementaciones y diferentes técnicas usadas para dicho fin. El objetivo primordial perseguido durante la duración de este trabajo ha sido crear un algoritmo automático y generalista de indexación por medio de la extracción, análisis e indexado de características visuales globales, así como de la combinación de las mismas, de lo que puede llegar a obtenerse información muy relevante. Se ha buscado conseguir unos resultados razonables en las pruebas realizadas con los vídeos bajo estudio, aportando diferentes enfoques con los que establecer conclusiones. De igual modo, se han comentado los problemas inherentes a este tipo de implementaciones y, más en concreto, aquellas dificultades que han surgido durante el tiempo de trabajo. Finalmente, se han asentado las bases futuras en las que centrar los esfuerzos para corregir dichos problemas y crear, de esta manera, un sistema más robusto y eficiente.This Master Thesis has been motivated by the need to develop an automated video indexing system, specifically for news videos, mainly aimed at speeding up the process of finding relevant information in stored videos databases, whose dimension has been highly increased in recent years due to the quantity of raw video data in digital format and accessible by the Internet. Given the constant growth in available video information and given the multiple uses and approaches in which a system like this could be applied, it is currently being actively investigated in this field. This system based on video-indexing has a large state of the art, with numerous implementations and different techniques used for this purpose. The main target during the development of this Project has been to create an automated and general indexing algorithm by visual and global feature extraction and analysis, testing the algorithm with datasets of news videos, obtaining relevant information and providing some approaches to set conclusions. In the same way, the problems attached to this type of implementations have been explained and, in particular, the difficulties that have appeared throughout this work period. Finally, it has been established the main basis for future studies on how to correct these problems and create at the same time a more robust and efficient algorithm

    Gestión de recursos en nodos multi-core de memoria compartida

    Get PDF
    La gestión de recursos en los procesadores multi-core ha ganado importancia con la evolución de las aplicaciones y arquitecturas. Pero esta gestión es muy compleja. Por ejemplo, una misma aplicación paralela ejecutada múltiples veces con los mismos datos de entrada, en un único nodo multi-core, puede tener tiempos de ejecución muy variables. Hay múltiples factores hardware y software que afectan al rendimiento. La forma en que los recursos hardware (cómputo y memoria) se asignan a los procesos o threads, posiblemente de varias aplicaciones que compiten entre sí, es fundamental para determinar este rendimiento. La diferencia entre hacer la asignación de recursos sin conocer la verdadera necesidad de la aplicación, frente a asignación con una meta específica es cada vez mayor. La mejor manera de realizar esta asignación és automáticamente, con una mínima intervención del programador. Es importante destacar, que la forma en que la aplicación se ejecuta en una arquitectura no necesariamente es la más adecuada, y esta situación puede mejorarse a través de la gestión adecuada de los recursos disponibles. Una apropiada gestión de recursos puede ofrecer ventajas tanto al desarrollador de las aplicaciones, como al entorno informático donde ésta se ejecuta, permitiendo un mayor número de aplicaciones en ejecución con la misma cantidad de recursos. Así mismo, esta gestión de recursos no requeriría introducir cambios a la aplicación, o a su estrategia operativa. A fin de proponer políticas para la gestión de los recursos, se analizó el comportamiento de aplicaciones intensivas de cómputo e intensivas de memoria. Este análisis se llevó a cabo a través del estudio de los parámetros de ubicación entre los cores, la necesidad de usar la memoria compartida, el tamaño de la carga de entrada, la distribución de los datos dentro del procesador y la granularidad de trabajo. Nuestro objetivo es identificar cómo estos parámetros influyen en la eficiencia de la ejecución, identificar cuellos de botella y proponer posibles mejoras. Otra propuesta es adaptar las estrategias ya utilizadas por el Scheduler con el fin de obtener mejores resultados.La gestió de recursos en els processadors multi-core ha guanyat importància amb l'evolució de les aplicacions i arquitectures. Però aquesta gestió és molt complexa. Per exemple, una mateixa aplicació paral·lela executada múltiples vegades amb les mateixes dades d'entrada, en un únic node multi-core, pot tenir temps d'execució molt variables. Hi han múltiples factors del maquinari i programari que afecten el rendiment. La forma en què els recursos del maquinari (còmput i memòria) s'assignen als processos o threads, possiblement de diverses aplicacions que competeixen entre si, és fonamental per determinar aquest rendiment. La diferència entre fer assignació dels recursos sense conèixer la veritable necessitat de l'aplicació, amb una assignació amb un objectiu específic és cada vegada més gran. La millor manera de fer aquesta assignació és automàticament, amb una mínima intervenció del programador. És important destacar que, la forma en que l'aplicació s'executa en una arquitectura, no necessàriament és la més adequada; i aquesta situació pot millorar a través de la gestió adequada dels recursos disponibles. Una apropiada gestió de recursos pot oferir avantatges tant al desenvolupador de les aplicacions, a través d'una correcta abstracció en l'administració d'aquests recursos, així com a l'entorn informàtic on aquesta s'executa, permetent un major nombre d'aplicacions en execució amb la mateixa quantitat de recursos. Així mateix, aquesta gestió dels recursos no requeriria introduir canvis a l'aplicació, o a la seva estratègia operativa. Per tal de proposar polítiques per a la gestió dels recursos, es va analitzar el comportament de aplicacions intensives de còmput i intensives de memòria. Aquest anàlisi es va dur a terme a través de l'estudi dels paràmetres d'ubicació entre els cores, la necessitat d'usar la memòria compartida, la mida de la càrrega d'entrada, la distribució de les dades dins del processador i la granularitat de treball. El nostre objectiu és identificar com aquests paràmetres influeixen en l'eficiència de l'execució, identificar colls d'ampolla i proposar possibles millores. Una altra proposta és adaptar les estratègies ja utilitzades pel Scheduler amb la finalitat d'obtenir millors resultats.Resource management in Multi-core processors has become more important with the evolution of applications and architectures. However, this management is very complex. For example, the same parallel application running several times with the same input data in a single multi-core node, can have variable times of execution. There are many hardware and software factors that affect performance. The way that resources (computation and memory) are distributed among the processes or threads, possibly belonging to multiple applications that compete with each other, is crucial to determine its performance. The difference between doing this distribution of resources without knowing real application requirements and the distribution with a specific purpose is increasing. The best way to do this distribution is automatically, with minimal intervention from the programmer. It is important to emphasize that the way an application is executed on an architecture, is not necessarily the best and this situation can be improved by appropriate management of available resources. A proper management of resources can offer advantages to application developers, through a correct abstraction in the administration of these resources, as well as the computing environment where it runs, allowing a greater number of applications running with the same quantity of resources. Therefore, this resource management does not require changes in the application or in its execution. With the intention to propose policies for resource management, the behavior of intensive applications in computation and memory was analyzed. This analysis was done through the study of parameters location between the cores, necessity of using shared memory, the size of the load input, the distribution of data within the processor and the granularity of work. Our purpose is to identify how these parameters affect the efficiency of implementation, identify bottlenecks and propose possible improvements. Another proposal is to adapt the strategy already used by the Scheduler with the intention to obtain better results.A gestão de recursos nos processadores multi-core ganhou importância com a evolução das aplicações e arquiteturas. Porém esta gestão é muito complexa. Por exemplo, uma mesma aplicação paralela executando muitas vezes com os mesmo dados de entrada, em um único nó multi-core, pode ter tempos de execução muito variáveis. Existem muitos fatores de hardware e software que afetam este rendimento. A forma que os recursos (cômputo e memória) se distribuem entre os processos ou threads, possivelmente de várias aplicações que competem entre si, é fundamental para determinar o seu rendimento. A diferença entre fazer esta distribuição de recursos sem conhecer a verdadeira necessidade da aplicação, por uma distribuição com um objetivo específico é cada vez maior. A melhor maneira de fazer esta distribuição é automaticamente, com uma mínima intervenção do programador. É importante destacar, que a forma em que a aplicação se executa em uma arquitetura não é necessariamente a mais adequada, e está situação pode melhorar através da gestão adequada dos recursos disponíveis. Uma apropriada gestão dos recursos pode oferecer vantagens tanto para o desenvolvedor das aplicações, através de uma correta abstração na administração destes recursos, assim como o ambiente informático onde se executa, permitindo um maior numero de aplicações em execução com a mesma quantidade de recursos. Assim mesmo, esta gestão de recursos não requer introduzir mudanças na aplicação, ou na sua forma de execução. Com a intenção de propor políticas para a gestão de recursos, analisamos o comportamento de aplicações intensivas em cômputo e memória. Está análise foi feita através dos estudos dos parâmetros de localização entre os cores, a necessidade de uso da memória compartilhada, o tamanho da carga de entrada, a distribuição dos dados dentro do processador e a granularidade de trabalho. Nosso objetivo é identificar como estes parâmetros influem na eficiência da execução, identificar gargalos e propor possíveis melhoras. Outra proposta é adaptar a estratégia já utilizada pelo Scheduler com a intenção de obter melhores resultados

    Sistema de razonamiento basado en casos, para la mejora de atención de salud en un centro rural

    Get PDF
    Diseña un modelo de sistema utilizando el razonamiento basado en casos (RBC) como apoyo al médico, para diagnosticar enfermedades más comunes en pobladores de un centro rural, con la finalidad de paliar en parte las necesidades básicas de salud en aquellos lugares.Tesi

    Uso de técnicas IR para la generación dinámica de web sites

    Get PDF
    El campo de la informática referente a la Recuperación de Información, al cual nos referiremos a lo largo de la presentación de la tesis como “IR“ (Information Retrieval), es muy amplio, trata el almacenamiento automático y la recuperación de documentos de texto. Los sistemas de Recuperación de Información fueron originalmente desarrollados para ayudar en el manejo de la vasta literatura científica que se ha desarrollado desde 1940. Este es aún hoy el uso mas común de los sistemas IR. Al ser un campo no muy difundido entre la comunidad informática, nos pareció interesante desarrollar una tesis basada en la Recuperación de Información, con el propósito de no sólo investigar y presentar nuestras conclusiones y conocimientos sobre el tema , sino de llevar a cabo un desarrollo donde se pudieran aplicar las técnicas aprendidas y obtener resultados y evaluaciones sobre ellas. También nos pareció interesante la idea que el desarrollo pudiera ser de utilidad, es decir que una vez finalizado llegara a tener algún fin práctico. El objetivo será desarrollar un sistema capaz de extraer información de documentos conocidos como Cali For Papers (CFP), almacenar dicha información y a partir de consultas generar en forma dinámica páginas HTML con los resultados obtenidos, con el fin de facilitar a la comunidad de investigadores la presentación y planeamiento de sus trabajos. Los documentos CFP son invitaciones a participar en conferencias enviados por los organizadores (a través de Internet ya sea en forma particular o por medio de listas de interés), a una comunidad afín al tema de dicha conferencia. El objetivo es difundir el desarrollo de la misma e invitar a participar en ella mediante la presentación de papers. La gran cantidad de conferencias que se realizan ha provocado la existencia de un gran volumen de información referente a los llamados a conferencias. Con lo cual esta información se ha vuelto difícil de registrar y clasificar. La información sobre CFPs está desorganizada por no contar con una forma rápida y eficaz de clasificación y consulta de los mismos. Los autores de los CFPs muchas veces incluyen un pedido de disculpa en caso que el receptor reciba ese CFP más de una vez. La presentación del sistema a lo largo del desarrollo de esta tesis será acompañada por gráficos esquemáticos del mismo, los cuales se irán detallando cada vez más a medida que se van profundizando los temas . Estos esquemas vendrán acompañados con un número de nivel el cual representa el grado de detalle asociado. A medida que se incrementan los niveles significa que el esquema presenta un detalle más profundo con respecto al nivel anterior. De esta forma analizando los esquemas a lo largo de esta presentación se puede conocer el funcionamiento del sistema.Tesis digitalizada en SEDICI gracias a la colaboración de la Biblioteca de la Facultad de Informática.Facultad de Ciencias Exacta

    Uso de técnicas IR para la generación dinámica de web sites

    Get PDF
    El campo de la informática referente a la Recuperación de Información, al cual nos referiremos a lo largo de la presentación de la tesis como “IR“ (Information Retrieval), es muy amplio, trata el almacenamiento automático y la recuperación de documentos de texto. Los sistemas de Recuperación de Información fueron originalmente desarrollados para ayudar en el manejo de la vasta literatura científica que se ha desarrollado desde 1940. Este es aún hoy el uso mas común de los sistemas IR. Al ser un campo no muy difundido entre la comunidad informática, nos pareció interesante desarrollar una tesis basada en la Recuperación de Información, con el propósito de no sólo investigar y presentar nuestras conclusiones y conocimientos sobre el tema , sino de llevar a cabo un desarrollo donde se pudieran aplicar las técnicas aprendidas y obtener resultados y evaluaciones sobre ellas. También nos pareció interesante la idea que el desarrollo pudiera ser de utilidad, es decir que una vez finalizado llegara a tener algún fin práctico. El objetivo será desarrollar un sistema capaz de extraer información de documentos conocidos como Cali For Papers (CFP), almacenar dicha información y a partir de consultas generar en forma dinámica páginas HTML con los resultados obtenidos, con el fin de facilitar a la comunidad de investigadores la presentación y planeamiento de sus trabajos. Los documentos CFP son invitaciones a participar en conferencias enviados por los organizadores (a través de Internet ya sea en forma particular o por medio de listas de interés), a una comunidad afín al tema de dicha conferencia. El objetivo es difundir el desarrollo de la misma e invitar a participar en ella mediante la presentación de papers. La gran cantidad de conferencias que se realizan ha provocado la existencia de un gran volumen de información referente a los llamados a conferencias. Con lo cual esta información se ha vuelto difícil de registrar y clasificar. La información sobre CFPs está desorganizada por no contar con una forma rápida y eficaz de clasificación y consulta de los mismos. Los autores de los CFPs muchas veces incluyen un pedido de disculpa en caso que el receptor reciba ese CFP más de una vez. La presentación del sistema a lo largo del desarrollo de esta tesis será acompañada por gráficos esquemáticos del mismo, los cuales se irán detallando cada vez más a medida que se van profundizando los temas . Estos esquemas vendrán acompañados con un número de nivel el cual representa el grado de detalle asociado. A medida que se incrementan los niveles significa que el esquema presenta un detalle más profundo con respecto al nivel anterior. De esta forma analizando los esquemas a lo largo de esta presentación se puede conocer el funcionamiento del sistema.Tesis digitalizada en SEDICI gracias a la colaboración de la Biblioteca de la Facultad de Informática.Facultad de Ciencias Exacta
    corecore