31,719 research outputs found

    Esquemas de metadatos para los repositorios institucionales de las universidades nacionales argentinas

    Get PDF
    La creación de repositorios institucionales universitarios tuvo su auge en el mundo, alrededor del año 2000 motivado por la Declaración Internacional de Acceso Abierto, de Budapest. En la Argentina aparece el primer repositorio institucional en el contexto de una universidad nacional en el año 2002. A partir de ese momento hasta la actualidad se han creado otros en 15 universidades nacionales, por iniciativa en general, de bibliotecarios y otros profesionales. Tal como sucedió al iniciarse la automatización de las bibliotecas, la falta de modelos y políticas públicas llevó a que cada uno optase por seguir su criterio, basado en las necesidades y experiencias propias, pero alejados de la normalización, imprescindible para la interoperabilidad. La creación de bibliotecas digitales, requiere del uso de una serie de elementos novedosos e interrelacionados del mundo de la tecnología, tales como el uso de software específico, esquemas de metadatos, interacción a partir de equipos de trabajo y licencias de uso de los documentos digitales. Esta investigación se centrará en determinar cuáles son los esquemas de metadatos adecuados para realizar la descripción documental de los objetos depositados en los repositorios institucionales de las universidades nacionales argentinas.Fil: Testa, Patricia. Universidad Nacional de Cuyo. Facultad de Educación Elemental y Especial.Fil: Degiorgi, Horacio. Universidad Nacional de Cuyo. Facultad de Educación Elemental y Especial

    Diseño de un sistema de extracción de información de artículos de Wikipedia

    Get PDF
    El objetivo del presente proyecto es el diseño de un sistema de extracción automática de información a partir de grandes corpus de textos. Más concretamente, el desarrollo del proyecto se ha centrado en la búsqueda de información específica dentro de artículos de personajes contenidos en Wikipedia. El sistema diseñado tratará de establecer todas las relaciones posibles entre el artículo analizado y una serie de conceptos contenidos dentro del mismo (enlaces a otros artículos). Estas relaciones serán automáticamente clasificadas dentro de la categoría que se estime más adecuada (relación laboral, invención, lugar de residencia, etc.). La implementación del sistema combina el uso de distintas técnicas de Procesamiento de Lenguaje Natural (incluyendo herramientas de análisis morfológico, sintáctico y semántico), la potencia de PHP para el procesamiento de textos de gran tamaño y la flexibilidad de las expresiones regulares tipo Perl. ___________________________________________The objective of this project is the design of an Information Extraction (IE) system to gather specific information from large text files. Specifically, the design has focused on information search within Wikipedia articles about people. The designed system will try to establish all the possible relationships between the analyzed article and a series of concepts appearing in it (links to other articles). These relationships will be automatically classified in the most suitable category (laboral relationship, invention, place of residence, etc.). The implementation of the system combines the use of different techniques of Natural Language Processing (such as part-of-speech, syntactic and semantic analysis tools), the power of PHP to process large text files and the flexibility of Perl Compatible Regular Expressions.Ingeniería de Telecomunicació

    WSM : metodología de web scraping para Android y ejemplificación mediante la aplicación UPMDroid

    Get PDF
    En la realización de este proyecto se ha tratado principalmente la temática del web scraping sobre documentos HTML en Android. Como resultado del mismo, se ha propuesto una metodología para poder realizar web scraping en aplicaciones implementadas para este sistema operativo y se desarrollará una aplicación basada en esta metodología que resulte útil a los alumnos de la escuela. Web scraping se puede definir como una técnica basada en una serie de algoritmos de búsqueda de contenido con el fin de obtener una determinada información de páginas web, descartando aquella que no sea relevante. Como parte central, se ha dedicado bastante tiempo al estudio de los navegadores y servidores Web, y del lenguaje HTML presente en casi todas las páginas web en la actualidad así como de los mecanismos utilizados para la comunicación entre cliente y servidor ya que son los pilares en los que se basa esta técnica. Se ha realizado un estudio de las técnicas y herramientas necesarias, aportándose todos los conceptos teóricos necesarios, así como la proposición de una posible metodología para su implementación. Finalmente se ha codificado la aplicación UPMdroid, desarrollada con el fin de ejemplificar la implementación de la metodología propuesta anteriormente y a la vez desarrollar una aplicación cuya finalidad es brindar al estudiante de la ETSIST un soporte móvil en Android que le facilite el acceso y la visualización de aquellos datos más importantes del curso académico como son: el horario de clases y las calificaciones de las asignaturas en las que se matricule. Esta aplicación, además de implementar la metodología propuesta, es una herramienta muy interesante para el alumno, ya que le permite utilizar de una forma sencilla e intuitiva gran número de funcionalidades de la escuela solucionando así los problemas de visualización de contenido web en los dispositivos. ABSTRACT. The main topic of this project is about the web scraping over HTML documents on Android OS. As a result thereof, it is proposed a methodology to perform web scraping in deployed applications for this operating system and based on this methodology that is useful to the ETSIST school students. Web scraping can be defined as a technique based on a number of content search algorithms in order to obtain certain information from web pages, discarding those that are not relevant. As a main part, has spent considerable time studying browsers and Web servers, and the HTML language that is present today in almost all websites as well as the mechanisms used for communication between client and server because they are the pillars which this technique is based. We performed a study of the techniques and tools needed, providing all the necessary theoretical concepts, as well as the proposal of a possible methodology for implementation. Finally it has codified UPMdroid application, developed in order to illustrate the implementation of the previously proposed methodology and also to give the student a mobile ETSIST Android support to facilitate access and display those most important data of the current academic year such as: class schedules and scores for the subjects in which you are enrolled. This application, in addition to implement the proposed methodology is also a very interesting tool for the student, as it allows a simple and intuitive way of use these school functionalities thus fixing the viewing web content on devices

    Information systems focused on precision agricultural technologies applicable to sugar cane, a review

    Get PDF
    Los cultivos de caña de azúcar son una de las principales actividades económicas en Colombia, por ende son esenciales para el desarrollo agrícola del país. Además, las Tecnologías de la Información y las Comunicaciones (TIC) se han empezado a utilizar e implementar en todo el ciclo de vida del cultivo. Consiguientemente, las TIC son importantes al momento de definir sistemas basados en Agricultura de Precisión (AP), capaces de incrementar el rendimiento del cultivo y optimizar el uso de recursos económicos y de fertilizantes, entre otras funciones. Este artículo presenta una revisión acerca de sistemas de información basados en AP y aplicables a cultivos de caña de azúcar, haciendo énfasis en las tecnologías utilizadas, la gestión de datos y sus arquitecturas. Asimismo, se presenta la propuesta de los autores: un sistema de información integral de tres capas basado en AP, capaz de facilitar la optimización en distintas etapas del ciclo de vida de la caña de azúcar. El artículo concluye describiendo el trabajo futuro y el desarrollo de la implementación del sistema propuesto.Crops of sugar cane are one of the main economic activities in Colombia. Hence, this kind of crops is essential for the agricultural development of the country. Additionally, information and communication technologies (ICTs) are currently used and implemented throughout the entire life of the crop. Therefore, ICTs are important at the time of defining PA-based systems, capable of increasing crop efficiency and optimizing use of economic resources as fertilizers, water, and pesticides, among other functions. This article presents a review about the PA-based information systems applicable to sugar cane crops and making emphasis on technologies used, data management, and their architectures. Besides, the article makes a proposal of authors: a AP-based three-layer integral information system capable of facilitating optimization in different life stages of the sugar cane. This article concludes by describing the future work and the implementation of the system proposed

    Desarrollo de un sistema web para la generación automática de revisión de literatura, aplicando técnicas de inteligencia artificial

    Get PDF
    Desarrollar una aplicación web para el análisis y extracción de información relevante de artículos de investigación aplicando técnicas de análisis de texto e inteligencia artificial.Actualmente, la revisión de bases de datos bibliográficas en la comunidad científica y/o educativa es un proceso arduo que conlleva mucho tiempo y esfuerzo por parte del investigador, por ello muchas investigaciones tienden a tener bajo impacto, ya que poseen información poco relevante o deficiente. Para mitigar esto es muy importante identificar la información existente en la literatura que pueda contribuir para el desarrollo y éxito de cualquier investigación de calidad. El presente trabajo de titulación tiene como objetivo el desarrollo de una aplicación web que permita automatizar parte del proceso que se realiza en una revisión de literatura, enfocado principalmente en la generación de una matriz de conceptos a partir de artículos implementando técnicas de inteligencia artificial. Como primera parte se realizó una revisión bibliográfica referente al procesamiento y análisis de texto con el uso de inteligencia artificial, así como también algunos métodos que se podían utilizar para dar solución al problema. Previo al desarrollo del sistema se configuró el entorno de trabajo, en donde se usó Python como lenguaje de programación con el framework Flask, como motor de base de datos se utilizó MySQL y el IDE de Visual Studio Code. Para el desarrollo de la aplicación usamos la metodología Scrum, para lo cual se definió los roles, las historias de usuario y se planificó los distintos sprints hasta terminar con el desarrollo. Para la validación del sistema en general se aplicó una encuesta basada en el modelo de éxito de los sistemas de información planteado por Delone y MacLen en donde se evalúa la calidad del sistema, calidad de la información, calidad del servicio, uso, intención de uso, satisfacción de uso y los beneficios netos, de lo cual se obtuvo respuestas positivas con respecto al sistema.Ingenierí

    Construyendo un sistema de indexación y búsqueda de recursos georreferenciados

    Get PDF
    Comunicació presentada a les VI Jornadas SIG Libre celebrades a Girona, els dies 21, 22 i 23 de març de 2012La cantidad y variedad de recursos georreferenciados disponibles en la web crece día a día. Este hecho demuestra el interés de los usuarios y el papel fundamental que la información con contexto geográfico juega en la sociedad. Actualmente existen numerosos servicios Web especializados en tipos concretos de recursos como imágenes, video o texto que nos permiten realizar búsquedas en base a una localización. Por otra parte, de manera más formal, en el contexto de los Sistemas de Información Geográfica (SIG) se han realizado grandes esfuerzos en generar grandes catálogos de metadatos. Sin embargo, debido entre otros, a que la generación y publicación de metadatos es un proceso manual, existe una escasez de ellos y aún resulta complicado encontrar contenidos georreferenciados relevantes de una forma integrada y sencilla. Podemos tomar como referencia el mundo web, donde inicialmente era muy complicado encontrar los contenidos que eran relevantes. La revolución llego con los buscadores, empresas como Yahoo! o Google se dieron cuenta de las deficiencias del sistema y empezaron a recopilar ellos mismos información de cada recurso cuyos creadores dejaban accesible. Esta labor es realizada por los conocidos robots o crawlers, que se dedican a recorrer sistemáticamente los recursos disponibles con el fin de obtener de ellos el máximo de información (metadatos) que su tecnología les permite. En base a estos metadatos se podrán indexar los recursos de una forma más exacta y eficiente proporcionando resultados más relevantes y exactos a las búsquedas realizadas por los usuarios. Tal ha sido el éxito de estos buscadores que hoy es inimaginable la búsqueda de información y la navegación por la red sin acceder a alguno de estos servicios. Por ello, en este trabajo se presenta una primera aproximación para desarrollar un sistema de indexación y búsqueda de recursos georreferenciados. Mediante este sistema se pretende mejorar el descubrimiento y consecuentemente la accesibilidad a la información, nuestro objetivo inicial.Este trabajo ha sido parcialmente financiado por una beca predoctoral de la Universitat Jaume I (PREDOC/2008/06), por una ayuda de movilidad de la Fundació Caixa Castelló-Bancaixa (E-2011-12) y por el proyecto “España Virtual” (ref. CENIT 2008-1030) a través del Instituto Geográfico Nacional (IGN) de España

    Sistemas computacionales

    Get PDF
    Esta obra recoge las memorias de las VIII JORNADAS DE INVESTIGACIÓN – I INTERNACIONALES, SIMPOSIO “I SEMINARIO INTERNACIONAL DE SISTEMAS COMPUTACIONALES”, realizado en 2007, donde se presentaron los resultados alcanzados por el grupo de investigación ARKADIUS. Las temáticas de las ponencias de dicho evento cubren, un amplio espectro en el que se desarrollan aspectos como el procesamiento digital de video, análisis de fenómenos espacio-temporales, experimentos de laboratorio para la estimación de reglas de decisión en dinámica de sistemas, se presentan además pruebas de estrategias de aprendizaje para un sistema interactivo multimedial para la República Democrática del Congo, pruebas con el filtro Kalman para la estimación de estados de navegación, se muestra además un sistema de recuperación de imágenes de recursos amazónicos prototipo basado en contenido y en el manejo de la calidad, factores críticos de éxito a la asimilación ERP, la estimación de esfuerzo en proyectos de desarrollo de software, la segmentación de imágenes de rango aplicando mean shift y teoría bayesiana y un sistema de información para el etiquetado de discursos orales aplicado al nuevo sistema acusatorio penal.PRÓLOGO................11 Presentación..................13 Capítulo 1 ANÁLISIS DE FENÓMENOS ESPACIO-TEMPORALES: UN CASO DE ESTUDIO DE BROTES EPIDÉMICOS Francisco Javier Moreno A., Jaime Alberto Echeverri A. 1.1 INTRODUCCIÓN................ 15 1.2 FENÓMENOS A TRATAR................ 17 1.3 CARACTERIZACIÓN DE LOS FENÓMENOS................ 19 1.3.1 Forma inicial puntual............... 19 1.3.2 Forma inicial lineal................ 20 1.3.3 Forma inicial de región.................. 21 1.4 EJEMPLO DE APLICACIÓN................. 21 1.5 TRATAMIENTO DEL PROBLEMA..................25 1.6 CONCLUSIONES Y TRABAJOS FUTUROS.............. 31 Capítulo 2 EXPERIMENTOS DE LABORATORIO PARA LA ESTIMACIÓN DE REGLAS DE DECISIÓN EN DINÁMICA DE SISTEMAS Santiago Arango, Yris Olaya Ph.D. 2.1 MODELOS DE TOMA DE DECISIONES EN DINÁMICA DE SISTEMAS.................35 2.2 ESTIMACIÓN DE REGLAS DE DECISIÓN POR MEDIO DE EXPERIMENTOS DE LABORATORIO.................38 2.3 ¿QUÉ ES UN EXPERIMENTO DE LABORATORIO?.................. 39 2.3.1 Objetivo..................40 2.3.2 Sistema/restricciones..................41 2.3.3 Comportamiento................41 2.4 PROPÓSITO................. 42 2.5 TEORÍA DEL VALOR INDUCIDO.................43 2.6 PARALELISMO...............44 2.7 EXPERIMENTOS DE LABORATORIO PARA LA ESTIMACIÓN DE REGLAS DE DECISIÓN EN DINÁMICA DE SISTEMAS..................45 2.7.1 ¿Cómo se realiza un experimento de laboratorio en dinámica de sistemas? ..................46 2.8 CASOS DE APLICACIÓN.................47 2.8.1 Caso de aplicación 1..................48 Reglas de decisión en un modelo de simulación de ciclos económicos...............48 2.8.2 Caso de aplicación 2...................51 Reglas de decisión en un modelo de simulación de mercados eléctricos...................51 2.9 CONCLUSIONES..................54 Capítulo 3 PRUEBAS DE ESTRATEGIAS DE APRENDIZAJE PARA UN SISTEMA INTERACTIVO MULTIMEDIAL PARA LA REPÚBLICA DEMOCRÁTICA DEL CONGO (RDC) - AFRICA Diana Maria Montoya Quintero, Gilmar Rolando Anaguano Jimenez 3.1 INTRODUCCIÓN...................59 3.2 ALCANCE DEL SISTEMA...................60 3.3 ESTÁNDARES DE CALIDAD DEL SISTEMA..................63 3.4 CURSOS VIRTUALES DE APRENDIZAJE APOYADO POR LA TEORIA DE BLENDED LEARNING...................64 3.5 APLICACIÓN DE BLENDED LEARNING EN EL AULA....................66 3.6 ¿POR QUÉ USAR BLENDED LEARNING?..................67 3.7 RESULTADOS Y DISCUSIONES................68 3.8 EL MODELO CONSTRUCTIVISTA EN LA EDUCACIÓN APOYADO POR LOS MAPAS CONCEPTUALES................70 3.9 ¿PORQUÉ USAR LOS MAPAS CONCEPTUALES?.................72 3.10 APLICACIÓN DE LOS MAPAS CONCEPTUALES EN EL AULA..................74 3.11 ACTIVIDADES REALIZADAS..................75 3.12 RESULTADOS Y CONCLUSIONES...................77 Capítulo 4 PREFILTRAJE DE VARIABLES EN FILTRO KALMAN PARA LA ESTIMACIÓN DE ESTADOS DE NAVEGACIÓN Carlos Alberto Ramírez Behaine, Jairo Miguel Vergara Díaz 4.1 INTRODUCCIÓN...................81 4.2 PLANTEAMIENTO DEL PROBLEMA....................83 4.3 FUNDAMENTACIÓN TEÓRICA....................83 4.4 PROPUESTA IMPLEMENTADA....................85 4.5 RESULTADOS...................87 4.6 CONCLUSIONES....................89 Capítulo 5 SISTEMA DE RECUPERACIÓN DE IMÁGENES DE RECURSOS AMAZÓNICOS PROTOTI PO BASADO EN CONTENIDO Y EN EL MANEJO DE LA CALIDAD Jaime Alberto Echeverri Arias, Bell Manrique Losada, Francisco Javier Moreno Arboleda, Laura Marcela Hoyos, John Fernández 5.1 INTRODUCCIÓN..................91 5.2 DESCRIPCIÓN DEL PROBLEMA...................92 5.3 ESTADO DEL ARTE................94 5.3.1 Control de calidad en sistemas de búsqueda en la web................94 5.3.2 Técnicas de recuperación de imágenes en colecciones digitales................97 5.4 MÓDULO DE EXTRACCIÓN DE CARACTERÍSTICAS................99 5.5 MANEJO DE LA CALIDAD....................100 5.6 SELECCIÓN Y DEFINICIÓN DE CRITERIOS.....................101 5.7 ALGORITMO DE CLASIFICACIÓN..................103 5.8 RESULTADOS.....................106 5.9 CONCLUSIONES......................108 Capítulo 6 ESTIMACIÓN DE ESFUERZO EN PROYECTO S DE DESARROLLO DE SOFTWARE. UN NUEVO MODELO PARA ESTIMACIÓN TEMPRANA Ana Lucía Pérez, Liliana González, Juan Felipe Maillane Tabares 6.1 INTRODUCCIÓN....................111 6.2 TÉCNICAS PARA LA ESTIMACIÓN DEL ESFUERZO DE ACUERDO CON EL TAMAÑO DEL PRODUCTO SOFTWARE...................113 6.3 ANÁLISIS DE PUNTOS FUNCIÓN....................113 6.4 PROCESO PARA EL CÁLCULO DE PUNTOS FUNCIÓN....................114 6.5 PUNTOS CARACTERÍSTICA...................125 6.6 PROCESO PARA EL CÁLCULO DE PUNTOS CARACTERÍSTICA.....................126 6.7 PUNTOS DE CASOS DE USO....................128 6.8 PUNTOS OBJETO....................134 6.9 UN NUEVO MÉTODO PARA CALCULAR EL ESFUERZO EN ETAPAS TEMPRANAS..................138 6.10 RESULTADOS DEL “MODELO DE CAPACIDAD”....................147 6.11 CONCLUSIONES.....................148 Capítulo 7 PROCESAMIENTO DIGITAL DE VÍDEO UTILIZANDO HERRAMIENTAS DE MATLAB® Jaime Alberto Echeverri Arias, Jairo Miguel Vergara Díaz, Luis Eduardo Naspiran Herrera, Luis Fernando Morales 7.1 INTRODUCCIÓN...................151 7.2 ANÁLISIS DEL PROBLEMA.................152 7.3 DESARROLLOS PRÁCTICOS...................156 7.4 CAPTURA DE VÍDEOS E IMÁGENES.....................156 7.5 DIVISIÓN POR TIEMPO...................158 7.6 OPERACIONES GEOMÉTRICAS..................159 7.7 OPERACIONES DE REALCE SOBRE UN VÍDEO................160 7.8 CONCLUSIONES..................161 Capítulo 8 FACTO RES CRÍTICOS DE ÉXITO A LA ASIMILACIÓN ERP Gladis Cecilia Villegas - Ph.D., Lillyana María Giraldo - Magíster 8.1 INTRODUCCIÓN...................165 8.2 DEFINICIÓN..................166 8.3 ANÁLISIS INDUSTRIAL................166 8.4 COMPARACIÓN DE LAS FUNCIONALIDADES DE LOS DOS PRODUCTOS LÍDER (SAP AG Y ORACLE Corporation)....................168 8.5 JUSTIFICACIÓN PARA LA ADQUISICIÓN DE UNA SOLUCIÓN ERP.................173 8.6 LOS EFECTOS DE LA INVERSIÓN..................175 8.7 FACTORES CRÍTICOS DE ÉXITO....................177 8.8 CONCLUSIÓN...................17

    Revisión sistemática para las técnicas de minería Web de contenido

    Get PDF
    Trabajo de InvestigaciónDeterminar las principales técnicas empleadas de minería web que permiten realizar minería de contenido, con el fin de facilitar la búsqueda de información en bases documentales. Para ello se llevó a cabo una revisión sistemática de la información documentada en medios arbitrados en el período 2014 – 2018, empleando las bases documentales Redalyc, Scielo, Scopus, IEEEXplore, Google Scholar y Web of ScienceINTRODUCCIÓN 1. GENERALIDADES 2. DEFINICIÓN DE LOS CRITERIOS DE BÚSQUEDA DE ARTÍCULOS SOBRE MINERÍA DE CONTENIDO EN LA WEB 3. IDENTIFICACIÓN DE LAS TÉCNICAS QUE HAN SIDO EMPLEADAS PARA REALIZAR MINERÍA DE CONTENIDO EN LA WEB 4. CARACTERIZACIÓN DE LAS PRINCIPALES TÉCNICAS QUE HAN SIDO EMPLEADAS PARA REALIZAR MINERÍA DE CONTENIDO EN LA WEB 5. CONCLUSIONES 6. RECOMENDACIONES BIBLIOGRAFÍA ANEXOSPregradoIngeniero de Sistema

    Normalización de información de servicios requeridos para Sistemas de Información Geográficos

    Get PDF
    La amplia difusión del proceso de desarrollo basado en componentes, en particular en el dominio de aplicaciones geográficas, ha generado el surgimiento de una gran cantidad y variedad de componentes software orientados a satisfacer las necesidades de los desarrolladores. En este contexto, uno de los principales inconvenientes encontrados al desarrollar aplicaciones mediante reuso de componentes, consiste en la localización de aquellos más adecuados a un requerimiento o conjunto de requerimientos en particular. A esto se denomina proceso de selección de componentes, que incluye dos actividades principales: la oferta de componentes disponibles para reuso y la demanda de servicios a ser satisfechos por la interface de los componentes ofertados. Nuestra propuesta consiste en una mejora al proceso de demanda mediante la estandarización de la especificación de requerimientos o servicios orientándolos a la búsqueda de componentes, en particular para el dominio de aplicaciones geográficas. Para ello se trabaja sobre la normalización de los requerimientos, categorizándolos según información estándar para servicios geográficos. Así, en esta Tesis se define en primer lugar, una Taxonomía de Servicios Geográficos. Luego, se propone una metodología para extraer conocimiento a partir de los casos de uso y categorizar esos requerimientos en clases de servicios geográficos. Por último, se describe la herramienta ReqGIS, la cual automatiza la metodología señalada anteriormente.The wide-spread use of component based development processes, particularly in geographic application domain, has caused the appearance of a great number and variety of software components oriented to satisfying developers’ needs. In this context, one of the main difficulties when developing applications with software reuse is discovering the most suitable components to a particular requirement. This activity is known as selection process, which includes two main activities: offering reusable components and requiring services to be satisfied by the components’ interfaces. Our proposal suggests improving the requiring process by standardizing the software requirement specification, and making requirements more suitable for searching suitable components, particularly for the geographic application domain. To do so, we work on requirement normalization, classifying requirements according to standard information for geographic services. In this Thesis, we firstly define a Geographic Service Taxonomy. Then, we propose a methodology to extracting knowledge from use cases, so requirements could be classified as normalized geographic services. Finally, we describe the ReqGIS tool, which supports the normalization process.Facultad de Informátic

    Técnicas inteligentes de recuperación y análisis de la información

    Get PDF
    corecore