64 research outputs found

    Evaluación de la producción científica mediante motores de búsqueda académicos y de acceso libre

    Get PDF
    [EN] The evaluation of scienti c production or, more speci cally the evaluation of the productivity of a scientist, ever since the start of the publishing of research results, has not been a simple task. The human being, in his nature of quantifying everything, has developed through time varied metrics and methodologies to count the fruits of the research work and communicating it to the scienti c community. Any task that carries a measure brings a set of techniques, tools, formulas and rules to assure the objectivity of the given results.[ES] La evaluación de la producción cientí ca o especí camente la evaluaci ón de la productividad de un cientí co, ha sido desde que se iniciaran las publicaciones de los resultados de la investigación, una tarea nada sencilla. El ser humano en su naturaleza de cuanti carlo todo, ha desarrollado a lo largo del tiempo, variadas métricas y metodologías para contabilizar los frutos del trabajo de la investigación y comunicarlo a la comunidad cientí ca. Cualquier tarea que implique una medida lleva consigo el empleo de un conjunto de técnicas, herramientas, fórmulas y reglas para asegurar la objetividad de los resultados arrojados

    Filtrado basado en contenido para artículos académicos en repositorios institucionales

    Get PDF
    La mayor parte del tiempo, los investigadores deben filtrar varios documentos académicos para encontrar aquellos relevantes para su investigación. Este filtrado muchas veces es engorroso y requiere emplear una considerable cantidad de tiempo. En la búsqueda de este tipo de material resulta útil contar con un listado de objetos relacionados no sólo con la temática buscada, sino también material que pueda estar relacionado semánticamente con el objeto de la búsqueda. Sería deseable contar con este tipo de funcionalidad en los repositorios institucionales, por esta razón en este trabajo se realiza una comparación de técnicas de filtrado basadas en el contenido semántico (Term Frequency – Inverse Document Frequency (TF-IDF), Latent Semantic Indexing/Latent Semantic Analysis (LSI/LSA) y Word Mover's Distance (WMD)) de una búsqueda realizada, como una propuesta para un sistema de recomendación de material académico empleando como conjunto de datos los registros almacenados en un repositorio institucional. Los resultados propuestos por dichas técnicas fueron evaluados de forma manual y comparados contra los resultados arrojados por el propio motor de búsqueda del repositorio y por los resultados entregados por Google Scholar. El esquema planteado mejora en gran medida los resultados actuales.XIX Workshop Agentes y Sistemas Inteligentes (WASI)Red de Universidades con Carreras en Informática (RedUNCI

    Enfoque híbrido para la correcta identificación de autores en bases de datos bibliográficas de libre acceso: el caso de Google Scholar

    Get PDF
    En una Base de Datos Bibliográfica (BDB) un autor puede tener varios nombres y varios autores pueden compartir el mismo nombre simplemente debido a abreviaturas, nombres idénticos o errores ortográficos en las publicaciones. Esto puede producir ambigüedad en el nombre que puede afectar la atribución de créditos y cálculo de indicadores. La falta de normalización es muy común sobre todo en las BDB de libre acceso, Google Scholar (GS) es un claro ejemplo de ello. Aquí se presenta un enfoque para desambiguar los nombres de autor a partir de un conjunto de publicaciones provenientes de GS. Se propone un enfoque híbrido basado en redes de coautoría y reglas heurísticas para la detección de agrupaciones de autores más frecuentes. Los resultados preliminares evidencian la factibilidad del enfoque propuesto.Sociedad Argentina de Informátic

    Calidad en repositorios digitales en Argentina, estudio comparativo y cualitativo

    Get PDF
    Son numerosas las instituciones y entidades que necesitan no solo preservar el material y las publicaciones que producen, sino también, estas tienen como tarea (sería deseable que sea una obligación) publicar, divulgar y poner a disposición del público los resultados de la investigación y cualquier otro material científico-académico. Para este propósito existen los repositorios de libre acceso, que a través de iniciativas como la Open Archives Initiative (OAI) y de la aparición de instrumentos como el protocolo Open Archives Initiative Protocol for Metada Harvesting (OAI-PMH), facilitan esta tarea en gran medida. El objetivo principal de este trabajo es realizar un estudio comparativo y cualitativo de los datos, específicamente los metadatos, contenidos en el conjunto total de repositorios argentinos que se encuentran listados en el portal ROAR, centrándose en la perspectiva funcional de la calidad de dichos metadatos, otro objetivo es ofrecer un panorama general del estado de dichos repositorios en un intento de detectar las faltas y errores comunes que incurren las instituciones al almacenar los metadatos de los recursos contenidos en estos repositorios y así poder sugerir medidas tendientes a mejorar los procesos de carga y posterior recuperación. Se encontró que los ocho campos Dublin Core más utilizados son: identifier, type, title, date, subject, creator, language y description . No todos los repositories cumplimentan todos los campos, además la falta de normalización o el uso desmedido de campos como language, type, format y subject es un tanto llamativa y en algunos casos alarmante.Numerous institutions and organizations need not only to preserve the material and publications they produce, but also have as their task (although it would be desirable it was an obligation) to publish, disseminate and make publicly available all the results of the research and any other scientific/academic material. The Open Archives Initiative (OAI) and the introduction of Open Archives Initiative Protocol for Metadata Harvesting (OAI-PMH), make this task much easier. The main objective of this work is to make a comparative and qualitative study of the data -metadata specificallycontained in the whole set of Argentine repositories listed in the ROAR portal, focusing on the functional perspective of the quality of this metadata. Another objective is to offer an overview of the status of these repositories, in an attempt to detect common failures and errors institutions incur when storing the metadata of the resources contained in these repositories, and thus be able to suggest measures to be able to improve the load and further retrieval processes. It was found that the eight most used Dublin Core fields are: identifier, type, title, date, subject, creator, language and description. Not all repositories fill all the fields, and the lack of normalization, or the excessive use of fields like language, type, format and subject is somewhat striking, and in some cases even alarming.Eje: Visibilidad e interoperabilidad.Ibero-American Science and Technology Education Consortium (ISTEC

    Filtrado basado en contenido para artículos académicos en repositorios institucionales

    Get PDF
    La mayor parte del tiempo, los investigadores deben filtrar varios documentos académicos para encontrar aquellos relevantes para su investigación. Este filtrado muchas veces es engorroso y requiere emplear una considerable cantidad de tiempo. En la búsqueda de este tipo de material resulta útil contar con un listado de objetos relacionados no sólo con la temática buscada, sino también material que pueda estar relacionado semánticamente con el objeto de la búsqueda. Sería deseable contar con este tipo de funcionalidad en los repositorios institucionales, por esta razón en este trabajo se realiza una comparación de técnicas de filtrado basadas en el contenido semántico (Term Frequency – Inverse Document Frequency (TF-IDF), Latent Semantic Indexing/Latent Semantic Analysis (LSI/LSA) y Word Mover's Distance (WMD)) de una búsqueda realizada, como una propuesta para un sistema de recomendación de material académico empleando como conjunto de datos los registros almacenados en un repositorio institucional. Los resultados propuestos por dichas técnicas fueron evaluados de forma manual y comparados contra los resultados arrojados por el propio motor de búsqueda del repositorio y por los resultados entregados por Google Scholar. El esquema planteado mejora en gran medida los resultados actuales.XIX Workshop Agentes y Sistemas Inteligentes (WASI)Red de Universidades con Carreras en Informática (RedUNCI

    Agentes inteligentes para recuperación de información y analítica visual en big data

    Get PDF
    La creciente cantidad de datos generados en la web es cada vez más evidente y preocupante. El procesamiento y análisis de dichos datos en forma manual resulta una tarea realmente ardua, más aún, si la tendencia es que la mayoría de esos datos sean semi-estructurados o no-estructurados. Por ello las herramientas para trabajar con grandes datos ofrecen una alternativa viable para tal propósito, pero un par de cuestiones a resolver y que poco se habla al hablar de Big Data son: primero el origen de los datos, cómo, cuándo y dónde realizar la búsqueda y extracción de estos, y segundo que hacer con los datos una vez procesados, es decir, de qué modo presentárselos al usuario final. Este proyecto se enfoca por un lado en el diseño e implementación de agentes inteligentes capaces de recuperar información de medios digitales, para luego ser procesados mediante técnicas de Procesamiento del Lenguaje Natural y Aprendizaje Automático que permitan entregar información relevante y relacionada a diferentes ámbitos del conocimiento. Y por otro lado, el segundo enfoque es el tratamiento de la información masiva tanto desde el punto de vista de la representación visual como del de la interacción, a través de interfaces visuales que permitirán sintetizar información y derivar insight de los mismos.Eje: Agentes y Sistemas Inteligentes.Red de Universidades con Carreras en Informátic

    A Graph Theory of Rook Placements

    Get PDF
    Two boards are rook equivalent if they have the same number of non-attacking rook placements for any number of rooks. Define a rook equivalence graph of an equivalence set of Ferrers boards by specifying that two boards are connected by an edge if you can obtain one of the boards by moving squares in the other board out of one column and into a singe other column. Given such a graph, we categorize which boards will yield connected graphs. We also provide some cases where common graphs will or will not be the graph for some set of rook equivalent Ferrers boards. Finally, we extend this graph definition to the mm-level rook placement generalization developed by Briggs and Remmel. This yields a graph on the set of rook equivalent singleton boards, and we characterize which singleton boards give rise to a connected graph.Comment: 15 pages, 9 figure

    Web Mining y Text Mining : Enfoques avanzados para analizar el contenido de grandes cantidades de información

    Get PDF
    A medida que aumenta la cantidad de información contenida y disponible en la web, analizarla, descubrir patrones y conocimiento informativo demanda grandes cantidades de tiempo. Los buscadores y los motores de bases de datos pueden facilitar en parte la tarea de encontrar contenido adecuado, pero en sitios web grandes, donde los resultados de las búsquedas se cuentan por miles o decenas de miles es necesario aplicar enfoques avanzados que permitan relacionar el contenido buscado de algún modo. Este trabajo plantea la aplicación de técnicas de Web Mining y Text Mining para procesar grandes cantidades de información de sitios web de noticias para ofrecer contenido relevante y relacionado a partir de una búsqueda inicial. Una de las técnicas a emplear será el modelado temático, que permitirá por un lado conocer los distintos temas o tópicos que tratan estas noticias y por otro lado, una vez identificados los conjuntos de temas, hallar las diversas interrelaciones entre ellos. Esto permitirá describir y analizar de un modo objetivo la información ofrecida por este tipo de portales. Del mismo modo, este trabajo también plantea el estudio y análisis de sitios web de avisos clasificados, de manera de caracterizar por un lado la oferta de inmuebles y por otro la demanda de perfiles para distintos puestos de trabajo.Eje: Bases de Datos y Minería de Datos.Red de Universidades con Carreras en Informátic

    Análisis de relaciones intra-institucionales e interdisciplinares de una universidad a partir de la producción registrada en Microsoft Academic: el caso de la Universidad Nacional de La Plata

    Get PDF
    El objetivo del trabajo es conocer las relaciones de colaboración entre investigadores y/o grupos de investigación de una misma institución, separando por áreas del conocimiento, empleando metodologías e indicadores de análisis de redes sociales. El estudio se realizará aplicado al caso de la producción científicoacadémica de la Universidad Nacional de La Plata indexada en el buscador académico Microsoft Academic. Se tomará una muestra del corpus total que corresponde a los registros con año de creación entre 2010-2019. Se analizará la colaboración entre científicos a partir de un estudio descriptivo de las redes de coautoría que existen entre ellos y se realizará un análisis textual de las relaciones entre los temas y ámbitos de investigación. Los resultados permitirán reflejar los vínculos entre investigadores de las mismas o distintas áreas y conocer los niveles de interdisciplinariedad y relaciones entre unidades de investigación en la producción científico-académica de la institución. Con el trabajo no solo se espera contribuir al conocimiento de las relaciones de colaboración intra-institucionales e interdisciplinares, sino también mostrar el uso de este tipo de base de datos bibliográfica como fuente de datos para este tipo de estudios métricos y de análisis de redes sociales.Eje: Base de Datos y Minería de Datos.Red de Universidades con Carreras en Informátic

    Motor de búsqueda semántico de contenido académico en repositorios digitales bajo el protocolo OAI-PMH

    Get PDF
    A menudo las búsquedas de material académico que uno realiza no son del todo acertadas o no son tan exactas como uno quiere. Los resultados ofrecidos por los motores de búsqueda dependen en gran medida de los mecanismos internos utilizados y de los algoritmos de ordenación, tal es el caso de Google Scholar que emplea el Page Rank (Page, Brin, Motwani, & Winograd, 1999) para ordenar los resultados. Por otro lado, los repositorios digitales institucionales carecen de un buscador de material relacionado, puesto que los resultados de las búsquedas se basan en la existencia de algunos de los términos buscados en los campos de metadatos de los registros almacenados. Por esta razón, este proyecto propone la construcción de un metarepositorio que recolecte todos los registros de los repositorios digitales argentinos pertenecientes a instituciones educativas que implementan el protocolo Open Archives Initiative Protocol for Metada Harvesting y que permita realizar búsquedas semánticas de contenido relacionado a partir de una búsqueda inicial.Eje: Agentes y Sistemas Inteligentes.Red de Universidades con Carreras en Informátic
    • …
    corecore