2,354 research outputs found

    An Approach of a Personalized Information Retrieval Model based on Contents Semantic Analysis

    Get PDF
    En este trabajo se presenta una primera aproximación de un modelo de recuperación de información personalizada basado en el procesamiento semántico del contenido. El modelo propuesto reduce la sobrecarga de información innecesaria para los usuarios y mejora los resultados recuperados mediante la combinación de un procesamiento semántico de contenido aplicado a las consultas y documentos indexados, y la información de los perfiles de usuarios. La aplicabilidad de la propuesta fue evaluada en el contexto de un motor de búsqueda real, a través de consultas diseñadas por expertos en diferentes dominios y la medición de su rendimiento. Los resultados obtenidos fueron comparados con los del motor de búsqueda puesto a prueba, lográndose mejoras en cuanto a la precisión y exhaustividad.In this paper, an approach of a personalized information retrieval model based on the semantic processing of the content is proposed. The proposed model reduces the unnecessary information overload for users and improves the retrieval results through combining a content semantic processing applied to the queries and indexed documents, and information user processing from different perspectives. The applicability of the proposal was evaluated in the context of a real web search engine, through several queries designed by experts and associated to differents topics, and the measurement of their performance. The results were compared to those obtained by the search engine put to the test, achieving improvements the retrieval results.Este trabajo ha sido parcialmente financiado por el proyecto METODOS RIGUROSOS PARA EL INTERNET DEL FUTURO (MERINET), financiado por el Fondo Europeo de Desarrollo Regional (FEDER) y el Ministerio de Economía y Competitividad (MINECO), Ref. TIN2016-76843-C4-2-R

    OASEARCH: Modelo de aplicación basado en web semántica para la búsqueda de objetos de aprendizaje mediante perfilado de consultas

    Get PDF
    Uno de los aspectos que determina la calidad de un Sistema Educativo Basado en la Web es la manera en que este proporciona a los estudiantes los objetos de aprendizaje que mejor se adaptan a sus condiciones específicas -- Es por lo anterior que se hace necesario contar con mecanismos de búsqueda para estos objetos que puedan ser usados fácilmente por la aplicación o por los usuarios de la misma y que entreguen los resultados más relevantes posibles en un contexto determinado -- Múltiples mecanismos se han propuesto para la búsqueda de recursos digitales en la web -- El enfoque fundamental de recuperación de la información ha sido utilizado por muchos años con bastante éxito pero con el advenimiento de las tecnologías que componen lo que se conoce como La Web Semántica es posible definir nuevas representaciones para los datos que permiten obtener una mayor precisión y relevancia de los resultados obtenidos -- El presente documento presenta un nuevo enfoque para la construcción de motores de búsqueda para objetos de aprendizaje basado en La Web Semántica que se apoya en la definición previa o perfilado de consultas de una manera desacoplada de la aplicación -- Con este enfoque es posible construir Conceptos de Búsqueda que son especificados en una Ontología de Dominio de tal manera que luego puede ser utilizada por la aplicación para entregar sus resultados en un entorno distribuido de repositorios RDF que se basen en el estándar LOM para la descripción de metadato

    Semantic expansion of queries for web search (MSEC)

    Get PDF
    Internet has become the largest repository of human knowledge, and the amount of stored information increases day by day. This increase of information affects the levels of precision reported by Web search engines regarding  documents retrieved for the user. One strategy being used to address this problem is a focus on a personalized resource recovery. Several projects currently offer semantic methods for improving the relevance of search results  through the use of ontologies, natural language processing, knowledge based systems, query specification languages, and user profile, among others. Results are generally better than for web search engines that do not use these  techniques. However, the high cost of these improvements in precision relate to use of more complex algorithms in carrying out the search and which are more wasteful of computational resources. This article describes a semantic  query expansion model called MSEC, which is based mostly on the concept of semantic similarity, starting from domain ontologies and on the use of user profile in order to customize user searches so to improve their precision. In order to evaluate the proposed model, a software prototype was created. Preliminary experimental results show an improvement compared to the traditional web search approach. Finally the model was compared against the best  state of the art semantic search engine, called GoPubMed, for the MEDLINE collection. Internet se ha convertido en el mayor repositorio de conocimiento humano y la cantidad de información almacenada crece cada día más. Esto último repercute en el bajo nivel de precisión que reportan los sistemas de búsqueda Web respecto a los documentos que son recuperados para el usuario. Para enfrentar este problema, una de las estrategias utilizadas  es  la  recuperación  personalizada  de  recursos. Actualmente  existen  varios  proyectos  que  proponen  métodos semánticos para aumentar la relevancia de las búsquedas, a través del uso de ontologías, procesamiento de lenguaje natural, sistemas basados en conocimiento, lenguajes de especificación de consultas y perfil de usuario, entre otras. Los resultados generalmente son mejores que los obtenidos por  buscadores que no usan éstas técnicas.  Sin embargo, el costo que se paga por estas mejoras en precisión se centra en el uso de algoritmos más complejos en implementación y que consumen más recursos computacionales.  Este artículo describe un modelo semántico de expansión de consultas denominado MSEC, el cual está basado principalmente en el concepto de similitud semántica a partir de Ontologías de dominio y en el uso del perfil de usuario para personalizar las búsquedas y así mejorar la precisión de las mismas. Para evaluar el modelo propuesto se creó un prototipo software. Los resultados experimentales preliminares muestran una mejora respecto al enfoque tradicional de búsqueda. Finalmente se comparó con el mejor buscador semántico del estado del arte, llamado GoPubMed para la colección MEDLINE

    RETRIEVAL OF LEARNING OBJECTS IN REPOSITORIES: AN APPLICATION WITH SEMANTIC SEARCH

    Get PDF
    En los últimos años ha crecido el número de recursos educativos almacenados en repositorios de objetos de aprendizaje. Para su recuperación se usan generalmente métodos de búsqueda tradicionales de coincidencia de términos de consulta con los metadatos de los objetos de aprendizaje. La precisión en los resultados de búsqueda con estos métodos sigue siendo baja. En este sentido, este trabajo se enfocó en mejorar el indicador de precisión en las búsquedas, usando la técnica de Análisis Semántico Latente sobre los metadatos que describen el objeto de aprendizaje. Esta técnica permite aproximaciones por su significado. En el experimento realizado, se evidenció una mejora en la precisión en la búsqueda, a medida que se ingresaron más términos en la consulta. La implementación se puede extender a búsquedas de texto completo de objetos de aprendizaje textuales, si se tiene acceso al contenido textual completo del objeto de aprendizaje.PALABRAS CLAVES: Análisis Semántico Latente, LSA, objetos de aprendizaje, repositorios de objetos de aprendizaje, recuperación de información.In recent years, the number of educational resources stored in repositories of learning objects has increased. For recover them, generally traditional methods searching query terms that match the metadata of the learning objects are used. Precision in search results with these methods remains low. In this sense, this work focused on improving the precision indicator by applying Latent Semantic Analysis technique (LSA) over metadata that describe to learning object. This technique allows approximations for its meaning. In the experiment, it is shown an improvement in precision in the search, as more terms are entered in the query. The implementation could be extended to full-text searches of textual learning objects, if we have access to the full text of the learning object content.KEYWORDS: Latent Semantic Analysis, LSA, learning objects, learning object repositories, information retrieva

    Diseño de un modelo de recuperación de información usando expansión de consultas basadas en ontologías en el dominio de la ciencia de la computación

    Get PDF
    A lo largo de los años, y particularmente a partir de la aparición del Internet, se ha venido dando un aumento en la cantidad de información disponible para ser consultada por las personas. Sin embargo, la aparición de los sistemas de recuperación de información ha contribuido a facilitar la búsqueda de información para los usuarios, disminuyendo los tiempos invertidos en dicha búsqueda, y hasta cierto punto, mejorando la relevancia de la información recuperada. Sin embargo, se ha identificado que aún persisten algunos elementos que dificultan la obtención de resultados relevantes tales como características propias del lenguaje natural como ambigüedad, desconocimiento del usuario respecto a qué puede ser relevante para él, entre otros. Ante esto, en el presente proyecto se propone una alternativa de solución de forma tal que los documentos recuperados sean en mayor medida relevantes. Esta recuperación se tratará bajo el enfoque específico de la expansión de consultas, proceso para el cual se emplearán modelos de conocimiento como lo son las ontologías.Tesi

    Diseño de un modelo conceptual multi-dominio para recomendaciones mediante el filtrado de información semántica en los medios sociales

    Get PDF
    Actualmente los usuarios demandan, cada vez, y de manera más intensa, la búsqueda de distintos contenidos almacenados en la Web. Por un lado, existe una gran cantidad de información en la Web y en los medios sociales, esto es debido a la disponibilidad de información sobre los distintos productos, contenidos y servicios que pueden hacer que un usuario se sienta desbordado al intentar discriminar sobre qué producto, qué contenido o qué servicio cubre sus necesidades. Por otro lado, los Sistemas de Recomendación en las distintas áreas de aplicación son cada vez más frecuentes, ya que son útiles para valorar y filtrar esa gran cantidad de información que se encuentra disponible en la Web desde distintos paradigmas. La necesidad de hacer que los procesos de recomendación sean cada vez más claros, que satisfagan y cumplan con las expectativas de los usuarios ha supuesto una gran importancia al estudio relacionado con los distintos modelos formales semánticos existentes en los Sistemas de Recomendación aplicados en los medios sociales, además debido a que los usuarios utilizan la Web para publicar, editar y compartir sus contenidos. Por lo tanto, el uso de los distintos modelos formales semánticos para recomendaciones en los medios sociales facilitan la información y, a su vez, aportan un valor añadido al generar una representación del conocimiento sobre distintos dominios: además la información sirve de base para generar recomendaciones a partir de Sistemas de Recomendación a los distintos usuarios en la Web. La Web semántica posibilita la convergencia entre el uso y la interacción de las personas y los medio sociales, permitiendo crear una gran variedad de contenidos accesibles a las tecnologías semánticas de la Web, a las técnicas de aprendizaje y el filtrado de información. Además, si añadimos que existen las plataformas de comunicación social en la Web, que surgen ante la necesidad de ofrecer una mayor diversidad de información para proporcionar los diversos contenidos personalizados hacia los diferentes tipos de usuarios. Existen distintos modelos semánticos para Sistemas Basados en Conocimiento que pueden aplicarse en diferentes ámbitos multidisciplinarios, tales como, lenguaje natural, realidad virtual, redes neuronales, juegos masivos, sistemas expertos, robótica, sistemas de planeación, reconocimiento de imágenes, traductores, solución de problemas, sistemas evolutivos y el aprendizaje automático entre otros. Sin embargo, los modelos basados en conocimiento semántico en Sistemas de Recomendación para entornos de medios sociales aún no han sido completamente explotados, constituyendo un área de investigación abierta para la búsqueda de constantes soluciones en la información desde distintos dominios. Por lo tanto, esta investigación plantea el diseño de un nuevo modelo conceptual multi-dominio semántico para la representación del conocimiento sobre los distintos productos, marcas sus características y servicios ofertados en las redes sociales, a su vez, el modelo conceptual multi-dominio puede modelar y gestionar el conocimiento de diferentes perfiles de usuarios, productos y medios sociales caracterizados para distintos dominios, dentro de un contexto de servicios y productos que, sin cambiar sus conceptos principales, el modelo pueda ser aplicado a distintos dominios para la representación del conocimiento. Además de las hipótesis que marcaron las directrices de trabajo y los objetivos planteados, la presente tesis aporta el diseño del propuesto modelo. La metodología seguida para la elaboración de esta tesis, ha consistido en lo siguiente: 1. – Estudio del estado de la cuestión de la investigación. Dicho análisis permitirá conocer la originalidad y los recursos existentes en el área que se pretende abordar. 2. – Definición de un nuevo modelo conceptual multi-dominio basado en el conocimiento semántico. En paralelo al estudio del estado de la cuestión que permite conocer el estudio del problema y, que a su vez, facilita la definición del modelo. El modelo se desarrollará bajo una herramienta de modelado que facilita la gestión de los conceptos representados en el modelo y, un experto que facilita la interpretación de los datos. 3. – Extracción de datos semánticos basados en contenido estructurado, la información será extraída desde las fuentes de información almacenadas en la Web. 4. – Solución preliminar, dicha etapa nos permite conocer los primeros resultados y un primer comportamiento del modelado a partir de la extracción de datos. 5. – Diseño de un marco computacional. Dicha etapa será el desarrollo de un marco de trabajo basado en el modelo propuesto que integrará un Sistema Basado en Conocimiento, un Sistema de Recomendación, los datos semánticos basados en contenido estructurado semántico y la información que será extraída desde la Web. 6. – Validación y experimentación, en esta fase se ha comprobado las hipótesis planteadas en la investigación, además que el modelo desarrollado puede representar el conocimiento relativo al problema, aplicándolo a la representación del conocimiento para distintos dominios a partir de marco computacional desarrollado y, que a su vez es basado en conocimiento semántico y contenido estructurado. 7. – Verificación y análisis de los resultados. Tras la etapa de validación se estudian los resultados obtenidos que permiten comprobar la validez del modelo propuesto en esta investigación. El objetivo de esta valoración es generar conocimiento para diferentes dominios a partir del modelo conceptual, la información almacenada en el sistema sirve para la generación de recomendaciones a partir de un Sistema de Recomendación. Por último, se presentan las conclusiones extraídas de la etapa verificación y análisis de los resultados que permiten comprobar la validez del modelo y las herramientas propuestas para ésta investigación. 8. – Documentación. A lo largo de todo el proceso de elaboración de la tesis se ha generado la documentación que constituye la presente tesis doctoral. Las conclusiones del modelo conceptual multi-dominio abre nuevas posibilidades en el área de la Web semántica, Sistemas Basados en Conocimiento y los modelos formales semánticos pertenecientes al área de la Inteligencia Artificial, específicamente en la concepción y desarrollo de un nuevo modelo conceptual multi-dominio. Además, a partir del modelado de técnicas multi-dominio facilita la búsqueda de soliviones en la información, la toma de decisiones y el empleo de conocimiento especializado en diferentes dominios de aplicación de contenido estructurado y semántico, a su vez, generando información relevante sobre los gustos, necesidades y preferencias de los usuarios permitiendo generar recomendaciones a partir de un Sistema de Recomendación.Gracias al Consejo Nacional de Ciencia y Tecnología (CONACYT) y la Secretaría de Educación Pública (SEP) a través de PROMEP por conceder los recursos económicos para la realización de esta investigación. Asimismo, al proyecto "FLORA: Financial Linked Open Data-based Reasoning and Management for Web Science". (TIN2011-27405).Programa Oficial de Doctorado en Ciencia y Tecnología InformáticaPresidente: Antonio Bibiloni Coll.- Secretario: María Belén Ruiz Mezcua.- Vocal: Giner Alor Hernánde

    Modelado de sistemas multimedia para personalización y recomendación híbrida a partir del consumo audiovisual de los usuarios

    Full text link
    This doctoral thesis focuses on the modeling of multimedia systems to create personalized recommendation services based on the analysis of users’ audiovisual consumption. Research is focused on the characterization of both users’ audiovisual consumption and content, specifically images and video. This double characterization converges into a hybrid recommendation algorithm, adapted to different application scenarios covering different specificities and constraints. Hybrid recommendation systems use both content and user information as input data, applying the knowledge from the analysis of these data as the initial step to feed the algorithms in order to generate personalized recommendations. Regarding the user information, this doctoral thesis focuses on the analysis of audiovisual consumption to infer implicitly acquired preferences. The inference process is based on a new probabilistic model proposed in the text. This model takes into account qualitative and quantitative consumption factors on the one hand, and external factors such as zapping factor or company factor on the other. As for content information, this research focuses on the modeling of descriptors and aesthetic characteristics, which influence the user and are thus useful for the recommendation system. Similarly, the automatic extraction of these descriptors from the audiovisual piece without excessive computational cost has been considered a priority, in order to ensure applicability to different real scenarios. Finally, a new content-based recommendation algorithm has been created from the previously acquired information, i.e. user preferences and content descriptors. This algorithm has been hybridized with a collaborative filtering algorithm obtained from the current state of the art, so as to compare the efficiency of this hybrid recommender with the individual techniques of recommendation (different hybridization techniques of the state of the art have been studied for suitability). The content-based recommendation focuses on the influence of the aesthetic characteristics on the users. The heterogeneity of the possible users of these kinds of systems calls for the use of different criteria and attributes to create effective recommendations. Therefore, the proposed algorithm is adaptable to different perceptions producing a dynamic representation of preferences to obtain personalized recommendations for each user of the system. The hypotheses of this doctoral thesis have been validated by conducting a set of tests with real users, or by querying a database containing user preferences - available to the scientific community. This thesis is structured based on the different research and validation methodologies of the techniques involved. In the three central chapters the state of the art is studied and the developed algorithms and models are validated via self-designed tests. It should be noted that some of these tests are incremental and confirm the validation of previously discussed techniques. Resumen Esta tesis doctoral se centra en el modelado de sistemas multimedia para la creación de servicios personalizados de recomendación a partir del análisis de la actividad de consumo audiovisual de los usuarios. La investigación se focaliza en la caracterización tanto del consumo audiovisual del usuario como de la naturaleza de los contenidos, concretamente imágenes y vídeos. Esta doble caracterización de usuarios y contenidos confluye en un algoritmo de recomendación híbrido que se adapta a distintos escenarios de aplicación, cada uno de ellos con distintas peculiaridades y restricciones. Todo sistema de recomendación híbrido toma como datos de partida tanto información del usuario como del contenido, y utiliza este conocimiento como entrada para algoritmos que permiten generar recomendaciones personalizadas. Por la parte de la información del usuario, la tesis se centra en el análisis del consumo audiovisual para inferir preferencias que, por lo tanto, se adquieren de manera implícita. Para ello, se ha propuesto un nuevo modelo probabilístico que tiene en cuenta factores de consumo tanto cuantitativos como cualitativos, así como otros factores de contorno, como el factor de zapping o el factor de compañía, que condicionan la incertidumbre de la inferencia. En cuanto a la información del contenido, la investigación se ha centrado en la definición de descriptores de carácter estético y morfológico que resultan influyentes en el usuario y que, por lo tanto, son útiles para la recomendación. Del mismo modo, se ha considerado una prioridad que estos descriptores se puedan extraer automáticamente de un contenido sin exigir grandes requisitos computacionales y, de tal forma que se garantice la posibilidad de aplicación a escenarios reales de diverso tipo. Por último, explotando la información de preferencias del usuario y de descripción de los contenidos ya obtenida, se ha creado un nuevo algoritmo de recomendación basado en contenido. Este algoritmo se cruza con un algoritmo de filtrado colaborativo de referencia en el estado del arte, de tal manera que se compara la eficiencia de este recomendador híbrido (donde se ha investigado la idoneidad de las diferentes técnicas de hibridación del estado del arte) con cada una de las técnicas individuales de recomendación. El algoritmo de recomendación basado en contenido que se ha creado se centra en las posibilidades de la influencia de factores estéticos en los usuarios, teniendo en cuenta que la heterogeneidad del conjunto de usuarios provoca que los criterios y atributos que condicionan las preferencias de cada individuo sean diferentes. Por lo tanto, el algoritmo se adapta a las diferentes percepciones y articula una metodología dinámica de representación de las preferencias que permite obtener recomendaciones personalizadas, únicas para cada usuario del sistema. Todas las hipótesis de la tesis han sido debidamente validadas mediante la realización de pruebas con usuarios reales o con bases de datos de preferencias de usuarios que están a disposición de la comunidad científica. La diferente metodología de investigación y validación de cada una de las técnicas abordadas condiciona la estructura de la tesis, de tal manera que los tres capítulos centrales se estructuran sobre su propio estudio del estado del arte y los algoritmos y modelos desarrollados se validan mediante pruebas autónomas, sin impedir que, en algún caso, las pruebas sean incrementales y ratifiquen la validación de técnicas expuestas anteriormente

    Diseño de un sistema de recomendación usando algoritmos de aprendizaje máquina

    Get PDF
    Este trabajo está constituido por una sección inicial donde se presenta una breve introducción a la problemática de los sistemas de recomendación susceptibles a cold-start y pobre eficiencia ante el procesamiento de matrices dispersas. El objetivo principal de este trabajo es proponer y desarrollar un sistema de recomendación que incorpore contenido para solventar el problema del cold-start en los métodos de filtrado colaborativo, a la vez que permita una formulación e implementación con matrices dispersas para un procesamiento eficiente. En la sección de antecedentes se abordan los primeros enfoques de los sistemas de recomendación basados en filtrado y distribución de la información. También se incluye una revisión de los primeros modelos de filtrado colaborativo y una pequeña reseña de los sistemas de recomendación usados en algunas empresas. Se presenta un capítulo de marco teórico donde se explican los algoritmos para extracción de características, las formulaciones de sistemas de recomendación utilizados y la forma en que se calculan algunas de las métricas más usadas para evaluar los sistemas de recomendación. Se presenta el desarrollo del trabajo donde se explica a detalle cada paso realizado para la formulación e implementación de un sistema compuesto que integra dos enfoques, uno de filtrado colaborativo SVD y uno de contenido. Posteriormente se muestran los resultados de cada experimento realizado para validar el sistema de recomendación propuesto. Finalmente se presentan las conclusiones del trabajo. Los resultados demuestran que se resuelven de manera particular los objetivos de procesamiento de datos no estructurados y se aborda el problema del cold-start incorporando el contenido derivado de los datos no estructurados. Con el uso de un enfoque de matrices dispersas, la implementación resultante es modular y escalable.ITESO, A. C.Consejo Nacional de Ciencia y TecnologíaUnima Diagnóstico

    Estudio comparativo de herramientas para tareas de Procesamiento de Lenguaje Natural

    Full text link
    [ES] En este trabajo se analizarán y compararán diferentes herramientas de Procesamiento de Lenguaje Natural. En concreto se evaluarán los resultados obtenidos en las tareas de análisis de sentimiento y resumen automático. Para ello se uti- lizarán APIs de acceso gratuito y una librería. Las herramientas que se emplearán son MeaningCloud, Google Cloud Natural Language, Microsoft Azure Text Analytics y la librería sumy. Para el análisis de sentimiento se usarán los corpora de la competición TASS 2019, mientras que para el resumen automático emplearemos las respuestas a unas encuestas sobre aspectos a favor y a mejorar de varias asignaturas.[EN] In this paper, different natural language processing tools will be analyzed and compared. In particular, the results obtained in the tasks of sentiment analysis and automatic summarization will be evaluated. For this purpose, free access APIs and a library will be used. The tools that will be used are MeaningCloud, Google Cloud Natural Language, Microsoft Azure Text Analytics and the sumy library. For the sentiment analysis we will use the corpora of the TASS 2019 competition, while for the automatic summarization we will use the answers to a survey on the pro and to improve aspects of several subjects.[CA] En este treball s’analitzaran i compararan diferents eines de processament de llenguatge natural. En concret s’avaluaran els resultats obtinguts en les tasques d’anàlisi de sentiment i resum automàtic. Per a això s’utilitzaran APIs d’accés gratuït i una llibreria. Les eines que s’empraran són MeaningCloud, Google Cloud Natural Language, Microsoft Azure Text Analytics i la llibreria sumy. Per a l’anàlisi de sentiment s’usaran els corpora de la competició TASS 2019, mentres que per al resum automàtic emprarem les respostes a unes enquestes sobre aspectes a favor i a millorar de diverses assignatures.Díaz Roussel, N. (2020). Estudio comparativo de herramientas para tareas de Procesamiento de Lenguaje Natural. http://hdl.handle.net/10251/149603TFG

    Propuesta de un vocabulario de microdatos basado en Schema.org para la descripción semántica de publicaciones científicas y la mejora de su visibilidad en entornos abiertos del conocimiento

    Get PDF
    El uso de las tecnologías de la Web Semántica en la descripción de los contenidos publicados en la web con el fin de mejorar la recuperación de información es una realidad hoy en día, habiendo sido adoptadas de pleno por las principales instituciones y empresas de este campo. La web hace ya tiempo que es el medio principal de comunicación científica y los contenidos de las publicaciones científicas no pueden quedar al margen de esta tendencia y deben aprovecharse también de sus ventajas y deben adentrarse en el campo de la descripción semántica promovido por Shotton quien introduce el concepto de “Publicación Semántica". Este concepto engloba las pautas y recomendaciones para el enriquecimiento semántico, así como la propuesta de diferentes ontologías con las que describir publicaciones científicas y recursos bibliográficos. Nuestro trabajo tiene como objetivo proponer un vocabulario de microdatos basado en Schema.org que permita identificar y describir publicaciones científicas. Para elaborar la propuesta se han seguido las pautas marcadas por la comunidad Schema.org (promovida por los motores de búsqueda Google, Yahoo, Bing! y Yandex) y se ha confeccionado un listado de propiedades y términos (básicos y opcionales) que permiten la descripción semántica de los artículos, revistas, autores, estructura de artículos y referencias bibliográficas.  Como herramienta de descripción hemos utilizado microdatos debido a su gran auge y facilidad de implementación en la web y a que su uso favorece que los motores de búsqueda puedan inferir información y ser capaces de establecer relaciones entre documentos descritos semánticamente. El vocabulario propuesto facilita a los motores de búsqueda la tarea de recuperar documentos relevantes proporcionando mayor efectividad a las búsquedas. Además, la propuesta permitirá la descripción semántica integral de publicaciones científicas, abarcando desde aspectos formales como la estructura del documento a la justificación de las referencias bibliográficas contenidas
    corecore