4 research outputs found

    What Can Pictures Tell Us About Web Pages? Improving Document Search Using Images

    No full text

    Unsupervised Visual and Textual Information Fusion in Multimedia Retrieval - A Graph-based Point of View

    Full text link
    Multimedia collections are more than ever growing in size and diversity. Effective multimedia retrieval systems are thus critical to access these datasets from the end-user perspective and in a scalable way. We are interested in repositories of image/text multimedia objects and we study multimodal information fusion techniques in the context of content based multimedia information retrieval. We focus on graph based methods which have proven to provide state-of-the-art performances. We particularly examine two of such methods : cross-media similarities and random walk based scores. From a theoretical viewpoint, we propose a unifying graph based framework which encompasses the two aforementioned approaches. Our proposal allows us to highlight the core features one should consider when using a graph based technique for the combination of visual and textual information. We compare cross-media and random walk based results using three different real-world datasets. From a practical standpoint, our extended empirical analysis allow us to provide insights and guidelines about the use of graph based methods for multimodal information fusion in content based multimedia information retrieval.Comment: An extended version of the paper: Visual and Textual Information Fusion in Multimedia Retrieval using Semantic Filtering and Graph based Methods, by J. Ah-Pine, G. Csurka and S. Clinchant, submitted to ACM Transactions on Information System

    Detecci贸n y categorizaci贸n de objetos invariante y multivista en im谩genes digitales mediante visi贸n artificial bioinspirada.

    Get PDF
    344 p.Esta tesis se posiciona en el campo de la anotaci贸n autom谩tica de im谩genes dentro del 谩rea de investigaci贸n de la Visi贸n Artificial. El principal objetivo de este campo es generar etiquetas textuales para una imagen de tal forma que describan los objetos existentes en la imagen sin intervenci贸n humana.Esta tesis se basa en el modelo de vecinos m谩s cercanos para anotar de forma autom谩tica una imagen. La novedad de la tesis reside en la propuesta de una nueva implementaci贸n de los dos pasos principales de dicho modelo. En el primer paso, esta tesis propone el uso de las caracter铆sticas MPEG7 para describir la similitud entre im谩genes y propone un nuevo modelo de caracter铆sticas de textura basado en el cortex primario de un primate. Se ha comprobado como el algoritmo formulado es m谩s efectivo que la implementaci贸n propuesta por el est谩ndar pero tambi茅n es m谩s preciso que otros modelos de c贸rtex presentes en la literatura de neurociencia.En el segundo paso del modelo, esta tesis presenta un nuevo algoritmo para seleccionar las posibles etiquetas de una imagen dadas las im谩genes visualmente similares. La principal ventaja introducida poreste algoritmo es la combinaci贸n de informaci贸n textual de las etiquetas e informaci贸n visual de las im谩genes. Adicionalmente, esta tesis tambi茅n propone un nuevo algoritmo de entrenamiento que tiene el beneficio de ser r谩pido y adaptado a la tarea de anotaci贸n particular, por lo que es posible aplicarlo en tiempo de anotaci贸n
    corecore