8 research outputs found

    NovelCraft: A Dataset for Novelty Detection and Discovery in Open Worlds

    Full text link
    In order for artificial agents to successfully perform tasks in changing environments, they must be able to both detect and adapt to novelty. However, visual novelty detection research often only evaluates on repurposed datasets such as CIFAR-10 originally intended for object classification, where images focus on one distinct, well-centered object. New benchmarks are needed to represent the challenges of navigating the complex scenes of an open world. Our new NovelCraft dataset contains multimodal episodic data of the images and symbolic world-states seen by an agent completing a pogo stick assembly task within a modified Minecraft environment. In some episodes, we insert novel objects of varying size within the complex 3D scene that may impact gameplay. Our visual novelty detection benchmark finds that methods that rank best on popular area-under-the-curve metrics may be outperformed by simpler alternatives when controlling false positives matters most. Further multimodal novelty detection experiments suggest that methods that fuse both visual and symbolic information can improve time until detection as well as overall discrimination. Finally, our evaluation of recent generalized category discovery methods suggests that adapting to new imbalanced categories in complex scenes remains an exciting open problem.Comment: Published in Transactions on Machine Learning Research (03/2023

    Seleção de faces para reconhecimento facial em videovigilância

    Get PDF
    Orientador: Prof. Dr. Luciano SilvaDissertação (mestrado) - Universidade Federal do Paraná, Setor de Ciências Exatas, Programa de Pós-Graduação em Informática. Defesa : Curitiba, 17/08/2022Inclui referências: p. 61-66Área de concentração: Ciência da ComputaçãoResumo: A proposta do trabalho é o desenvolvimento de um módulo, dedicado à seleção da imagem da face mais representativa da identidade de pessoas, para fins de reconhecimento facial em sistemas de vigilância por vídeo de ambientes sem restrições. Em um sistema ideal de vigilância por vídeo com reconhecimento facial, uma das etapas fundamentais é a Seleção de Faces. A Seleção de Faces combina detecção, rastreamento e aferimento de qualidade de faces para encontrar, agrupar e filtrar, respectivamente, as faces nas sequências de vídeo de acordo com métricas de qualidade, como por exemplo: orientação do rosto e nitidez da imagem. Objetiva-se que o módulo proposto seja robusto aos desafios presentes nas sequências de vídeo obtidas por sistemas de vigilância, como: múltiplas faces, baixa resolução de captura, iluminação irregular e oclusões. Para a concretização da proposta, trabalhos similares foram estudados, criou-se um dataset complementar de vídeos com múltiplas faces anotadas em ambientes não controlados, e o sistema proposto por Barquero et al. (2021) foi designado como baseline. Diante de experimentação com diferentes modelos para detecção de faces, utilização da resolução como medida de qualidade, substituição da medida de nitidez e exploração aleatória de parâmetros, obteve-se um aumento de 10.1% na métrica de precisão multi objetos (MOTP) e 9% a mais na métrica de identificação IDF1.Abstract: This work’s proposal is the development of a module, dedicated to the selection of the most representative face image of people’s identities, for the purposes of facial recognition in video surveillance systems in unrestricted environments. In an ideal video surveillance system with facial recognition, one of the fundamental steps is Face Selection. Face Selection combines face detection, tracking and quality assessment to respectively find, group and filter faces in video sequences according to quality metrics such as face orientation and image sharpness. The goal is for the proposed module to be robust to the challenges present in video sequences obtained by surveillance systems, such as: multiple faces, low resolution, irregular lighting and occlusions. To carry out the proposal, similar works were studied, an additional video dataset with multiple annotated faces in uncontrolled environments was created, and the pipeline proposed by (Barquero et al., 2021) was chosen as a baseline. By means of experimentation with different face detection models, face resolution as an added quality measure, replacement of the baseline’s sharpness measurement approach and random parameter search, it was achieved an increase of 10.1% in Multiple Object Tracking Precision (MOTP) metric and 9% more in the IDF1 identification metric
    corecore