5 research outputs found

    A Frame Work for Geometrical Structure Anomaly Detection Model

    Full text link
    The growth of Internet offers quality and convenience to human life, but at the same time provides a platform for hackers and criminals. The Internet security hence becomes an important issue. Intrusion Detection System (IDS) is designed to detect intrusion and also to prevent a system from being compromised. In this paper, we present a novel Geometrical Structure Anomaly Detection (GSAD) model. GSAD employs pattern recognition techniques previously used in human detection [2}

    A modified Mahalanobis distance for human detection in out-door environments

    Full text link
    This paper proposes a novel method for human detection from static images based on pixel structure of input images. Each image is divided into four parts, and a weight is assigned to each part of the image. In training stage, all sample images including human images and non-human images are used to construct a Mahalanobis distance map through statistically analyzing the difference between the different blocks on each original image. A projection matrix will be created with Linear Discriminant Method (LDM) based on the Mahalanobis distance map. This projection matrix will be used to transform multidimensional feature vectors into one dimensional feature domain according to a pre-calculated threshold to distinguish human figures from non-human figures. In comparison with the method without introducing weights, the proposed method performs much better. Encouraging experimental results have been obtained based on MIT dataset and our own dataset. © 2008 IEEE

    Intrusion detection using geometrical structure

    Full text link
    We propose a statistical model, namely Geometrical Structure Anomaly Detection (GSAD) to detect intrusion using the packet payload in the network. GSAD takes into account the correlations among the packet payload features arranged in a geometrical structure. The representation is based on statistical analysis of Mahalanobis distances among payload features, which calculate the similarity of new data against precomputed profile. It calculates weight factor to determine anomaly in the payload. In the 1999 DARPA intrusion detection evaluation data set, we conduct several tests for limited attacks on port 80 and port 25. Our approach establishes and identifies the correlation among packet payloads in a network. © 2009 IEEE

    Moving Objects Detection in Video Sequences

    Get PDF
    Tato práce se zabývá metodami detekce osob a sledování objektů ve video sekvenci. Její součástí je také návrh a implementace systému, který provádí detekci a následné sledování hráčů v záznamu sportovního utkání, např. hokeje nebo basketbalu. Navržená aplikace používá kombinaci histogramu orientovaných gradientů a SVM (support vector machines) pro detekci hráčů v obraze. Pro sledování hráčů je použit částicový filtr. Celý systém je důkladně otestován a výsledky jsou uvedeny přehledně v grafech a tabulkách včetně slovního popisu.This thesis deals with methods for the detection of people and tracking objects in video sequences. An application for detection and tracking of players in video recordings of sport activities, e.g. hockey or basketball matches, is proposed and implemented. The designed application uses the combination of histograms of oriented gradients and classification based on SVM (Support Vector Machines) for detecting players in the picture. Moreover, a particle filter is used for tracking detected players. The whole system was fully tested and the results are shown in the graphs and tables with verbal descriptions.

    Progetto ed applicazioni di metodi per l'analisi della qualità delle immagini

    Get PDF
    2010/2011L’analisi della qualità dell’immagine rappresenta attualmente un ambito di ricerca estremamente interessante ed innovativo per quanto riguarda molteplici settori di applicazione, dal multimediale, al biomedico, al forense. Trattare l’argomento in modo esaustivo si presenta quindi particolarmente complesso poiché, a seconda della particolare tipologia di applicazione, possono essere definiti di conseguenza diversi criteri per esprimere la qualità dell’immagine in analisi e diverse categorie di algoritmi per la determinazione di criteri di valutazione. Nel presente lavoro di tesi, si vuole cercare di dare un quadro sufficientemente ampio ed originale di quali possano essere stime efficaci della qualità di un’immagine, in particolare all’interno di una sequenza video ed in fase di studio di nuovi sistemi multimediali ad alta qualità, e con tale termine intendendo la qualità percepita dall’utente finale del sistema: parliamo quindi di qualità soggettiva, argomento ancora più circostanziato nel campo di studio individuato. Frequentemente, in tale ambito, le analisi di qualità, o più specificatamente di artefatti riconducibili a stime effettuate, vengono implementate in relazione a codifiche video proprie di standard avanzati: esempio tipico è rappresentato dalle applicazioni di algoritmi di qualità a possibili configurazioni di codifica previste dallo standard H264. Determinati tipi di codifiche, comprendono già nella catena di elaborazione del video la presenza di specifici stadi atti a ridurre determinati artefatti da codifica, fra cui citiamo la blochettatura, che in qualche modo è possibile prevedere soprattutto in caso di “bit rate” di trasmissione particolarmente bassi e corrispondenti ad una maggiore perdita di informazione, almeno nella maggior parte dei casi. Proprio per questo motivo decidiamo di rivolgerci allo studio di una seconda tipologia di artefatto, estremamente rilevante dal punto di vista percettivo ma non ancora così analizzato, ovvero la sfocatura: questa non è facilmente riconducibile ad una singola causa, come appunto la codifica, ed è per questo che misurazioni in tal senso vanno effettuate su più caratteristiche dell’immagine in analisi. La misurazione di sfocatura che proponiamo in questo lavoro è costituita infatti da differenti componenti, in modo da poter ricondurre a ciascun tipo di analisi sfocature dalle caratteristiche diverse ed imputabili a cause di natura differente. Una prima misurazione a livello globale riguarda in particolare una stima in percentuale dell'area dell'immagine in esame interessata da un basso indice di contrasto, calcolato secondo formule note e nel rispetto di quanto percepito da un osservatore. Una seconda misurazione di tipo globale rileva invece il deterioramento o addirittura l'assenza di dettaglio fine, imputabile ad es. ad artefatto da codifica in modo abbastanza tipico. Alle misurazioni di sfocatura precedentemente illustrate, diviene necessario affiancare altre considerazioni di tipo percettivo, riconducibili a modelli del sistema visivo umano, proprio per raggiungere una valutazione soggettivamente coerente anche in assenza di immagini di riferimento per effettuare la stima di qualità. È necessario infatti valutare diversamente l’entità dell’artefatto a seconda delle caratteristiche a livello locale della zona dell’immagine in cui si manifesta. All’interno dell’immagine in analisi, grazie a modelli già accettati dalla comunità scientifica, è possibile determinare, quale sia la regione e/o gli oggetti focalizzati immediatamente dall’attenzione di un osservatore umano. Si decide quindi di abbinare procedure di determinazione di aree di “spot of attention” a procedure di estrazione degli oggetti presenti in una scena, in modo da distinguerne quelli così detti “in primo piano”. Ciò comporta in particolare l’integrazione di modelli del sistema visivo umano con un opportuno algoritmo di segmentazione, sperimentalmente coerente con quanto percepito a livello della scena in termini di regioni estratte. Il frame viene segmentato in regioni dalle caratteristiche omogenee e coerenti con la cognizione dell’osservatore ed in un secondo momento, vengono selezionate fra le regioni individuate quelle che soddisfano i criteri scelti di rilevanza percettiva. A valle di tutte queste considerazioni, sintetizziamo le misurazioni e le informazioni percettive rilevate per identificare la presenza e classificare la tipologia di sfocatura presente in una determinata immagine. Vengono descritte le caratteristiche delle diverse tipologie di sfocatura di interesse per il presente lavoro e in quale modo possono essere riconosciute e quantificate seguendo la traccia di analisi finora descritta: in particolare, vengono riconosciute la sfocatura nativa, estesa in ampie zone dell’immagine e prodotta da cattiva acquisizione o volutamente introdotta dall’operatore, e quella da codifica. In presenza di sfocatura da codifica, vediamo come ne siano particolarmente affetti i bordi degli oggetti presenti nella scena e non particolarmente netti, così come le tessiture ed altri dettagli fini. Tessiture e dettaglio fine corrispondono infatti a rapide variazioni di intensità ma di ampiezza contenuta, per questo la trasformata DCT e la quantizzazione successiva propria della codifica penalizzano soprattutto tali frequenze più elevate. Basandoci su queste osservazioni, viene proposta una tecnica per la stima locale della sfocatura grazie all’analisi dei bordi e del dettaglio nella componente di luminanza dell’immagine. Questo è possibile ricorrendo all’utilizzo di un operatore, ovvero la diffusione anisotropa, che si rivela particolarmente adatto a simulare gli effetti della sfocatura da identificare, in modo da capire se questa ha già avuto effetto sull’immagine di test o meno. L’efficacia della metrica proposta nella stima della sfocatura viene quindi sperimentalmente analizzata. Per prima cosa i “frame” vengono raggruppati secondo criteri oggettivi, come ad esempio la presenza di sfocatura e la sua origine, esaminando la corrispondenza fra il valore calcolato della metrica e la categoria oggettiva del “frame” in esame. Successivamente, viene studiata la relazione fra metrica e stima complessiva di qualità, confrontata con giudizi di osservatori umani, sempre in relazione alla tipologia di sfocatura corrispondente. Si procede quindi con una seconda fase sperimentale atta a verificare la validità soggettiva delle considerazioni fatte in caso di sfocatura da codifica analizzata a livello locale e confrontata con valutazioni percettive. Diversi risultati sperimentalmente ottenuti vengono presentati nel capitolo dedicato. Per completare lo studio proposto, infine, si analizza brevemente altre possibili applicazioni di algoritmi di analisi della qualità dell’immagine, diversi dal principale ambito di analisi riguardante la multimedialità. In particolare, uno dei settori che maggiormente sta acquisendo importanza in termini di ricerca riguarda proprio le applicazioni alle scienze forensi, con le problematiche ad essa relative e prevalentemente inerenti il miglioramento della qualità dell’immagine finalizzata e/o preventiva al riconoscimento di volti e tracce contenute nell’immagine in esame, da sottoporre ad un operatore esperto o ad un algoritmo di riconoscimento automatico. Una prima analisi di qualità dell’immagine da sottoporre a riconoscimento può rappresentare quindi un importante passo da eseguire preventivamente ad altri tipi di operazioni, anche per ottenere una stima di attendibilità di quanto poi effettuabile in termini di miglioramento e riconoscimento: in corrispondenza ad un basso livello di qualità, corrispondente a tracce realmente rilevate sulla scena del crimine, viene proposto infine un algoritmo di riconoscimento rivolto a un tipo di tracce molto specifico, ovvero quelle di calzatura, che si dimostra particolarmente robusto al rumore e particolarmente adatto a lavorare sul caso reale, come metodologia indipendente o in combinazione con algoritmi già esistenti nello stato dell’arte.XXIV Ciclo197
    corecore