284 research outputs found
Elephant Flows Detection Using Deep Neural Network, Convolutional Neural Network, Long Short Term Memory and Autoencoder
Currently, the wide spreading of real-time applications such as VoIP and
videos-based applications require more data rates and reduced latency to ensure
better quality of service (QoS). A well-designed traffic classification
mechanism plays a major role for good QoS provision and network security
verification. Port-based approaches and deep packet inspections (DPI)
techniques have been used to classify and analyze network traffic flows.
However, none of these methods can cope with the rapid growth of network
traffic due to the increasing number of Internet users and the growth of real
time applications. As a result, these methods lead to network congestion,
resulting in packet loss, delay and inadequate QoS delivery. Recently, a deep
learning approach has been explored to address the time-consumption and
impracticality gaps of the above methods and maintain existing and future
traffics of real-time applications. The aim of this research is then to design
a dynamic traffic classifier that can detect elephant flows to prevent network
congestion. Thus, we are motivated to provide efficient bandwidth and fast
transmision requirements to many Internet users using SDN capability and the
potential of Deep Learning. Specifically, DNN, CNN, LSTM and Deep autoencoder
are used to build elephant detection models that achieve an average accuracy of
99.12%, 98.17%, and 98.78%, respectively. Deep autoencoder is also one of the
promising algorithms that does not require human class labeler. It achieves an
accuracy of 97.95% with a loss of 0.13 . Since the loss value is closer to
zero, the performance of the model is good. Therefore, the study has a great
importance to Internet service providers, Internet subscribers, as well as for
future researchers in this area.Comment: 27 page
Neural networks for Medical decision. Reti Neurali per la diagnosi in medicina
Presentazione del modello biologico del neurone, modello artificiale affine Funzioni di attivazione e composizione di reti a partire da singolo neurone Presentazione di metodologie per addestrare la rete, con processo di apprendimento analizzato: error correction e supervised.
Presentazione algoritmo specifico back-propagation e suo uso per classificazione Applicazione rete neurale in campo medico, per classificare pazienti colpiti da infarto non acuto e valutare risk stratificatio
Weakly and Partially Supervised Learning Frameworks for Anomaly Detection
The automatic detection of abnormal events in surveillance footage is still a concern of the
research community. Since protection is the primary purpose of installing video surveillance systems, the monitoring capability to keep public safety, and its rapid response to
satisfy this purpose, is a significant challenge even for humans. Nowadays, human capacity has not kept pace with the increased use of surveillance systems, requiring much
supervision to identify unusual events that could put any person or company at risk, without ignoring the fact that there is a substantial waste of labor and time due to the extremely
low likelihood of occurring anomalous events compared to normal ones. Consequently,
the need for an automatic detection algorithm of abnormal events has become crucial in
video surveillance. Even being in the scope of various research works published in the last
decade, the state-of-the-art performance is still unsatisfactory and far below the required
for an effective deployment of this kind of technology in fully unconstrained scenarios.
Nevertheless, despite all the research done in this area, the automatic detection of abnormal events remains a challenge for many reasons. Starting by environmental diversity, the
complexity of movements resemblance in different actions, crowded scenarios, and taking into account all possible standard patterns to define a normal action is undoubtedly
difficult or impossible. Despite the difficulty of solving these problems, the substantive
problem lies in obtaining sufficient amounts of labeled abnormal samples, which concerning computer vision algorithms, is fundamental. More importantly, obtaining an extensive set of different videos that satisfy the previously mentioned conditions is not a
simple task. In addition to its effort and time-consuming, defining the boundary between
normal and abnormal actions is usually unclear.
Henceforward, in this work, the main objective is to provide several solutions to the
problems mentioned above, by focusing on analyzing previous state-of-the-art methods
and presenting an extensive overview to clarify the concepts employed on capturing normal and abnormal patterns. Also, by exploring different strategies, we were able to develop new approaches that consistently advance the state-of-the-art performance. Moreover, we announce the availability of a new large-scale first of its kind dataset fully annotated at the frame level, concerning a specific anomaly detection event with a wide diversity in fighting scenarios, that can be freely used by the research community. Along with
this document with the purpose of requiring minimal supervision, two different proposals
are described; the first method employs the recent technique of self-supervised learning
to avoid the laborious task of annotation, where the training set is autonomously labeled
using an iterative learning framework composed of two independent experts that feed
data to each other through a Bayesian framework. The second proposal explores a new
method to learn an anomaly ranking model in the multiple instance learning paradigm by
leveraging weakly labeled videos, where the training labels are done at the video-level. The
experiments were conducted in several well-known datasets, and our solutions solidly outperform the state-of-the-art. Additionally, as a proof-of-concept system, we also present the results of collected real-world simulations in different environments to perform a field
test of our learned models.A detecção automática de eventos anómalos em imagens de videovigilância permanece
uma inquietação por parte da comunidade científica. Sendo a proteção o principal
propósito da instalação de sistemas de vigilância, a capacidade de monitorização da segurança pública, e a sua rápida resposta para satisfazer essa finalidade, é uma adversidade
até para o ser humano. Nos dias de hoje, com o aumento do uso de sistemas de videovigilância, a capacidade humana não tem alcançado a cadência necessária, exigindo uma
supervisão exorbitante para a identificação de acontecimentos invulgares que coloquem
uma identidade ou sociedade em risco. O facto da probabilidade de se suceder um incidente ser extremamente reduzida comparada a eventualidades normais, existe um gasto
substancial de tempo de ofício. Consequentemente, a necessidade para um algorítmo de
detecção automática de incidentes tem vindo a ser crucial em videovigilância. Mesmo
sendo alvo de vários trabalhos científicos publicados na última década, o desempenho
do estado-da-arte continua insatisfatório e abaixo do requisitado para uma implementação eficiente deste tipo de tecnologias em ambientes e cenários totalmente espontâneos
e incontinentes. Porém, apesar de toda a investigação realizada nesta área, a automatização de detecção de incidentes é um desafio que perdura por várias razões. Começando
pela diversidade ambiental, a complexidade da semalhança entre movimentos de ações
distintas, cenários de multidões, e ter em conta todos os padrões para definir uma ação
normal, é indiscutivelmente difícil ou impossível. Não obstante a dificuldade de resolução
destes problemas, o obstáculo fundamental consiste na obtenção de um número suficiente
de instâncias classificadas anormais, considerando algoritmos de visão computacional é
essencial. Mais importante ainda, obter um vasto conjunto de diferentes vídeos capazes de
satisfazer as condições previamente mencionadas, não é uma tarefa simples. Em adição
ao esforço e tempo despendido, estabelecer um limite entre ações normais e anormais é
frequentemente indistinto.
Tendo estes aspetos em consideração, neste trabalho, o principal objetivo é providenciar diversas soluções para os problemas previamente mencionados, concentrando na
análise de métodos do estado-da-arte e apresentando uma visão abrangente dos mesmos
para clarificar os conceitos aplicados na captura de padrões normais e anormais. Inclusive, a exploração de diferentes estratégias habilitou-nos a desenvolver novas abordagens
que aprimoram consistentemente o desempenho do estado-da-arte. Por último, anunciamos a disponibilidade de um novo conjunto de dados, em grande escala, totalmente anotado ao nível da frame em relação à detecção de anomalias em um evento específico com
uma vasta diversidade em cenários de luta, podendo ser livremente utilizado pela comunidade científica. Neste documento, com o propósito de requerer o mínimo de supervisão,
são descritas duas propostas diferentes; O primeiro método põe em prática a recente técnica de aprendizagem auto-supervisionada para evitar a árdua tarefa de anotação, onde o
conjunto de treino é classificado autonomamente usando uma estrutura de aprendizagem
iterativa composta por duas redes neuronais independentes que fornecem dados entre si através de uma estrutura Bayesiana. A segunda proposta explora um novo método para
aprender um modelo de classificação de anomalias no paradigma multiple-instance learning manuseando vídeos fracamente anotados, onde a classificação do conjunto de treino
é feita ao nível do vídeo. As experiências foram concebidas em vários conjuntos de dados,
e as nossas soluções superam consolidamente o estado-da-arte. Adicionalmente, como
sistema de prova de conceito, apresentamos os resultados da execução do nosso modelo
em simulações reais em diferentes ambientes
An Integrated Fuzzy Inference Based Monitoring, Diagnostic, and Prognostic System
To date the majority of the research related to the development and application of monitoring, diagnostic, and prognostic systems has been exclusive in the sense that only one of the three areas is the focus of the work. While previous research progresses each of the respective fields, the end result is a variable grab bag of techniques that address each problem independently. Also, the new field of prognostics is lacking in the sense that few methods have been proposed that produce estimates of the remaining useful life (RUL) of a device or can be realistically applied to real-world systems. This work addresses both problems by developing the nonparametric fuzzy inference system (NFIS) which is adapted for monitoring, diagnosis, and prognosis and then proposing the path classification and estimation (PACE) model that can be used to predict the RUL of a device that does or does not have a well defined failure threshold.
To test and evaluate the proposed methods, they were applied to detect, diagnose, and prognose faults and failures in the hydraulic steering system of a deep oil exploration drill. The monitoring system implementing an NFIS predictor and sequential probability ratio test (SPRT) detector produced comparable detection rates to a monitoring system implementing an autoassociative kernel regression (AAKR) predictor and SPRT detector, specifically 80% vs. 85% for the NFIS and AAKR monitor respectively. It was also found that the NFIS monitor produced fewer false alarms. Next, the monitoring system outputs were used to generate symptom patterns for k-nearest neighbor (kNN) and NFIS classifiers that were trained to diagnose different fault classes. The NFIS diagnoser was shown to significantly outperform the kNN diagnoser, with overall accuracies of 96% vs. 89% respectively. Finally, the PACE implementing the NFIS was used to predict the RUL for different failure modes. The errors of the RUL estimates produced by the PACE-NFIS prognosers ranged from 1.2-11.4 hours with 95% confidence intervals (CI) from 0.67-32.02 hours, which are significantly better than the population based prognoser estimates with errors of ~45 hours and 95% CIs of ~162 hours
Aprendizagem automática aplicada à deteção de pessoas baseada em radar
The present dissertation describes the development and implementation of a
radar-based system with the purpose of being able to detect people amidst
other objects that are moving in an indoor scenario. The detection methods
implemented exploit radar data that is processed by a system that includes the
data acquisition, the pre-processing of the data, the feature extraction, and the
application of these data to machine learning models specifically designed to
attain the objective of target classification.
Beyond the basic theoretical research necessary for its sucessful development,
the work contamplates an important component of software development
and experimental tests. Among others, the following topics were covered
in this dissertation: the study of radar working principles and hardware; radar
signal processing; techniques of clutter removal, feature exctraction, and data
clustering applied to radar signals; implementation and hyperparameter tuning
of machine learning classification systems; study of multi-target detection and
tracking methods.
The people detection application was tested in different indoor scenarios that
include a static radar and a radar dynamically deployed by a mobile robot. This
application can be executed in real time and perform multiple target detection
and classification using basic clustering and tracking algorithms. A study of
the effects of the detection of multiple targets in the performance of the application,
as well as an assessment of the efficiency of the different classification
methods is presented.
The envisaged applications of the proposed detection system include intrusion
detection in indoor environments and acquisition of anonymized data for
people tracking and counting in public spaces such as hospitals and schools.A presente dissertação descreve o desenvolvimento e implementação de um
sistema baseado em radar que tem como objetivo detetar e distinguir pessoas
de outros objetos que se movem num ambiente interior. Os métodos de deteção
e distinção exploram os dados de radar que são processados por um
sistema que abrange a aquisição e pré-processamento dos dados, a extração
de características, e a aplicação desses dados a modelos de aprendizagem
automática especificamente desenhados para atingir o objetivo de classificação
de alvos.
Além do estudo da teoria básica de radar para o desenvolvimento bem sucedido
desta dissertação, este trabalho contempla uma componente importante
de desenvolvimento de software e testes experimentais. Entre outros,
os seguintes tópicos foram abordados nesta dissertação: o estudo dos
princípios básicos do funcionamento do radar e do seu equipamento; processamento
de sinal do radar; técnicas de remoção de ruído, extração de
características, e segmentação de dados aplicada ao sinal de radar; implementação
e calibração de hiper-parâmetros dos modelos de aprendizagem
automática para sistemas de classificação; estudo de métodos de deteção e
seguimento de múltiplos alvos.
A aplicação para deteção de pessoas foi testada em diferentes cenários interiores
que incluem o radar estático ou transportado por um robot móvel.
Esta aplicação pode ser executada em tempo real e realizar deteção e classificação
de múltiplos alvos usando algoritmos básicos de segmentação e
seguimento. O estudo do impacto da deteção de múltiplos alvos no funcionamento
da aplicação é apresentado, bem como a avaliação da eficiência dos
diferentes métodos de classificação usados.
As possíveis aplicações do sistema de deteção proposto incluem a deteção
de intrusão em ambientes interiores e aquisição de dados anónimos para
seguimento e contagem de pessoas em espaços públicos tais como hospitais
ou escolas.Mestrado em Engenharia de Computadores e Telemátic
Compressão eficiente de sequências biológicas usando uma rede neuronal
Background: The increasing production of genomic data has led to
an intensified need for models that can cope efficiently with the lossless
compression of biosequences. Important applications include long-term
storage and compression-based data analysis. In the literature, only a
few recent articles propose the use of neural networks for biosequence
compression. However, they fall short when compared with specific
DNA compression tools, such as GeCo2. This limitation is due to the
absence of models specifically designed for DNA sequences. In this
work, we combine the power of neural networks with specific DNA and
amino acids models. For this purpose, we created GeCo3 and AC2, two
new biosequence compressors. Both use a neural network for mixing
the opinions of multiple specific models.
Findings: We benchmark GeCo3 as a reference-free DNA compressor
in five datasets, including a balanced and comprehensive dataset
of DNA sequences, the Y-chromosome and human mitogenome, two
compilations of archaeal and virus genomes, four whole genomes, and
two collections of FASTQ data of a human virome and ancient DNA.
GeCo3 achieves a solid improvement in compression over the previous
version (GeCo2) of 2:4%, 7:1%, 6:1%, 5:8%, and 6:0%, respectively.
As a reference-based DNA compressor, we benchmark GeCo3 in four
datasets constituted by the pairwise compression of the chromosomes
of the genomes of several primates. GeCo3 improves the compression in
12:4%, 11:7%, 10:8% and 10:1% over the state-of-the-art. The cost of
this compression improvement is some additional computational time
(1:7_ to 3:0_ slower than GeCo2). The RAM is constant, and the tool
scales efficiently, independently from the sequence size. Overall, these
values outperform the state-of-the-art. For AC2 the improvements and
costs over AC are similar, which allows the tool to also outperform the
state-of-the-art.
Conclusions: The GeCo3 and AC2 are biosequence compressors with
a neural network mixing approach, that provides additional gains over
top specific biocompressors. The proposed mixing method is portable,
requiring only the probabilities of the models as inputs, providing easy
adaptation to other data compressors or compression-based data analysis
tools. GeCo3 and AC2 are released under GPLv3 and are available
for free download at https://github.com/cobilab/geco3 and
https://github.com/cobilab/ac2.Contexto: O aumento da produção de dados genómicos levou a uma
maior necessidade de modelos que possam lidar de forma eficiente com
a compressão sem perdas de biosequências. Aplicações importantes
incluem armazenamento de longo prazo e análise de dados baseada em
compressão. Na literatura, apenas alguns artigos recentes propõem o
uso de uma rede neuronal para compressão de biosequências. No entanto,
os resultados ficam aquém quando comparados com ferramentas
de compressão de ADN específicas, como o GeCo2. Essa limitação
deve-se à ausência de modelos específicos para sequências de ADN.
Neste trabalho, combinamos o poder de uma rede neuronal com modelos
específicos de ADN e aminoácidos. Para isso, criámos o GeCo3 e
o AC2, dois novos compressores de biosequências. Ambos usam uma
rede neuronal para combinar as opiniões de vários modelos específicos.
Resultados: Comparamos o GeCo3 como um compressor de ADN
sem referência em cinco conjuntos de dados, incluindo um conjunto
de dados balanceado de sequências de ADN, o cromossoma Y e o mitogenoma
humano, duas compilações de genomas de arqueas e vírus,
quatro genomas inteiros e duas coleções de dados FASTQ de um viroma
humano e ADN antigo. O GeCo3 atinge uma melhoria sólida
na compressão em relação à versão anterior (GeCo2) de 2,4%, 7,1%,
6,1%, 5,8% e 6,0%, respectivamente. Como um compressor de ADN
baseado em referência, comparamos o GeCo3 em quatro conjuntos
de dados constituídos pela compressão aos pares dos cromossomas
dos genomas de vários primatas. O GeCo3 melhora a compressão em
12,4%, 11,7%, 10,8% e 10,1% em relação ao estado da arte. O custo
desta melhoria de compressão é algum tempo computacional adicional
(1,7 _ a 3,0 _ mais lento do que GeCo2). A RAM é constante e a
ferramenta escala de forma eficiente, independentemente do tamanho
da sequência. De forma geral, os rácios de compressão superam o estado
da arte. Para o AC2, as melhorias e custos em relação ao AC são
semelhantes, o que permite que a ferramenta também supere o estado
da arte.
Conclusões: O GeCo3 e o AC2 são compressores de sequências biológicas
com uma abordagem de mistura baseada numa rede neuronal,
que fornece ganhos adicionais em relação aos biocompressores específicos
de topo. O método de mistura proposto é portátil, exigindo apenas
as probabilidades dos modelos como entradas, proporcionando uma fácil
adaptação a outros compressores de dados ou ferramentas de análise
baseadas em compressão. O GeCo3 e o AC2 são distribuídos sob GPLv3
e estão disponíveis para download gratuito em https://github.com/
cobilab/geco3 e https://github.com/cobilab/ac2.Mestrado em Engenharia de Computadores e Telemátic
Building a person home behavior model based on data from smart house sensors 2015
Dissertação para a obtenção do grau de Mestre em Engenharia Electrotécnica Ramo de EnergiaO propósito deste trabalho é construir um modelo baseado em informação captada por sensores e câmaras em uma casa onde viva somente uma pessoa.
A primeira parte do trabalho consistiu em reunir informação que ajuda-se a perceber o que já tinha sido feito neste âmbito por outros engenheiros. Na realização deste trabalho, a parte que se revelou mais acessível foi a que envolveu a procura de informação sobre os diferentes métodos a usar no sistema, tais como Lógica Fuzzy, Redes Neuronais ou o método Monte Carlo via Cadeias de Markov.
Em contrapartida, investigar as diferentes maneiras de guardar a informação provou ser mais desafiante.
Foi praticamente impossível encontrar informação sobre os métodos usados para guardar informação recolhida pelos sensores e câmaras. A maior parte das vezes, os engenheiros não mencionavam a parte da informação relativa a este aspecto, simplesmente apresentavam os seus resultados e as suas conclusões. Além disso, quando o uso de informação era mencionada, a mesma relacionava-se com informação online, ou só informação já recolhida por sensores e câmaras, sem quaisquer detalhes. Era espectável encontrar mais informação sobre os métodos de guardar informação, mais específica, como a informação recolhida era ligada entre si e como o sistema iria interpretá-la e que resposta iria dar.
Devido à falta de informação sobre como armazenar a informação recolhida, ficou decidido que se teria de assumir uma maneira para o fazer e com isso construir o modelo.
Este modelo será referido neste documento. Devido a problemas relacionados com a parte da programação e com a falta de tempo, foi impossível construir o modelo usando os, considerados, melhores métodos.
Não obstante, foi possível decidir as melhores opções para construir o modelo, assim como algumas formas de o fazer. Foi decidido a maneira como armazenar informação, o protocolo de informação a usar e o método que irá inferir com as actividades e comportamentos do habitante.Abstract:The purpose of this work has been to build a model based on data collected from sensors and cameras in a house with only one inhabitant.
The first part of the work consisted of gathering research in order to try to understand what was already made by other engineers. One part stood out to be less complicated, as it evolved around finding information about the different methods to use with a system like Fuzzy Logic, Neural Network or Markov Chain Monte Carlo.
However, investigating different ways to store information proved to be more challenging.
It was pretty much impossible to get some information about the way people store the information collected from sensors and cameras. Most of the time, other engineers never mention the part related with the data, but simply presented the results and then their conclusion. Moreover, when the use of data was mentioned, it was simply related to online data, or just data which was stored after being collected from sensors and cameras, without any further detail. It was expected to find more information about the way the data was used, more specific information, covering how all the information was connected to each other, and how the system would interpret all the data and the responses.
Since the lack of information related with the data, it was decided to assume a way to store the information and with that, a model was built. This model will be referred to within this paper. Due to problems with programming and lack of time, it was impossible to build a model by using the best methods. Notwithstanding, it was possible to decide all the best options to use to build the model, along with some ways to do it. It was decided the way to store information, the Communication Protocol to use and the method to infer with the inhabitant activities and behaviors
The EDAM Project: Mining Atmospheric Aerosol Datasets
Data mining has been a very active area of research in the database, machine learning, and mathematical programming communities in recent years. EDAM (Exploratory Data Analysis and Management) is a joint project between researchers in Atmospheric Chemistry and Computer Science at Carleton College and the University of Wisconsin-Madison that aims to develop data mining techniques for advancing the state of the art in analyzing atmospheric aerosol datasets. There is a great need to better understand the sources, dynamics, and compositions of atmospheric aerosols. The traditional approach for particle measurement, which is the collection of bulk samples of particulates on filters, is not adequate for studying particle dynamics and real-time correlations. This has led to the development of a new generation of real-time instruments that provide continuous or semi-continuous streams of data about certain aerosol properties. However, these instruments have added a significant level of complexity to atmospheric aerosol data, and dramatically increased the amounts of data to be collected, managed, and analyzed. Our abilit y to integrate the data from all of these new and complex instruments now lags far behind our data-collection capabilities, and severely limits our ability to understand the data and act upon it in a timely manner. In this paper, we present an overview of the EDAM project. The goal of the project, which is in its early stages, is to develop novel data mining algorithms and approaches to managing and monitoring multiple complex data streams. An important objective is data quality assurance, and real-time data mining offers great potential. The approach that we take should also provide good techniques to deal with gas-phase and semi-volatile data. While atmospheric aerosol analysis is an important and challenging domain that motivates us with real problems and serves as a concrete test of our results, our objective is to develop techniques that have broader applicability, and to explore some fundamental challenges in data mining that are not specific to any given application domain
- …