2,592 research outputs found
Improvement of TestH: a C Library for Generating Self-Similar Series and for Estimating the Hurst Parameter
The discovery of consistent dependencies between values in certain data series paved the way
for the development of algorithms that could, somehow, classify the degree of self-similarity
between values and derive considerations about the behavior of these series. This self-similarity
metric is typically known as the Hurst Parameter, and allows the classification of the behavior of
a data series as persistent, anti-persistent, or purely random. This discovery was highly relevant
in the field of computer networks, inclusively helping companies to develop equipment and
infrastructure that suit their needs more efficiently. The Hurst Parameter is relevant in many
other fields, and it has been for exemple applied in the study of geologic phenomena [KTC07]
or even on areas related with health sciencies[VAJ08, HPS+12].
There are several algorithms for estimating the Hurst Parameter [Hur51, Hig88, RPGC06], and
each one of them has its strengths and weaknesses. The usage of these algorithms is sometimes
difficult, motivating the creation of tools or libraries that provide them in a more user-friendly
manner. Unfortunately, and despite of being an area that has been studied for decades, the
tools available have limitations and do not implement all algorithms available in the literature.
The work presented in this dissertation consists on the improvement of TestH, a library written in
ANSI C for the study of self-similarity in time series, which was initially developed by Fernandes
et al. [FNS+14]. These improvements are materialized as the addition of algorithms to estimate
the Hurst Parameter and to generate self-similar sequences. Additionally, auxiliary functions
were implemented, along with code refactoring, documentation of the application programming
interface and the creation of a website for the project.
This dissertation is mostly focused on the algorithms that were introduced in TestH, namely
the Periodogram, the Higuchi method, the Hurst Exponent by Autocorrelation Function and the
Detrended Fluctuation Analysis estimators, and the Davies and Hart method for generating selfsimilar
sequences. In order to turn TestH into a robust and trustable library, several tests were
performed comparing the results of these implementations with the values provided by similar
tools. The overall results obtained in these tests are in line with expectations and the algorithms
that are simultaneously implemented in TestH and in the other tools analyzed (for example, the
Periodogram) returned very similar results, corroborating the belief that the methods were well
implemented.A descoberta da dependência consistente entre valores em certas séries de dados, abriu caminho
para o desenvolvimento de algoritmos que permitissem, de alguma forma, classificar o
grau de auto-semelhança entre valores e tecer considerações sobre o comportamento da série.
A esta estatÃstica dá-se o nome de Parâmetro de Hurst, que permite analisar e classificar o comportamento
de uma série de dados como persistente, antipersistente ou puramente aleatória.
Esta descoberta tem sido bastante relevante na área das redes de computadores, onde serve,
p.ex., de ajuda às empresas para desenvolverem equipamentos e infraestruturas adequadas à s
suas necessidades. Para além do elevado interesse que a referida área apresentou por esta
métrica, existem outros campos ciêntificos onde algoritmos para estimar o Parâmetro de Hurst
de sequências de valores estão a ser aplicados, como por exemplo no estudo de fenómenos
geológicos [KTC07], bem como em fenómenos ligados às ciências da saúde [VAJ08, HPS+12].
Existem vários algoritmos para estimar o Parâmetro de Hurst [Hur51, Hig88, RPGC06], tendo
cada um deles as suas virtudes e fraquezas. A utilização destes algoritmos é por vezes difÃcil,
motivando a criação de ferramentas e bibliotecas que os congregam e disponibilizam de uma
forma mais amigável ao utilizador. Infelizmente, e apesar de ser uma área que está a ser alvo de
estudos há décadas, as ferramentas existentes, para além de não implementarem a totalidade
dos algoritmos mais relevantes, apresentam ainda algumas limitações. Desta forma, o trabalho
apresentado nesta dissertação consiste, principalmente, na melhoria da TestH, uma biblioteca
escrita em ANSI C para o estudo de séries temporais auto-semelhantes, inicialmente desenvolvida
por Fernandes et al. [FNS+14]. Estas melhorias materializam-se sobretudo na adição
de algoritmos para estimar o Parâmetro de Hurst e gerar séries de dados auto-semelhantes.
Adicionalmente foram introduzidas funções auxiliares, foi efetuada a refactorização do código,
documentação das interfaces de programação e ainda a criação de um sÃtio web para divulgação
do projeto.
Esta dissertação dá enfase aos algoritmos de estimação do Parâmetro de Hurst e geração de
séries auto-semelhantes. Relativamente à estimação, foram introduzidos na TestH, no âmbito
deste trabalho, o Periodograma, o método de Higuchi, a estimação através da função de autocorrelação
e o método de análise através da remoção das tendências. No que respeita à geração
de séries, foi também introduzido o método de Davies e Hart. Com o objetivo de tornar a TestH
robusta e credÃvel, foram realizados vários testes, comparando os resultados destas implementações
com os valores fornecidos por ferramentas semelhantes. Os resultados obtidos estão alinhados
com o esperado e, inclusivamente, os algoritmos que se encontram implementados na
TestH e restantes ferramentas analisadas (como por exemplo, o Periodograma), apresentaram
valores bastante semelhantes entre si, corroborando a crença da correção da implementação
dos vários métodos
Long-Range Dependence in Financial Markets: a Moving Average Cluster Entropy Approach
A perspective is taken on the intangible complexity of economic and social
systems by investigating the underlying dynamical processes that produce, store
and transmit information in financial time series in terms of the
\textit{moving average cluster entropy}. An extensive analysis has evidenced
market and horizon dependence of the \textit{moving average cluster entropy} in
real world financial assets. The origin of the behavior is scrutinized by
applying the \textit{moving average cluster entropy} approach to long-range
correlated stochastic processes as the Autoregressive Fractionally Integrated
Moving Average (ARFIMA) and Fractional Brownian motion (FBM). To that end, an
extensive set of series is generated with a broad range of values of the Hurst
exponent and of the autoregressive, differencing and moving average
parameters . A systematic relation between \textit{moving average
cluster entropy}, \textit{Market Dynamic Index} and long-range correlation
parameters , is observed. This study shows that the characteristic
behaviour exhibited by the horizon dependence of the cluster entropy is related
to long-range positive correlation in financial markets. Specifically, long
range positively correlated ARFIMA processes with differencing parameter , and are consistent with
\textit{moving average cluster entropy} results obtained in time series of
DJIA, S\&P500 and NASDAQ
Evaluating the impact of traffic sampling in network analysis
Dissertação de mestrado integrado em Engenharia InformáticaThe sampling of network traffic is a very effective method in order to comprehend the
behaviour and flow of a network, essential to build network management tools to control
Service Level Agreements (SLAs), Quality of Service (QoS), traffic engineering, and the
planning of both the capacity and the safety of the network.
With the exponential rise of the amount traffic caused by the number of devices connected
to the Internet growing, it gets increasingly harder and more expensive to understand the
behaviour of a network through the analysis of the total volume of traffic. The use of
sampling techniques, or selective analysis, which consists in the election of small number of
packets in order to estimate the expected behaviour of a network, then becomes essential.
Even though these techniques drastically reduce the amount of data to be analyzed, the fact
that the sampling analysis tasks have to be performed in the network equipment can cause a
significant impact in the performance of these equipment devices, and a reduction in the
accuracy of the estimation of network state.
In this dissertation project, an evaluation of the impact of selective analysis of network
traffic will be explored, at a level of performance in estimating network state, and statistical
properties such as self-similarity and Long-Range Dependence (LRD) that exist in original
network traffic, allowing a better understanding of the behaviour of sampled network traffic.A análise seletiva do tráfego de rede é um método muito eficaz para a compreensão do
comportamento e fluxo de uma rede, sendo essencial para apoiar ferramentas de gestão de
tarefas tais como o cumprimento de contratos de serviço (Service Level Agreements - SLAs),
o controlo da Qualidade de Serviço (QoS), a engenharia de tráfego, o planeamento de
capacidade e a segurança das redes.
Neste sentido, e face ao exponencial aumento da quantidade de tráfego presente causado
pelo número de dispositivos com ligação à rede ser cada vez maior, torna-se cada vez
mais complicado e dispendioso o entendimento do comportamento de uma rede através
da análise do volume total de tráfego. A utilização de técnicas de amostragem, ou análise
seletiva, que consiste na eleição de um pequeno conjunto de pacotes de forma a tentar
estimar, ou calcular, o comportamento expectável de uma rede, torna-se assim essencial.
Apesar de estas técnicas reduzirem bastante o volume de dados a ser analisado, o facto de as
tarefas de análise seletiva terem de ser efetuadas nos equipamentos de rede pode criar um
impacto significativo no desempenho dos mesmos e uma redução de acurácia na estimação
do estado da rede.
Nesta dissertação de mestrado será então feita uma avaliação do impacto da análise
seletiva do tráfego de rede, a nÃvel do desempenho na estimativa do estado da rede e a nÃvel
das propriedades estatÃsticas tais como a Long-Range Dependence (LRD) existente no tráfego
original, permitindo assim entender melhor o comportamento do tráfego de rede seletivo
Stochastic modelling of long-term persistence in streamflow sequences
Imperial Users onl
Seeking for a fingerprint: analysis of point processes in actigraphy recording
Motor activity of humans displays complex temporal fluctuations which can be
characterized by scale-invariant statistics, thus documenting that structure
and fluctuations of such kinetics remain similar over a broad range of time
scales. Former studies on humans regularly deprived of sleep or suffering from
sleep disorders predicted change in the invariant scale parameters with respect
to those representative for healthy subjects. In this study we investigate the
signal patterns from actigraphy recordings by means of characteristic measures
of fractional point processes. We analyse spontaneous locomotor activity of
healthy individuals recorded during a week of regular sleep and a week of
chronic partial sleep deprivation. Behavioural symptoms of lack of sleep can be
evaluated by analysing statistics of duration times during active and resting
states, and alteration of behavioural organization can be assessed by analysis
of power laws detected in the event count distribution, distribution of waiting
times between consecutive movements and detrended fluctuation analysis of
recorded time series. We claim that among different measures characterizing
complexity of the actigraphy recordings and their variations implied by chronic
sleep distress, the exponents characterizing slopes of survival functions in
resting states are the most effective biomarkers distinguishing between healthy
and sleep-deprived groups.Comment: Communicated at UPON2015, 14-17 July 2015, Barcelona. 21 pages, 11
figures; updated: figures 4-7, text revised, expanded Sec. 1,3,
- …