16 research outputs found
Kumaraswamy autoregressive moving average models for double bounded environmental data
In this paper we introduce the Kumaraswamy autoregressive moving average
models (KARMA), which is a dynamic class of models for time series taking
values in the double bounded interval following the Kumaraswamy
distribution. The Kumaraswamy family of distribution is widely applied in many
areas, especially hydrology and related fields. Classical examples are time
series representing rates and proportions observed over time. In the proposed
KARMA model, the median is modeled by a dynamic structure containing
autoregressive and moving average terms, time-varying regressors, unknown
parameters and a link function. We introduce the new class of models and
discuss conditional maximum likelihood estimation, hypothesis testing
inference, diagnostic analysis and forecasting. In particular, we provide
closed-form expressions for the conditional score vector and conditional Fisher
information matrix. An application to environmental real data is presented and
discussed.Comment: 25 pages, 4 tables, 4 figure
Improved two-component tests in Beta-Skew-t-EGARCH models
This work proposes a likelihood ratio test to assist in the selection of the Beta-Skew-t-EGARCH model with one or two volatility components. To improve the performance of the proposed test in small samples, the bootstrap-based likelihood ratio test and the bootstrap Bartlett correction are considered. The finite sample performance of the tests are assessed using Monte Carlo simulations. The numerical evidence favors the bootstrap-based test. The tests are applied to the DAX log-returns. The results demonstrate the practical usefulness of the proposed two-component tests
Testes de Especificação Para a Função de Ligação em Modelos Lineares Generalizados para Dados Binários
This paper addresses the issue of check the correct specification of the link function in generalized linear models for binary data. To perform the RESET test we consider the likelihood ratio, Wald and score traditional statistics and we propose the use of the emerging gradient statistic. The performance evaluation of misspecification tests were performed using Monte Carlo simulations. The finite sample performance of the tests were evaluated in terms of size and power tests. It can be seen that the performance of the tests are influenced by the used link function and the sample size. The gradient statistic outperforms the traditional statistics, especially in smaller sample sizes. An empirical application to a real data set is considered for illustrative purposes.Este trabalho aborda o problema de testar a correta especificação da função de ligação em modelos lineares generalizados paradados binários. Para realização do teste RESET de especificação, além de serem consideradas as tradicionais estatísticas darazão de verossimilhanças, de Wald e escore, propomos a utilização da recente estatística gradiente. A avaliação dos testes foirealizada por meio de simulações de Monte Carlo. Foram verificados os desempenhos em amostras de tamanho finito dos quatrotestes considerados, em termos de tamanho e poder, assim como avaliadas as distribuições das estatísticas de teste em pequenasamostras. Pode-se verificar que os testes de especificação são influenciados pela função de ligação utilizada e pelo tamanho amostralconsiderado. O desempenho da estatística gradiente se mostrou superior, principalmente nos menores tamanhos amostrais. Umaaplicação a dados reais é apresentada com a finalidade de ilustração do teste proposto
Filtragem de Sinais via Limiarização de Coeficientes Wavelet
http://dx.doi.org/10.5902/2179460X13192The current work addresses topics related to signal filtering via wavelet shrinkage. Wavelets techniques applied to signal filteringgo back to the 80’s and an overview about the main results in the area are presented, as well as the most recent contributions,concerning applications and methodological aspects involved. A short discussion about wavelets and a detailed presentation aboutthe threshold operation are given. The main methods to define the threshold values are also described and their performances aretested through numerical simulations for 1D and 2D data. The presented results highlight the potential of associating waveletmethods to signal denoising techniquesO presente artigo aborda o tópico de filtragem de sinais via limiarização de coeficientes wavelets. É apresentada uma revisãodos principais resultados da área, desde os artigos clássicos e seminais até artigos no estado da arte, com enfoque em aplicaçõese aspectos metodológicos de filtragem wavelet. Uma breve discussão sobre transformadas wavelets é dada, assim como umadescrição detalhada e didática do método de limiarização de coeficientes wavelets. Os principais métodos de determinação delimiares de truncamento são descritos e aplicados em filtragem de sinais unidimensionais e bidimensionais. Esses experimentosevidenciam o bom desempenho da técnica de filtragem associada a transformada wavelet
Modelagem e Inferência em Regressão Beta
Esta tese aborda aspectos de modelagem e inferência em regressão beta, mais especificamente
melhoramentos do teste de razão da verossimilhanças e proposição e investigação de critérios
de seleção de modelos. O modelo de regressão beta foi proposto por Ferrari e Cribari-Neto
[2004. Beta regression for modeling rates and proportions. J. Appl. Statist. 31, 799 815]
para modelar variáveis contínuas no intervalo (0;1), como taxas e proporções. No primeiro
capítulo, abordamos o problema de inferência em pequenas amostras. Focamos no melhoramento
do teste da razão de verossimilhanças. Consideramos correções de segunda ordem
para a estatística da razão de verossimilhanças em regressão beta em duas abordagens. Determinamos,
por meio de uma abordagem matricial, o fator de correção de Bartlett e também
uma correção de Bartlett Bootstrap. Comparamos os testes baseados nas estatísticas corrigidas
com o teste da razão de verossimilhanças usual e com o teste que utiliza o ajuste de Skovgaard,
que já está proposto na literatura. Os resultados numéricos evidenciam que as correções
de Bartlett são mais acuradas do que a estatística não corrigida e do que o ajuste de Skovgaard.
No segundo e terceiro capítulos, expandimos o modelo de regressão beta proposto por
Ferrari e Cribari-Neto, considerando um modelo que assume que o parâmetro de dispersão,
assim como o parâmetro de média, varia ao longo das observações e pode ser modelado por
meio de uma estrutura de regressão. Com isso, surge o problema da seleção de variáveis, tanto
para a estrutura da média quanto para a da dispersão. Esse assunto é tratado em dois capítulos
independentes e auto-contidos, porém, ambos relacionados. No Capítulo 2 propomos critérios
de seleção para modelos com dispersão variável e investigamos, por meio de simulação de
Monte Carlo, os desempenhos destes e de outros critérios de seleção em amostras de tamanho
finito. Percebemos que o processo de seleção conjunta de regressores para a média e para
a dispersão não é uma boa prática e propomos um esquema de seleção em duas etapas. A
seleção de modelos com o esquema proposto, além de requerer um menor custo computacional,
apresentou melhor desempenho do que o método usual de seleção. Dentre os critérios
investigados encontra-se o critério de informação de Akaike (AIC). O AIC é, sem dúvida, o
critério mais conhecido e aplicado em diferentes classes de modelos. Baseados no AIC diversos
critérios têm sido propostos, dentre eles o SIC, o HQ e o AICc. Com o objetivo de estimar
o valor esperado da log-verossimilhança, que é uma medida de discrepância entre o modelo
verdadeiro e o modelo candidato estimado, Akaike obtém o AIC como uma correção assintótica
para a log-verossimilhança esperada. No entanto, em pequenas amostras, ou quando o
número de parâmetros do modelo é grande relativamente ao tamanho amostral, o AIC se torna
viesado e tende a selecionar modelos com alta dimensionalidade. Ao considerarmos uma estrutura
de regressão também para o parâmetro de dispersão introduzimos um maior número de
parâmetros a serem estimados no modelo. Isso pode diminuir o desempenho dos critérios de
seleção quando o tamanho amostral é pequeno ou moderado. Para contornar esse problema propomos no Capítulo 3 novos critérios de seleção para serem usados em pequenas amostras,
denominados bootstrap likelihood quasi-CV (BQCV) e sua modificação 632QCV. Comparamos
os desempenhos dos critérios propostos, do AIC e de suas diversas variações que utilizam
log-verossimilhança bootstrap por meio de um extensivo estudo de simulação. Os resultados
numéricos evidenciam o bom desempenho dos critérios proposto
PREVISÃO DA UMIDADE RELATIVA DO AR DE BRASÍLIA POR MEIO DO MODELO BETA AUTORREGRESSIVO DE MÉDIAS MÓVEIS
O monitoramento da umidade relativa do ar (UR) tem grande importância no gerenciamento de recursos hídricos, na área agrícola, em estudos climáticos, assim como para a gestão da saúde pública. Este trabalho tem o objetivo de analisar, modelar e prever os valores mensais de UR da cidade de Brasília, Distrito Federal. Como a UR se dá em termos percentuais, ou seja, assume valores contínuos no intervalo (0,1), os modelos de séries temporais tradicionais da classe ARIMA não são adequados. Com isso, a utilização do modelo beta autorregressivo de médias móveis (βARMA) se faz necessária. Esse modelo para taxas e proporções, que assume distribuição beta para a variável de interesse, foi proposto recentemente por Rocha e Cribari-Neto. Para realização deste trabalho o modelo βARMA foi implementado em linguagem R. Sua aplicação aos dados de UR mostrou-se adequada, captando o comportamento da série e gerando previsões coerentes
Improved two-component tests in Beta-Skew-t-EGARCH models
This work proposes a likelihood ratio test to assist in the selection of the Beta-Skew-t-EGARCH model with one or two volatility components. To improve the performance of the proposed test in small samples, the bootstrap-based likelihood ratio test and the bootstrap Bartlett correction are considered. The finite sample performance of the tests are assessed using Monte Carlo simulations. The numerical evidence favors the bootstrap-based test. The tests are applied to the DAX log-returns. The results demonstrate the practical usefulness of the proposed two-component tests
COMPARAÇÃO DE DIFERENTES MODELAGENS PARA PERCENTUAL DE ENERGIA ARMAZENADA
O presente trabalho visa verificar a adequação de modelos de séries temporais para modelar o percentual de energia armazenada na Região Sul do Brasil.Para isso, foram considerados o modelo autorregressivo de médias móveis (ARMA) e o modelo beta autorregressivo de médias móveis (ARMA). O modelo ARMA é um modelo tradicional e amplamente utilizado, enquanto que o modelo ARMA é um modelo recente na literatura proposto especificamente para modelar variáveis restritas ao intervalo , como o percentual de energia armazenada. A comparação de modelos e a escolha adequada do que melhor representa os dados em estudo é necessária para a obtenção de resultados fidedignos. Previsões acuradas para o percentual de energia armazenada colabora com o fornecimento de energia de forma segura, de qualidade e com gastos reduzidos.Os resultados das modelagens indicam melhores previsões quando considerado o modelo \barma, uma vez que apresentaram valores previstos mais próximos aos reais