16 research outputs found

    Kumaraswamy autoregressive moving average models for double bounded environmental data

    Full text link
    In this paper we introduce the Kumaraswamy autoregressive moving average models (KARMA), which is a dynamic class of models for time series taking values in the double bounded interval (a,b)(a,b) following the Kumaraswamy distribution. The Kumaraswamy family of distribution is widely applied in many areas, especially hydrology and related fields. Classical examples are time series representing rates and proportions observed over time. In the proposed KARMA model, the median is modeled by a dynamic structure containing autoregressive and moving average terms, time-varying regressors, unknown parameters and a link function. We introduce the new class of models and discuss conditional maximum likelihood estimation, hypothesis testing inference, diagnostic analysis and forecasting. In particular, we provide closed-form expressions for the conditional score vector and conditional Fisher information matrix. An application to environmental real data is presented and discussed.Comment: 25 pages, 4 tables, 4 figure

    Improved two-component tests in Beta-Skew-t-EGARCH models

    Get PDF
    This work proposes a likelihood ratio test to assist in the selection of the Beta-Skew-t-EGARCH model with one or two volatility components. To improve the performance of the proposed test in small samples, the bootstrap-based likelihood ratio test and the bootstrap Bartlett correction are considered. The finite sample performance of the tests are assessed using Monte Carlo simulations. The numerical evidence favors the bootstrap-based test. The tests are applied to the DAX log-returns. The results demonstrate the practical usefulness of the proposed two-component tests

    Testes de Especificação Para a Função de Ligação em Modelos Lineares Generalizados para Dados Binários

    Get PDF
    This paper addresses the issue of check the correct specification of the link function in generalized linear models for binary data. To perform the RESET test we consider the likelihood ratio, Wald and score traditional statistics and we propose the use of the emerging gradient statistic. The performance evaluation of misspecification tests were performed using Monte Carlo simulations. The finite sample performance of the tests were evaluated in terms of size and power tests. It can be seen that the performance of the tests are influenced by the used link function and the sample size. The gradient statistic outperforms the traditional statistics, especially in smaller sample sizes. An empirical application to a real data set is considered for illustrative purposes.Este trabalho aborda o problema de testar a correta especificação da função de ligação em modelos lineares generalizados paradados binários. Para realização do teste RESET de especificação, além de serem consideradas as tradicionais estatísticas darazão de verossimilhanças, de Wald e escore, propomos a utilização da recente estatística gradiente. A avaliação dos testes foirealizada por meio de simulações de Monte Carlo. Foram verificados os desempenhos em amostras de tamanho finito dos quatrotestes considerados, em termos de tamanho e poder, assim como avaliadas as distribuições das estatísticas de teste em pequenasamostras. Pode-se verificar que os testes de especificação são influenciados pela função de ligação utilizada e pelo tamanho amostralconsiderado. O desempenho da estatística gradiente se mostrou superior, principalmente nos menores tamanhos amostrais. Umaaplicação a dados reais é apresentada com a finalidade de ilustração do teste proposto

    Filtragem de Sinais via Limiarização de Coeficientes Wavelet

    Get PDF
    http://dx.doi.org/10.5902/2179460X13192The current work addresses topics related to signal filtering via wavelet shrinkage. Wavelets techniques applied to signal filteringgo back to the 80’s and an overview about the main results in the area are presented, as well as the most recent contributions,concerning applications and methodological aspects involved. A short discussion about wavelets and a detailed presentation aboutthe threshold operation are given. The main methods to define the threshold values are also described and their performances aretested through numerical simulations for 1D and 2D data. The presented results highlight the potential of associating waveletmethods to signal denoising techniquesO presente artigo aborda o tópico de filtragem de sinais via limiarização de coeficientes wavelets. É apresentada uma revisãodos principais resultados da área, desde os artigos clássicos e seminais até artigos no estado da arte, com enfoque em aplicaçõese aspectos metodológicos de filtragem wavelet. Uma breve discussão sobre transformadas wavelets é dada, assim como umadescrição detalhada e didática do método de limiarização de coeficientes wavelets. Os principais métodos de determinação delimiares de truncamento são descritos e aplicados em filtragem de sinais unidimensionais e bidimensionais. Esses experimentosevidenciam o bom desempenho da técnica de filtragem associada a transformada wavelet

    Modelagem e Inferência em Regressão Beta

    No full text
    Esta tese aborda aspectos de modelagem e inferência em regressão beta, mais especificamente melhoramentos do teste de razão da verossimilhanças e proposição e investigação de critérios de seleção de modelos. O modelo de regressão beta foi proposto por Ferrari e Cribari-Neto [2004. Beta regression for modeling rates and proportions. J. Appl. Statist. 31, 799 815] para modelar variáveis contínuas no intervalo (0;1), como taxas e proporções. No primeiro capítulo, abordamos o problema de inferência em pequenas amostras. Focamos no melhoramento do teste da razão de verossimilhanças. Consideramos correções de segunda ordem para a estatística da razão de verossimilhanças em regressão beta em duas abordagens. Determinamos, por meio de uma abordagem matricial, o fator de correção de Bartlett e também uma correção de Bartlett Bootstrap. Comparamos os testes baseados nas estatísticas corrigidas com o teste da razão de verossimilhanças usual e com o teste que utiliza o ajuste de Skovgaard, que já está proposto na literatura. Os resultados numéricos evidenciam que as correções de Bartlett são mais acuradas do que a estatística não corrigida e do que o ajuste de Skovgaard. No segundo e terceiro capítulos, expandimos o modelo de regressão beta proposto por Ferrari e Cribari-Neto, considerando um modelo que assume que o parâmetro de dispersão, assim como o parâmetro de média, varia ao longo das observações e pode ser modelado por meio de uma estrutura de regressão. Com isso, surge o problema da seleção de variáveis, tanto para a estrutura da média quanto para a da dispersão. Esse assunto é tratado em dois capítulos independentes e auto-contidos, porém, ambos relacionados. No Capítulo 2 propomos critérios de seleção para modelos com dispersão variável e investigamos, por meio de simulação de Monte Carlo, os desempenhos destes e de outros critérios de seleção em amostras de tamanho finito. Percebemos que o processo de seleção conjunta de regressores para a média e para a dispersão não é uma boa prática e propomos um esquema de seleção em duas etapas. A seleção de modelos com o esquema proposto, além de requerer um menor custo computacional, apresentou melhor desempenho do que o método usual de seleção. Dentre os critérios investigados encontra-se o critério de informação de Akaike (AIC). O AIC é, sem dúvida, o critério mais conhecido e aplicado em diferentes classes de modelos. Baseados no AIC diversos critérios têm sido propostos, dentre eles o SIC, o HQ e o AICc. Com o objetivo de estimar o valor esperado da log-verossimilhança, que é uma medida de discrepância entre o modelo verdadeiro e o modelo candidato estimado, Akaike obtém o AIC como uma correção assintótica para a log-verossimilhança esperada. No entanto, em pequenas amostras, ou quando o número de parâmetros do modelo é grande relativamente ao tamanho amostral, o AIC se torna viesado e tende a selecionar modelos com alta dimensionalidade. Ao considerarmos uma estrutura de regressão também para o parâmetro de dispersão introduzimos um maior número de parâmetros a serem estimados no modelo. Isso pode diminuir o desempenho dos critérios de seleção quando o tamanho amostral é pequeno ou moderado. Para contornar esse problema propomos no Capítulo 3 novos critérios de seleção para serem usados em pequenas amostras, denominados bootstrap likelihood quasi-CV (BQCV) e sua modificação 632QCV. Comparamos os desempenhos dos critérios propostos, do AIC e de suas diversas variações que utilizam log-verossimilhança bootstrap por meio de um extensivo estudo de simulação. Os resultados numéricos evidenciam o bom desempenho dos critérios proposto

    PREVISÃO DA UMIDADE RELATIVA DO AR DE BRASÍLIA POR MEIO DO MODELO BETA AUTORREGRESSIVO DE MÉDIAS MÓVEIS

    No full text
    O monitoramento da umidade relativa do ar (UR) tem grande importância no gerenciamento de recursos hídricos, na área agrícola, em estudos climáticos, assim como para a gestão da saúde pública. Este trabalho tem o objetivo de analisar, modelar e prever os valores mensais de UR da cidade de Brasília, Distrito Federal. Como a UR se dá em termos percentuais, ou seja, assume valores contínuos no intervalo (0,1), os modelos de séries temporais tradicionais da classe ARIMA não são adequados. Com isso, a utilização do modelo beta autorregressivo de médias móveis (βARMA) se faz necessária. Esse modelo para taxas e proporções, que assume distribuição beta para a variável de interesse, foi proposto recentemente por Rocha e Cribari-Neto. Para realização deste trabalho o modelo βARMA foi implementado em linguagem R. Sua aplicação aos dados de UR mostrou-se adequada, captando o comportamento da série e gerando previsões coerentes

    Improved two-component tests in Beta-Skew-t-EGARCH models

    Get PDF
    This work proposes a likelihood ratio test to assist in the selection of the Beta-Skew-t-EGARCH model with one or two volatility components. To improve the performance of the proposed test in small samples, the bootstrap-based likelihood ratio test and the bootstrap Bartlett correction are considered. The finite sample performance of the tests are assessed using Monte Carlo simulations. The numerical evidence favors the bootstrap-based test. The tests are applied to the DAX log-returns. The results demonstrate the practical usefulness of the proposed two-component tests

    COMPARAÇÃO DE DIFERENTES MODELAGENS PARA PERCENTUAL DE ENERGIA ARMAZENADA

    No full text
    O presente trabalho visa verificar a adequação de modelos de séries temporais para modelar o percentual de energia armazenada na Região Sul do Brasil.Para isso, foram considerados o modelo autorregressivo de médias móveis (ARMA) e o modelo beta autorregressivo de médias móveis (β\betaARMA). O modelo ARMA é um modelo tradicional e amplamente utilizado, enquanto que o modelo β\betaARMA é um modelo recente na literatura proposto especificamente para modelar variáveis restritas ao intervalo (0,1)(0,1), como o percentual de energia armazenada. A comparação de modelos e a escolha adequada do que melhor representa os dados em estudo é necessária para a obtenção de resultados fidedignos. Previsões acuradas para o percentual de energia armazenada colabora com o fornecimento de energia de forma segura, de qualidade e com gastos reduzidos.Os resultados das modelagens indicam melhores previsões quando considerado o modelo \barma, uma vez que apresentaram valores previstos mais próximos aos reais
    corecore