1,379 research outputs found

    On applications of Simons’ type formula and reduction of codimension for complete submanifolds in space forms

    Get PDF
    We provide a survey of applications of Simons’ type formula to submanifolds with constant mean curvature or with parallel mean curvature vector in Riemannian space forms. Also, we show a result of reduction of codimension for complete submanifolds such that the normalized mean curvature vector is parallel and the squared norm of the second fundamental form satisfies certain inequality. At the end, we give some open questions to submanifolds in general products of Riemannian space forms

    GFC-Robust Risk Management Under the Basel Accord Using Extreme Value Methodologies

    Get PDF
    In McAleer et al. (2010b), a robust risk management strategy to the Global Financial Crisis (GFC) was proposed under the Basel II Accord by selecting a Value-at-Risk (VaR) forecast that combines the forecasts of different VaR models. The robust forecast was based on the median of the point VaR forecasts of a set of conditional volatility models. In this paper we provide further evidence on the suitability of the median as a GFC-robust strategy by using an additional set of new extreme value forecasting models and by extending the sample period for comparison. These extreme value models include DPOT and Conditional EVT. Such models might be expected to be useful in explaining financial data, especially in the presence of extreme shocks that arise during a GFC. Our empirical results confirm that the median remains GFC-robust even in the presence of these new extreme value models. This is illustrated by using the S&P500 index before, during and after the 2008-09 GFC. We investigate the performance of a variety of single and combined VaR forecasts in terms of daily capital requirements and violation penalties under the Basel II Accord, as well as other criteria, including several tests for independence of the violations. The strategy based on the median, or more generally, on combined forecasts of single models, is straightforward to incorporate into existing computer software packages that are used by banks and other financial institutions.Value-at-Risk (VaR), DPOT, daily capital charges, robust forecasts, violation penalties, optimizing strategy, aggressive risk management, conservative risk management, Basel, global financial crisis.

    GFC-Robust Risk Management Under the Basel Accord Using Extreme Value Methodologies

    Get PDF
    In McAleer et al. (2010b), a robust risk management strategy to the Global Financial Crisis (GFC) was proposed under the Basel II Accord by selecting a Value-at-Risk (VaR) forecast that combines the forecasts of different VaR models. The robust forecast was based on the median of the point VaR forecasts of a set of conditional volatility models. In this paper we provide further evidence on the suitability of the median as a GFC-robust strategy by using an additional set of new extreme value forecasting models and by extending the sample period for comparison. These extreme value models include DPOT and Conditional EVT. Such models might be expected to be useful in explaining financial data, especially in the presence of extreme shocks that arise during a GFC. Our empirical results confirm that the median remains GFC-robust even in the presence of these new extreme value models. This is illustrated by using the S&P500 index before, during and after the 2008-09 GFC. We investigate the performance of a variety of single and combined VaR forecasts in terms of daily capital requirements and violation penalties under the Basel II Accord, as well as other criteria, including several tests for independence of the violations. The strategy based on the median, or more generally, on combined forecasts of single models, is straightforward to incorporate into existing computer software packages that are used by banks and other financial institutions.Value-at-Risk (VaR); DPOT; daily capital charges; robust forecasts; violation penalties; optimizing strategy; aggressive risk management; conservative risk management; Basel; global financial crisis

    Estatística no Instituto Politécnico de Santarém

    Get PDF
    O ensino da estatística nas licenciaturas do Instituto Politécnico de Santarém.info:eu-repo/semantics/publishedVersio

    Refinement criteria for high fidelity interactive walkthroughs

    Get PDF
    Physically based global illumination rendering at interactive frame rates would enable users to navigate within complex virtual environments, such as archaeological models. These algorithms, however, are computationally too demanding to allow interactive navigation on current PCs. A technique based on image subsampling and spatiotemporal coherence among successive frames is exploited, while resorting to progressive refinement whenever there is available computing power. A physically based ray tracer (Radiance) is used to compute reflected radiance at the model's triangles vertices. Progressive refinement is achieved increasing the sampling frequency by subdividing certain triangles and requesting shading information for the resulting vertices. This paper proposes and evaluates different criteria for selecting which triangles to subdivide. A random criterium and two criteria based on Normalized Luminance Differences are evaluated: one operating on image space, the other on object space. Results, obtained with a model of an old roman town, show that the object space criterium is able to locate and represent visual discontinuities, such as shadows, and does so requiring less triangle subdivisions than the other two.Fundação para a Ciência e a Tecnologia (FCT) - POSI/CHS/42041/2001

    A concessão como modelo de prestação de serviços:o caso dos SMAS de Alcobaça

    Get PDF
    Dissertação, Mestrado, Gestão Pública, Instituto Politécnico de Santarém, Escola Superior de Gestão e Tecnologia, 2014Com este trabalho pretende-se compreender a evolução e paradigmas de gestão e de Administração Pública, enquadrando o contrato de concessão numa prespetiva de alternativa à gestão autárquica na prestação de um serviço público. Considerando que os modelos de gestão e administração pública sofreram alterações ao longo dos tempos, a gestão autárquica socorreu-se de uma ferramenta alternativa, denominada pela Teoria da Nova Gestão Pública, na variante da descentralização de contrato de concessão. Este contrato tem em vista agilizar a gestão interna dos serviços, advindo dai ganhos de eficiência e melhoria na prestação de um serviço público. O presente trabalho, versa sobre o estudo de caso dos Serviços Municipalizados de Alcobaça e o contrato de concessão para fornecimento de água em alta. O principal objetivo é verificar se a descentralização deste serviço num agente externo é mais eficiente que a gestão municipal na prestação do serviço público. Procura-se compreender a razões subjacentes ao contrato de concessão, analisando o seu impacto nos Serviços Municipalizados de Alcobaça, enquadrando esta análise nos desafios globais que os novos fundamentos de gestão colocam á gestão pública

    Condições de vida e qualidade do saneamento ambiental rural como fator para o desenvolvimento de práticas agroecológicas.

    Get PDF
    Este artigo é parte integrante de uma pesquisa empírica que teve como objetivo a caracterização e análise das condições de vida e da qualidade do saneamento ambiental no assentamento Horto Florestal Loreto, SP, com o intuito de gerar informações e conhecimentos sobre determinantes das potencialidades e dos dilemas para o desenvolvimento de práticas agroecológicas na área

    Excesses, durations and forecasting value-at-risk

    Get PDF
    Tese de doutoramento, Estatística e Investigação Operacional (Probabilidades e Estatística), Universidade de Lisboa, Faculdade de Ciências, 2011The first part of this thesis is devoted to the semiparametric estimation of high quantiles. The classic estimators do not enjoy a desirable property in the presence of linear transformation of the data. To solve this problem, the Peaks Over a Random Threshold (PORT) methodology and PORT estimators are proposed. The consistency and asymptotic normality of the estimators are demonstrated. The finite sample behaviour of the proposed PORT estimators is studied and compared with some competitors. Under the context of financial time series and forecasting Value-at-Risk (VaR), the tendency to clustering of violations problem arises. To deal with this, a new class of independence tests for interval forecasts evaluation is proposed and the choice of one test is addressed. The exact and the asymptotic distributions of the corresponding test statistic are derived. In simulation studies, the proposed test revealed to be more powerful than the other tests under study, with few exceptions. The tendency to clustering of violations problem is related with the discrete Weibull distribution, through the shape parameter. A new estimator for this parameter is proposed. The conditional distribution function and the moments are derived. In order to solve the tendency to clustering of violations problem, a new risk model based on durations between excesses over a high threshold (DPOT) is proposed and compared with state-of-the art models under the probability 0.01, established in the Basel Accords. Under the context of extremal quantiles and using one of the oldest financial time series, the DPOT model and a risk model that uses an PORT estimator are compared with other risk models. In the empirical studies presented, to predict the VaR at a level 0.01 or lower, these models revealed more accuracy than the conditional parametric models widely used by the econometricians.As principais contribuições desta tese enquadram-se nas áreas da estatística de valores extremos e gestão quantitativa do risco, com exemplos de aplicações em finanças. O desenvolvimento deste trabalho apoia-se num ambiente probabilista subjacente da Teoria de Valores Extremos (EVT do inglês “Extreme Value Theory”). Na primeira parte assumimos que os dados são realizações de variáveis aleatórias (va´s) independentes e identicamente distribuídas (iid). A distribuição do máximo de n observações de uma amostra de va´s iid, após a normalização adequada, converge para um dos três tipos possíveis de distribuições de valores extremos (Fréchet, Weibull ou Gumbel), representadas na forma unificada pela distribuição generalizada de valores extremos (GEV do inglês “Generalized Extreme Value”). O parâmetro de forma da distribuição GEV é designado por índice de cauda, sendo a sua estimação de grande importância na estimação de outros parâmetros de acontecimentos raros como por exemplo quantis elevados. Estão disponíveis na literatura, referida no Capítulo 1, muitos exemplos da importância da estimação destes parâmetros num vasto leque de aplicações em hidrologia, engenharia sísmica, ciências do ambiente, modelação de tráfico de redes, gestão de riscos em seguros, finanças, entre outras áreas. A primeira parte desta tese é dedicada `a estimação semiparamétrica do índice de cauda e de quantis elevados. Os estimadores clássicos não gozam de uma propriedade desejável na presença de transformações lineares dos dados. Esta propriedade consiste nas estimativas não serem perturbadas por mudanças de localização. Para resolver este problema, propomos uma metodologia que foi designada por metodologia PORT (do inglês ”Peaks Over a Random Threshold”) e estimadores PORT para o índice de cauda e para quantis elevados. A consistência e a normalidade assintótica destes estimadores é demonstrada. É estudado o comportamento de estimadores PORT em amostras finitas e o seu desempenho comparado com outros estimadores usados na literatura da especialidade. Outro tema central tratado nesta tese é a quantificação do risco. O Value-at-Risk(VaR), que de forma simplista não é mais do que um quantil extremo, tem vindo a substituir a volatilidade e o desvio padrão, sendo actualmente a medida de risco mais utilizada pelos profissionais na área financeira. Desde os Acordos de Basileia que grande parte das instituições financeiras utilizam diariamente o VaR para cálculo dos requisitos de capital. Num contexto de séries temporais financeiras e previsão do VaR, surge o problema de violações em grupos (clusters). Christoffersen (1998) mostrou que o problema de determinar a precisão de um modelo de previsão intervalar, como o VaR, pode ser reduzido ao estudo das propriedades de cobertura não condicional (UC) e independência (IND) da sucessão “hit”, indicadora de violacão. Uma infracção problemática da hipótese IND é a que surge associada a violações que ocorrem em clusters. Este tipo de violações sinalizam um modelo que não reage atempadamente à mudança de condições e num contexto de mercados financeiros, corresponde `a ocorrência de um grande número de perdas elevadas num espaço curto de tempo. Nesta tese propomos uma nova classe de testes para a hipótese IND e uma definição para tendência para violações em clusters. Estes testes utilizam a duração até à primeira violação ao e as durações entre as violações. As distribuições exacta e assintótica da correspondente estatística de teste são deduzidas e estudamos o problema da escolha de um teste pertencente a esta classe. Este teste é adequado para detectar modelos com tendência para produzirem violações em clusters e apresenta várias vantagens em relação `as alternativas presentes na literatura, designadamente, é baseado numa distribuição exacta, é baseado numa estatística cuja distribuição não depende de um parâmetro perturbador e estudos por simulação mostram que tem um desempenho muito superior em termos de potência relativamente aos testes em estudo, com poucas excepções, apresentando mais do dobro da potência em muitos casos. Este teste também é aplicado a dados reais que abrangem a recente crise financeira global de 2008. A análise destes dados reais proporciona evidência que ignorar a propriedade IND foi uma importante razão para o fraco desempenho, durante a crise de 2008, do procedimento de “backtesting” definido nos Acordos de Basileia. Neste caso estudado, no qual usámos um modelo que produz violacões em clusters, o teste que propomos rejeita a hip´otese IND antes de todos os outros testes. A problemática de violações em clusters, motivou o estudo da distribuição Weibull discreta. Sob a hipótese IND, as durações entre violações são va’s com distribuição geométrica que é um caso particular da distribuição Weibull discreta. Com violações em clusters, verifica-se um excessivo número de durações muito curtas e um excessivo número de durações muito longas. A distribuição Weibull discreta com o parâmetro de forma inferior a 1, gera este padrão de durações e por isso a estimativa deste parâmetro pode ser usada para detectar modelos que violam a hipótese IND desta forma. Nesta tese, um novo estimador para o parâmetro de forma da distribuição Weibull discreta é proposto, sendo deduzidas a função distribuição condicional e os momentos deste estimador. Utilizando as expressões teóricas deduzidas e um estudo por simulação, o estimador proposto é comparado com outros estimadores em termos de vi´es e erro quadr´atic médio, verificando-se que o novo estimador tem um desempenho muito superior quando o parâmetro de forma é inferior a 1. Recorrendo a uma série temporal financeira, a utilização deste estimador para identificar modelos de risco que produzem violações em clusters é ilustrada. A distribuicão Weibull discreta tem muitas aplicações para al´em da apresentada no âmbito da gestão quantitativa do risco e por isso a aplicabilidade do estimador proposto tamb´em se estende para além desta área. No Capítulo 1, é apresentada evidência que o pressuposto iid não é realista num contexto de séries temporais financeiras. Nestas séries é usual obter forte evidência de ocorrência de clusters de volatilidade e dependência serial não linear. Isto pode levara um desempenho não adequado de modelos VaR que assumem o pressuposto iid para os retornos. Para lidar com esta dependência, surgiu na literatua uma metodologia híbrida que combina modelos de volatilidade tipo-GARCH (do inglês“Generalized AutoRegressive Conditional Heteroskedasticity”) com a EVT. Nesta tese propomos uma metodologia alternativa com base apenas na EVT e que não necessita de assumir um modelo paramétrico para toda a distribuição dos retornos mas apenas na cauda e com base em sólida teoria assintótica. A metodologia proposta utiliza os excessos acima de um nível elevado e as durações entre estes excessos como covariáveis, tendo sido designada por DPOT (do inglês“Duration based Peaks Over Threshold”). Na literatura, métodos baseados no ajustamento de um modelo estocástico aos excessos acima de um n´ıvel elevado u foram desenvolvidos sob a designação POT (do inglês“Peaks Over Threshold”). Um dos mais importantes Teoremas da EVT estabelece que os excessos acima de u seguem aproximadamente uma distribuição de Pareto Generalizada, quando a distribuição subjacente pertence ao domínio de atracção de uma distribuição GEV. A metodologia DPOT recorre ao método POT e à modelação ao do parâmetro de forma utilizando as durações como covariáveis. Com base neste método, três modelos DPOT, para previsão do VaR para o dia seguinte, foram comparados com outros modelos utilizando os retornos históricos de índices de accões. Os resultados empíricos mostram que, para a probabilidade 0.01 estipulada nos Acordos de Basileia e com os índices estudados, estes modelos têm um desempenho muito bom em termos de cobertura não condicional e em termos de independência. Os modelos DPOT revelaram um melhor desempenho“out-of-sample” que os modelos que constituem o estado-da-arte de modelos de risco. Em comparação com o popular modelo RiskMetrics desenvolvido pela J.P. Morgan, o desempenho é muito superior quer em termos de cobertura condicional, quer em termos de independência. Adicionalmente, tendo em conta o cálculo dos requisitos de capital no âmbito dos Acordos de Basileia, no período estudado e para os índices considerados, os modelos DPOT propostos conduziram a requisitos de capital médio inferiores aos dos outros modelos, mas antecipando melhor os momentos de elevada volatilidade. Finalmente, importa notar que o pressuposto iid não é necessariamente uma limitação. Na última parte desta tese, recorrendo a dados reais, mostramos que no caso do VaR com níveis de probabilidade muito baixos, i.e., no caso de quantis elevados, um estimador de variância mínima e viés reduzido (MVRB do inglês ”Minimum Variance Reduced Bias”), introduzido recentemente na literatura, que incorpora um dos estimadores PORT sugerido nesta tese e que é baseado no pressuposto iid, pode ser extraordináriamente preciso. Nesta última parte, é comparado o desempenho “out-of-sample” de modelos VaR baseados neste estimador, de modelos DPOT e de outros modelos VaR. Neste contexto, os níveis de probabilidade muito baixos utilizados foram p = 0.001 e p = 0.0005, que correspondem a alterações adversas de preços que se espera ocorrerem em média uma vez de quatro em quatro anos ou em média uma vez de oito em oito anos. O VaR com estes níveis de probabilidade pode ter interesse no desenvolvimento dos“testes de stress”. Nos estudos empíricos apresentados, para previsão do VaR com um nível de probabilidade igual ou inferior a 0.01, os modelos DPOT e os modelos baseados num estimador MVRB que incorpora um estimador PORT, revelaram mais precisão que os modelos paramétricos condicionais que são muito utilizados pelos econometristas, verificando-se em alguns casos uma enorme diferença no desempenho ”out-of-sample”.Fundação para a Ciência e Tecnologia (FCT) - PROTEC program; Center of estatistics and applications of University of Lisbon (CEAUL
    corecore