98 research outputs found

    A novel approach to damage localisation based on bispectral analysis and neural network

    Get PDF
    The normalised version of bispectrum, the so-called bicoherence, has often proved a reliable method of damage detection on engineering applications. Indeed, higher-order spectral analysis (HOSA) has the advantage of being able to detect non-linearity in the structural dynamic response while being insensitive to ambient vibrations. Skewness in the response may be easily spotted and related to damage conditions, as the majority of common faults and cracks shows bilinear effects. The present study tries to extend the application of HOSA to damage localisation, resorting to a neural network based classification algorithm. In order to validate the approach, a non-linear finite element model of a 4-meters-long cantilever beam has been built. This model could be seen as a first generic concept of more complex structural systems, such as aircraft wings, wind turbine blades, etc. The main aim of the study is to train a Neural Network (NN) able to classify different damage locations, when fed with bispectra. These are computed using the dynamic response of the FE nonlinear model to random noise excitation

    Characteristic eddy decomposition of turbulence in a channel

    Get PDF
    The proper orthogonal decomposition technique (Lumley's decomposition) is applied to the turbulent flow in a channel to extract coherent structures by decomposing the velocity field into characteristic eddies with random coefficients. In the homogeneous spatial directions, a generaliztion of the shot-noise expansion is used to determine the characteristic eddies. In this expansion, the Fourier coefficients of the characteristic eddy cannot be obtained from the second-order statistics. Three different techniques are used to determine the phases of these coefficients. They are based on: (1) the bispectrum, (2) a spatial compactness requirement, and (3) a functional continuity argument. Results from these three techniques are found to be similar in most respects. The implications of these techniques and the shot-noise expansion are discussed. The dominant eddy is found to contribute as much as 76 percent to the turbulent kinetic energy. In both 2D and 3D, the characteristic eddies consist of an ejection region straddled by streamwise vortices that leave the wall in the very short streamwise distance of about 100 wall units

    Nonlinear modelling of drum sounds

    Get PDF

    Cosmological density fields and gravitational waves: a statistical learning approach

    Get PDF
    Tese de mestrado em Física (Astrofísica e Cosmologia), Universidade de Lisboa, Faculdade de Ciências, 2021Vários estudos em cosmologia e astrofísica dependem da geração de simulações de alta performance para explorar o espaço de parâmetros que rege as teorias físicas subjacentes. Historicamente, o estudo da gravidade e efeitos gravitacionais representa um dos mais importantes exemplos dessa dependência, sendo que os recursos computacionais requeridos para simular a dinâmica gravitacional têm contribuído para a necessidade de construção das maiores infraestruturas computacionais modernas. Esta tese tem como tema a construção de métodos para aliviar esses recursos, diminuindo o tempo necessário para a exploração e inferência no espaço de parâmetros. Para o efeito, adotámos quatro algoritmos supervisionados de Aprendizagem Automática (Machine Learning), Redes Neuronais (Neural Networks), Floresta Aleatória (Random Forest), Árvores Extremamente Aleatórias (Extremelly Randomized Trees) e Máquinas de Vectores de Suporte (Support Vector Machines), em conjunto com um método de transformação de base (Análise de Componentes Principais), aplicando os a dois cenários astrofísicos e cosmológicos onde a gravidade é dominante, a escalas e magnitudes opostas. No primeiro cenário, estudamos a emulação de campos de densidade de matéria escura com base em simulações de Ncorpos. Neste caso, o nosso método usa os diferentes algoritmos de Machine Learning supervisionado e adopta ”Análise de Componentes Principais” para permitir a realização de emulações rápidas, e estudamos a sua aplicação em dois casos. No primeiro, realizamos emulações considerando apenas um parâmetro livre, Ω, a densidade de matéria escura. No segundo caso, de forma a testar os nossos algoritmos em contextos de maior dimensionalidade, consideramos dois parâmetros livres, Ω e o redshift (z). Partindo de um conjunto de simulações de Ncorpos, que serve como ”exemplo de treino” os algoritmos conseguem aprender a relação entre os dados das simulações e um dado conjunto de parâmetros livres de interesse. De forma a tornar o problema o mais computacionalmente tratável possível, aplicamos Análise de Componentes Principais ao conjunto de dados, previamente à aprendizagem. Este método toma partido da redundância intrínseca aos dados, projetando os numa base que preserva o máximo da sua variância num conjunto mínimo de coeficientes, chamados ”Componentes Principais”. Posteriormente à projeção, segue-se a aprendizagem. Em vez de fornecer os dados das simulações diretamente aos algoritmos de Machine Learning, são os Componentes Principais dos dados projetados que são fornecidos, permitindo uma redução nos recursos computacionais necessários. Neste cenário em particular, usamos os Componentes Principais como variáveis dependentes e os parâmetros cosmológicos como variáveis independentes. Posteriormente à aprendizagem, com base num novo conjunto de parâmetros cosmológicos de teste, é possível estimar os Componentes Principais relativos à simulação correspondente. Estes novos Componente Principais podem então ser projetados na base original, o campo de densidades, que corresponderá à emulação final. Como medidas de comparação das nossas emulações com as simulações reais, usamos uma medida de comparação de magnitudes de densidade célula a célula, a que chamamos de Mean Overdensity Distance, e duas medidas de comparação de propriedades estatísticas, o Power Spectrum e o Bispectrum, sendo as duas últimas as nossas métricas principais. O Power Spectrum corresponde à transformada de Fourier da função de correlação a dois pontos, e fornece uma descrição completa de um campo aleatório Gaussiano, enquanto que o Bispectrum corresponde à transformada de Fourier da função de correlação a três pontos e analisa desvios à Gaussianidade da distribuição. Consequentemente, juntas, estas quantidades fornecem uma descrição consideravelmente alargada das propriedades estatísticas dos nossos campos de densidade. Adicionalmente, realizamos uma demonstração da aplicação de ”Análise de Componentes Principais Funcional” no caso de um parâmetro livre, sendo esta provavelmente a primeira aplicação do método mencionado num contexto cosmológico. Este método transforma os nossos dados de treino em formato funcional (continuo), providenciando um conjunto de funções continuas que relacionam cada Componente Principal com o parâmetro cosmológico de interesse, permitindo assim a realização das emulações dos campos de densidade sem ser necessária a introdução de algoritmos de aprendizagem supervisionada, e consequentemente, a elaboração de uma metodologia igualmente útil, mas mais compacta. Adicionalmente, quando comparada com a metodologia anterior, no mesmo conjunto de dados, este método permite a obtenção de erros inferiores e resultados mais robustos. Um aspeto importante de se sublinhar consiste no facto de apesar destas aplicações serem especificas a campos de densidade de matéria escura, o nosso método é genérico o suficiente para permitir a emulação de qualquer campo escalar em 3D, como por exemplo o campo de densidades de matéria bariónica. Num segundo cenário, estudamos a aplicação da metodologia proposta para realizar inferência de parâmetros relativos aos progenitores de ondas gravitacionais. Os nossos métodos são adaptados de forma a aprender a relação entre os vetores de amplitudes de simulações aproximadas de ondas gravitacionais emitidas por sistemas binários de Buracos Negros e o Chirp Mass (ℎ ) do sistema que emite a onda, que corresponde a uma quantidade que contém o valor das massas de ambos os corpos. Demonstramos a aplicação deste método em dois casos: domínio temporal e de frequências, e em ambos os casos, consideramos distribuições de ruído realísticas, esperadas em detetores terrestres de ondas gravitacionais. Relativamente a este cenário, aplicamos o mesmo método de decomposição do conjunto de dados de ondas gravitacionais em Componentes Principais, seguindo-se a aplicação dos algoritmos de aprendizagem supervisionada. No entanto, uma vez que o objetivo neste caso consiste em prever o parâmetro livre e não a onda em si, os Componentes Principais terão o papel de variáveis independentes. Posteriormente à aprendizagem, partindo de um dado conjunto de ondas de teste não incluído no conjunto de treino, é possível projetá-lo na base de Componentes Principais do conjunto de treino. Estes novos componentes principais, podem então ser fornecidos aos algoritmos treinados para inferência do Chirp Mass da onda correspondente. De forma a testar os nossos métodos em diferentes regimes de razão sinal-ruído calculamos o ruído esperado no detetor terrestre Advanced LIGO e adicionamo-lo a conjuntos de ondas gravitacionais emitidas por sistemas binários a distâncias gradualmente superiores. Desta forma cada conjunto de ondas terá uma razão sinal-ruído gradualmente inferior. Neste caso, uma vez que as nossas grandezas estimadas (Chirp Masses) correspondem a grandezas de natureza contínua, decidimos aplicar como estatística o Desvio Quadrático Medio (Root Mean Squared Error) para comparar as nossas estimações com os parâmetros reais. Mostramos que a nossa abordagem proposta permite um ganho de três ordens de magnitude na obtenção dos campos de densidade, comparativamente ao tempo de execução de uma simulação de Ncorpos da mesma escala e no mesmo sistema. Adicionalmente, conseguimos reproduzir o Power Spectrum e Bispectrum com erros abaixo de ~ 1% e ~ 3% para o caso de emulação a partir de um parâmetro livre (Ω) e abaixo de ~ 5% e ~ 15% para o caso de emulação a partir de dois parâmetros livres (Ω, z). Sendo que os algoritmos com maior prestação foram as Neural Networks no caso de emulação a partir de um parâmetro livre e as Support Vector Machines no caso de emulação a partir de dois parâmetros livres. No segundo cenário, mostramos que numa fração de segundo, o nosso método permite a inferência de 255 Chirp Masses a partir de dados de ondas gravitacionais com erros abaixo dos ~ 2% em regimes de elevada razão sinal-ruído e usando o algoritmo Extremelly Randomized Trees, e abaixo dos ~ 5% em regimes de baixa razão sinal-ruído e usando o algoritmo Support Vector Machines. Estes resultados indicam que as metodologias propostas consistem em alternativas promissoras para a análise de grandes conjuntos de dados provenientes de observações cosmológicas e astrofísicas que serão brevemente realizadas por missões como Euclid, LSST, e LISA. Ajudando assim a constranger os modelos que descrevem o comportamento da interação mais importante que molda a nossa visão do Universo: A Gravidade.Several cosmological and astrophysical studies rely on the generation of costly simulations to sample the parameter space of an underlying physical theory. Historically, the study of gravity and gravitational effects has been among the most important examples of such cases, and gravity has been linked to the very requirements to build the largest available computational facilities. This thesis concerns the construction of methods to alleviate these requirements, and to enable significantly faster sampling and inference. To do so, we adopted supervised machine learning algorithms coupled with a basis transformation method, and we applied our methods to two cosmological and astrophysical scenarios where gravity dominates at different scales and strength regimes. In a first scenario, we study the emulation of 3D Nbody simulations of the dark matter density field. We construct a method that uses different machine learning methods and adopts Principal Component Analysis to enable fast emulations, and we study how it behaves in two application cases. In the first case we perform the emulation considering a single free parameter, Ω, the dark matter density. In the second case, we perform the emulation considering two free parameters, Ω and redshift. We additionally demonstrate an application of Functional Principal Component Analysis (FPCA) on the single free parameter case, which is probably the first ever application of this method in a cosmological context. Although we applied our method to dark matter density fields, it is generic enough to emulate any other 3D scalar field. In a second scenario, we study the application of the proposed methodology to perform parameter inference of progenitors of gravitational waves. We adapt our method to learn from approximated simulations of gravitational waveforms the value of the combination of the masses of the progenitor system, the chirp mass parameter, ℎ . We demonstrate the application of our method in two inference cases: in time domain and a more realistic frequency domain case, and in both cases, we consider realistic noise distributions from ground based gravitational wave detectors. We show that our proposed approach enables gains of three orders of magnitude in running times compared to performing a full Nbody simulation, while still reproducing the power spectrum and bi-spectrum within ~ 1% and ~ 3% errors for the single parameter emulation and ~ 5% and ~ 15% for the two-parameter emulation. We also show that in a fraction of a second, our method allows the inference of the chirp masses from gravitational wave data with errors within ~ 2% in the high signal-to-noise ratio regime and ~ 5% in the low signal-to-noise regime. These results indicate that the proposed methodologies are promising alternatives to analyse the large datasets of cosmological and astrophysical observations expected to result from upcoming surveys like Euclid, LSST, and LISA, and thus to help in constraining the models that describe the behaviour of the most important interaction that shapes our vision of the Universe: Gravity

    Non-Gaussianity in CMB analysis: bispectrum estimation and foreground subtraction

    Get PDF
    The focus of this work is the development of statistical and numerical methods forthe study of non-Gaussian and/or anisotropic features in cosmological surveys of themicrowave sky. We focus on two very different types of non-Gaussian (NG) signals. The former is primordial non-Gaussianity (PNG), generated in the very Early Universeduring the inflationary expansion stage. In this case the aim of our study will be that ofexploiting the NG component in order to extract useful cosmological information. The latter is non-Gaussianity generated by astrophysical foreground contamination. In thiscase, the goal is instead that of using non-Gaussianity as a tool to help in removingthese spurious, non-cosmological components (of course foregrounds themselves contain relevant astrophysical information, but the focus in this thesis is on Cosmology, thereforeforegrounds are regarded here only as a contaminant). Considerable efforts have been put so far in the search for deviations from Gaussianity in the CMB anisotropies, that are expected to provide invaluable information aboutthe Inflationary epoch. Inflation is in fact expected to produce an isotropic and nearly-Gaussian fluctuation field. However, a large amount of models also predicts very small,but highly model dependent NG signatures. This is the main reason behind the largeinterest in primordial NG studies. Of course, the pursuit for primordial non-Gaussianity must rely on beyond power spectrum statistics. It turns out that the most important higher order correlator produced by interactions during Inflation is the three pointfunction, or, more precisely, its Fourier space counterpart, called the bispectrum. Toovercome the issue of computing the full bispectrum of the observed field, that would require a prohibitive amount of computational time, the search for PNG features is carriedout by fitting theoretically motivated bispectrum templates to the data. Among those, one can find bispectrum templates with a scale-dependent (SD) bispectrum amplitude. Such templates have actually received little attention so far in the literature, especiallyas long as NG statistical estimation and data analysis are concerned. This is why a significant part of this thesis will be devoted to the development and application of efficientstatistical pipelines for CMB scale-dependent bispectra estimation. We present here theresults of the estimation of several primordial running bispectra obtained from WMAP9 year and Planck data-set. iiiThe second part of this thesis deals instead, as mentioned iin the beginning, withthe component separation problem, i.e. the identification of the different sources thatcontributes to the microwave sky brightness. Foreground emission produces several,potentially large, non-Gaussian signatures that can in principle be used to identify andremove the spurious components from the microwave sky maps. Our focus will be onthe development of a foreground cleaning technique relying on the hypothesis that, ifthe data are represented in a proper basis, the foreground signal is sparse. Sparsenessimplies that the majority of the signal is concentrated in few basis elements, that can be used to fit the corresponding component with a thresholding algorithm. We verifythat the spherical needlet frame has the right properties to disentangle the coherentforeground emission from the isotropic stochastic CMB signal. We will make clear inthe following how sparseness in needlet space is actually in several ways linked to thecoherence, anisotropy and non-Gaussianity of the foreground components.. The mainadvantages of our needlet thresholding technique are that it does not requires multi-frequency information as well as that it can be used in combination with other methods. Therefore it can represent a valuable tool in experiments with limited frequency coverage,as current ground-based CMB surveys
    corecore