2,777 research outputs found

    An encryption-decryption framework for validating single-particle imaging

    No full text
    We propose an encryption–decryption framework for validating diffraction intensity volumes reconstructed using single-particle imaging (SPI) with X-ray free-electron lasers (XFELs) when the ground truth volume is absent. This conceptual framework exploits each reconstructed volumes’ ability to decipher latent variables (e.g. orientations) of unseen sentinel diffraction patterns. Using this framework, we quantify novel measures of orientation disconcurrence, inconsistency, and disagreement between the decryptions by two independently reconstructed volumes. We also study how these measures can be used to define data sufficiency and its relation to spatial resolution, and the practical consequences of focusing XFEL pulses to smaller foci. This conceptual framework overcomes critical ambiguities in using Fourier Shell Correlation (FSC) as a validation measure for SPI. Finally, we show how this encryption-decryption framework naturally leads to an information-theoretic reformulation of the resolving power of XFEL-SPI, which we hope will lead to principled frameworks for experiment and instrument design

    Physical component analysis of galaxy cluster weak gravitational lensing data

    Full text link
    We present a novel approach for reconstructing the projected mass distribution of clusters of galaxies from sparse and noisy weak gravitational lensing shear data. The reconstructions are regularised using knowledge gained from numerical simulations of clusters: trial mass distributions are constructed from N physically-motivated components, each of which has the universal density profile and characteristic geometry observed in simulated clusters. The parameters of these components are assumed to be distributed \emph{a priori} in the same way as they are in the simulated clusters. Sampling mass distributions from the components' parameters' posterior probability density function allows estimates of the mass distribution to be generated, with error bars. The appropriate number of components is inferred from the data itself via the Bayesian evidence, and is typically found to be small, reflecting the quality of the simulated data used in this work. Ensemble average mass maps are found to be robust to the details of the noise realisation, and succeed in recovering the input mass distribution (from a realistic simulated cluster) over a wide range of scales. We comment on the residuals of the reconstruction and their implications, and discuss the extension of the method to include strong lensing information.Comment: 12 pages, 7 figure

    A new method for reconstruction of the structure of micro-packed beds of spherical particles from desktop X-ray microtomography images. Part A. Initial structure generation and porosity determination

    Get PDF
    Micro-packed beds (μPBs) are seeing increasing use in the process intensification context (e.g. micro-reactors), in separation and purification, particularly in the pharmaceutical and bio-products sectors, and in analytical chemistry. The structure of the stationary phase and of the void space it defines in such columns is of interest because it strongly influences performance. However, instrumental limitations - in particular the limited resolution of various imaging techniques relative to the particle and void space dimensions - have impeded experimental study of the structure of μPBs. We report here a new method that obviates this issue when the μPBs are composed of particles that may be approximated by monodisperse spheres. It achieves this by identifying in successive cross-sectional images of the bed, the approximate centre and diameter of the particle cross-sections, replacing them with circles, and then assembling them to form the particles by identifying correlations between the successive images. Two important novel aspects of the method proposed here are: it does not require specification of a threshold for binarizing the images, and it preserves the underlying spherical geometry of the packing. The new method is demonstrated through its application to a packing of a near-monodispersed 30.5 μm particles of high sphericity within a 200 μm square cross-section column imaged using a machine capable of 2.28 μm resolution. The porosity obtained was, within statistical uncertainty, the same as that determined via a direct method whilst use of a commonly used automatic thresholding technique yielded a result that was nearly 10% adrift, well beyond the experimental uncertainty. Extension of the method to packings of spherical particles that are less monodisperse or of different regular shapes (e.g. ellipsoids) is also discussed

    Solar activity during the Holocene: the Hallstatt cycle and its consequence for grand minima and maxim

    Full text link
    Cosmogenic isotopes provide the only quantitative proxy for analyzing the long-term solar variability over a centennial timescale. While essential progress has been achieved in both measurements and modeling of the cosmogenic proxy, uncertainties still remain in the determination of the geomagnetic dipole moment evolution. Here we improve the reconstruction of solar activity over the past nine millennia using a multi-proxy approach. We used records of the 14C and 10Be cosmogenic isotopes, current numerical models of the isotope production and transport in Earth's atmosphere, and available geomagnetic field reconstructions, including a new reconstruction relying on an updated archeo-/paleointensity database. The obtained series were analyzed using the singular spectrum analysis (SSA) method to study the millennial-scale trends. A new reconstruction of the geomagnetic dipole field moment, GMAG.9k, is built for the last nine millennia. New reconstructions of solar activity covering the last nine millennia, quantified in sunspot numbers, are presented and analyzed. A conservative list of grand minima and maxima is provided. The primary components of the reconstructed solar activity, as determined using the SSA method, are different for the series based on 14C and 10Be. These primary components can only be ascribed to long-term changes in the terrestrial system and not to the Sun. They have been removed from the reconstructed series. In contrast, the secondary SSA components of the reconstructed solar activity are found to be dominated by a common ~2400-yr quasi-periodicity, the so-called Hallstatt cycle, in both the 14C and 10Be based series. This Hallstatt cycle thus appears to be related to solar activity. Finally, we show that the grand minima and maxima occurred intermittently over the studied period, with clustering near highs and lows of the Hallstatt cycle, respectively.Comment: In press in Astronomy & Astrophysics, doi: 10.1051/0004-6361/20152729

    Temperatures recorded by cosmogenic noble gases since the last glacial maximum in the Maritime Alps

    Get PDF
    While proxy records have been used to reconstruct late Quaternary climate parameters throughout the European Alps, our knowledge of deglacial climate conditions in the Maritime Alps is limited. Here, we report temperatures recorded by a new and independent geochemical technique—cosmogenic noble gas paleothermometry—in the Maritime Alps since the last glacial maximum. We measured cosmogenic 3He in quartz from boulders in nested moraines in the Gesso Valley, Italy. Paired with cosmogenic 10Be measurements and 3He diffusion experiments on quartz from the same boulders, the cosmogenic 3He abundances record the temperatures these boulders experienced during their exposure. We calculate effective diffusion temperatures (EDTs) over the last ~22 ka ranging from 8°C to 25°C. These EDTs, which are functionally related to, but greater than, mean ambient temperatures, are consistent with temperatures inferred from other proxies in nearby Alpine regions and those predicted by a transient general circulation model. In detail, however, we also find different EDTs for boulders from the same moraines, thus limiting our ability to interpret these temperatures. We explore possible causes for these intra-moraine discrepancies, including variations in radiative heating, our treatment of complex helium diffusion, uncertainties in our grain size analyses, and unaccounted-for erosion or cosmogenic inheritance

    Investigating the impact of beam and target parameters in particle imaging

    Get PDF
    Tese de mestrado integrado, Engenharia Biomédica e Biofísica (Radiação em Diagnóstico e Terapia) Universidade de Lisboa, Faculdade de Ciências, 2020Estima-se que o cancro é a segunda principal causa de morte a nível mundial sendo responsável por aproximadamente 9.6 milhões de mortes em 2018, globalmente correspondendo a 1 em cada 6 mortes98. Cirurgia, radioterapia e quimioterapia estão incluídas como alguns dos vários regimes de tratamento adequados dependendo do tipo de cancro, sendo, portanto, o seu correto diagnóstico um factor de elevada importância. Radioterapia externa é definida como o tratamento que consiste na administração de diferentes tipos de radiação ionizante como o raio-X, raios Gamma, protões ou partículas com carga, utilizados como fim a destruição das células tumorais. Este processo consiste no efeito direto provocado pela radiação na estrutura do DNA, mais especificamente na dupla hélice, provocando uma ativação de sensores de destruição no DNA de modo a causar necrose, apoptose ou produzir um efeito na mitose de forma a deformar as características normais do neoplasma94. Exisre também um efeito indireto de destruição através das espécies reativas de oxigénio produzidas pela radiólise de água. A radiação absorvida pelas células, medida em unidades Gray (Gy) é definida como a quantidade de energia depositada pela radiação ionizante numa massa de volume de tecido, sendo que o dano celular é tanto maior quanto maior for a radiação absorvida85. As partículas carregadas possuem distribuições de profundidade-dose diferentes quando comparadas com fotões. A grande maioria da sua energia é depositada nos milímetros finais da sua trajetória, quando a sua velocidade diminui, sendo este factor o que forma o pico de Bragg, definido como um pico de dose estreito e localizado. O alcance desta mesma partícula no material é observado na posição de paragem do pico de Bragg91. Procedendo ao ajustamento da energia das partículas carregadas é possível depositar com alta precisão as doses pré-prescritas no corpo do doente, levando a que haja um rácio alto de deposição de dose no volume alvo quando comparado com tecido saudável. A errada localização do pico de Bragg pode resultar tanto em overdose dos tecidos saudáveis como em subdosagem do alvo. Portanto, um desafio importante na radioterapia consiste em determinar a energia incidente necessária da partícula de modo a permitir uma alta ionização num lugar específico do corpo humano. Em terapia externa de fotões e protões, anteriormente ao tratamento, uma tomografia computorizada de planeamento é adquirido, onde as estruturas são delineadas de modo a providenciar um mapa de densidade eletrónica que mais tarde é traduzida para valores de poder de paragem71. A prática clínica corrente consiste em adquirir os valores de poder de paragem no doente procedendo à conversão de unidades Hounsfield de uma tomografia computorizada de planeamento para poder de paragem relativo. O poder de paragem relativo é definido como o poder de paragem de um material comparado com o poder de paragem da água43. Esta conversão consiste na correspondência entre valores das unidades Hounsfield e poderes de paragem relativos a partir de uma curva de calibração91. Contudo, não existe uma relação física entre o coeficiente de atenuação mássica do fotão, medido pela tomografia computorizada de planeamento, e os valores de poder de paragem relativos o que leva a incertezas associadas a este método de conversão. Estas incertezas têm um grande impacto no alcance atingido pelas partículas calculado no scan de tomografia computorizada do doente e variam na ordem dos 3%. Portanto, margens de segurança são adicionadas à dose administrada ao doente que rodeia o volume alvo planeado de modo a assegurar um volume total clínico do alvo. Como esperado, devido a estas margens de segurança, um volume significativo de volume de tecido saudável irá também receber dose. Radiografia e tomografia de partículas são ferramentas utilizadas para o planeamento de tratamento e verificação em terapia de partículas de maneira a permitir a visualização da parte do corpo que está a passar pelo scan. A maior vantagem associada à imagiologia de transmissão de partículas quando comparada com a estimação dos valores de poder de paragem relativos com raio-X, é a maior precisão desta estimação devido às medidas efetuadas à espessura equivalente de água percorrida pelos protões ou iões leves após percorrer o doente. Sendo que os valores de espessura equivalente da água estão relacionados com a valores integrados de poder de paragem relativos, os mesmos poderão ser obtidos, em três dimensões, através da reconstrução da tomografia computorizada das projeções medidas dos valores de espessura equivalentes de água71. Portanto, imagiologia de partículas permite a estimação direta de valores relativos de poder de paragem através de tomografia computorizada de partículas. Não obstante, a dispersão múltipla de Coulomb, definido como processos de dispersão de Rutherford sofridos por uma partilha aquando da sua viagem na matéria, limita a qualidade de imagem devido à defleção angular e deslocamento lateral das partículas. Estas dispersões dificultam a predição da localização e ângulo da partícula a uma dada profundidade. De modo a melhorar a resolução espacial, é necessário identificar a posição e direção da partícula antes e depois do objeto assim como medir a sua energia residual individual recorrendo a sistemas de detetores. O detetor utilizado para esta investigação da tese está mais profundamente explicado na secção 4.2. Os algoritmos Most Likely Path (MLP) (“Trajeto mais provável”) e Cubic Spline Path (“Trajetória de linha cúbica”) foram propostos em imagiologia de partículas com objetivo de melhorar o problema associado à dispersão múltipla de Coulomb. Recorrendo aos algoritmos mencionados, o objetivo principal desta tese é, portanto, a investigação da qualidade de imagem de radiografia em função da energia inicial do feixe de partículas. Uma vez que a dispersão múltipla de Coulomb afeta a precisão do algoritmo MLP afetando, portanto, a resolução espacial, tem sido proposto por vários estudos21,32,42,69,88 o uso de iões de hélio como partículas geradoras de imagem devido ao reduzido efeito associado de múltipla dispersão de Coulomb. Além do mais, quando comparados com protões, os iões de hélio possuem menos dispersão de alcance o que significa que têm menos ruído associado à imagem com o mesmo número de partículas por pixel32. Juntando estas vantagens associadas e ainda mais o facto de que os iões de hélio sofrem menos fragmentação quando comparados com partículas pesadas, fez com que estas fossem as partículas escolhidas para imagiologia como estudo para esta tese. O estudo de Amato et al. (2020)5 demonstra que o uso de energias mais altas para o feixe de partículas provoca uma redução da dispersão múltipla de Coulomb levando a um aumento da resolução espacial. Contudo, um aumento de dispersão de alcance da partícula leva a que haja um maior nível de ruído na imagem. No mesmo estudo, apenas objetos homogéneos são estudados e no caso dos objetos heterogéneos a dispersão múltipla de Coulomb aumenta significativamente o ruído de imagem25. Consequentemente, sendo que ainda é desconhecido o comportamento da qualidade de imagem aquando do aumento da energia do feixe para casos reais de doentes, o objetivo principal desta tese é a investigação da qualidade de imagem de radiografia de iões de hélio em função da energia inicial do feixe de partículas, tanto para fantomas homogéneos como para heterogéneos. Um protótipo de detetor68 foi utilizado para simular, com simulações Monte Carlo no software de simulações TOPAS, as radiografias de hélio e, seguindo o estudo de Amato et al. (2020)5, um material degradador de energia (cobre) foi adicionado entre o dispositivo rastreador traseiro e o detetor de energia de modo a compensar os alcances mais elevados associados a maiores energias do feixe. Nesta tese, um fantoma homogéneo de água com três cubos de alumínio inseridos foi estudado assim como um fantoma de uma cabeça pediátrica34 de modo a estudar casos mais realistas. As reconstruções de imagem foram realizadas recorrendo ao algoritmo desenvolvido por Collins-Fekete et al. (2016)19 e a qualidade de imagem foi analisada para resolução espacial, rácio entre contraste e ruído e o ruído por pixel em relação à dose absorvida. Os resultados desta investigação, com o intervalo de energias do feixe utilizado (200-325 MeV/u), envolveram uma melhoria total de 46% de resolução espacial com o aumento da energia do feixe de partículas, exceto para o caso de 325 MeV/u que não segue a tendência. Em relação ao rácio entre contraste e ruído, ocorreu uma diminuição de 42% à medida que a energia do feixe de partículas aumentava. Concluindo, existe uma melhoria qualitativa e quantitativa em termos de resolução espacial nas radiografias de iões de hélio associada ao aumento das energias do feixe de partículas com a adição de um degradador de energia.Cancer is known to kill an estimate of 9.6 million people in 201898. Therefore, it is urgent to ameliorate the associated treatment, specifically radiotherapy. Particle therapy is a form of cancer radiotherapy exploiting the highly localized dose deposit of charged particles, the Bragg peak, for advanced sparing of healthy tissue. However, the highly conformal dose deposit also presents a great challenge as misplacement of the Bragg peak can result in severe overdosage of healthy tissue/underdosage of the target. Precise particle therapy hence requires advanced image guidance methods. This thesis focuses on particle imaging for image guidance in particle therapy. A precise relative stopping power map of the patient constitutes a vital part for accurate particle therapy. Charged particle imaging can determine the stopping power both tomographically with particle computed tomography (pCT), or combining prior knowledge from particle radiography and X-ray CT. In terms of image quality improvement, image reconstruction becomes challenging for particle imaging owing to the existence of Multiple Coulomb Scattering (MCS) limiting image resolution (worse spatial resolution) and leading to increased image noise20. In order to improve the image quality, therefore, most likely path (MLP) reconstruction algorithms are performed, to ameliorate the problem of MCS. Tracking detectors of individual particles before and after the patient are required to use MLP algorithms. Moreover, an energy/range detector is also necessary to measure the particles’ residual energy/range after the patient and to ensure RSP accuracy. Both heavier particles and higher beam energies reduce the effect of multiple Coulomb scattering, leading to a better path estimation. It is also noted, that for lighter ions, fixing the initial range maximizes the physical dose deposition to the patient while minimizing the image quality91. In this thesis, therefore the image quality of helium ion imaging with a recent prototype detector system is evaluated as function of the beam energy in detailed Monte Carlo simulations. With this research project, factors, such as beam and target parameters, involved in increasing image quality were studied in particle imaging taking into account detector design. The idea was to investigate how to improve upon a state-of-the-art prototype scanner, allowing for higher beam energies. This will be accomplished by adding an adequate energy degrader to the detector, between the rear tracker and the energy/range detector. This degrader had its main aim to compensate for the longer range associated with more energetic ions. The main goal was to investigate the image quality as a function of initial energy behave, assuming a realistic detector model in the simulation. Helium ion beams at six different energy levels available at a clinical ion beam therapy facility (200 MeV/u to 325 MeV/u) were used to image two different phantoms: a water phantom with three aluminum cubes inside and an anthropomorphic pediatric head phantom. Monte Carlo simulations were performed using the TOPAS simulation toolkit. For path estimation, the Cubic Spline Path (CSP) was employed, which is a computationally efficient variate of the MLP. To reconstruct helium ion radiographic images the Maximum Likelihood Method used. This algorithm yields highly accurate radiographs without the need of prior knowledge. Further, the image quality was analyzed through the contrast-to-noise-ratio (CNR), per-pixel-noise and the Modulation Transfer Function (MTF), considering the absorbed dose. The results of this investigation, considering the beam energy interval, involve a total spatial resolution improvement of 46% measured with increasing beam energy, except for the 325 MeV/u case which does not fit the trend. In relation to CNR analysis, a decrease of 42% was found as the beam energy increases. In conclusion, there is a quantitatively and qualitatively improvement in terms of spatial resolution in helium-beam radiography with increasing beam energies with the addition of an energy degrader
    corecore