93 research outputs found

    Liquid Transport Pipeline Monitoring Architecture Based on State Estimators for Leak Detection and Location

    Get PDF
    This research presents the implementation of optimization algorithms to build auxiliary signals that can be injected as inputs into a pipeline in order to estimate —by using state observers—physical parameters such as the friction or the velocity of sound in the fluid. For the state estimator design, the parameters to be estimated are incorporated into the state vector of a Liénard-type model of a pipeline such that the observer is constructed from the augmented model. A prescribed observability degree of the augmented model is guaranteed by optimization algorithms by building an optimal input for the identification. The minimization of the input energy is used to define the optimality of the input, whereas the observability Gramian is used to verify the observability. Besides optimization algorithms, a novel method, based on a Liénard-type model, to diagnose single and sequential leaks in pipelines is proposed. In this case, the Liénard-type model that describes the fluid behavior in a pipeline is given only in terms of the flow rate. This method was conceived to be applied in pipelines solely instrumented with flowmeters or in conjunction with pressure sensors that are temporarily out of service. The design approach starts with the discretization of the Liénard-type model spatial domain into a prescribed number of sections. Such discretization is performed to obtain a lumped model capable of providing a solution (an internal flow rate) for every section. From this lumped model, a set of algebraic equations (known as residuals) are deduced as the difference between the internal discrete flows and the nominal flow (the mean of the flow rate calculated prior to the leak). The residual closest to zero will indicate the section where a leak is occurring. The main contribution of our method is that it only requires flow measurements at the pipeline ends, which leads to cost reductions. Some simulation-based tes

    Development of non-invasive monitoring approach to diagnose leaks in liquid pipelines

    Get PDF
    This paper presents a novel non-invasive monitoring method, based on a Liénard-type model (LTM) to diagnose single and sequential leaks in liquid pipelines. The LTM describes the fluid behavior in a pipeline and is given only in terms of the flow rate. Our method was conceived to be applied in pipelines mono-instrumented with flowmeters or in conjunction with pressure sensors that are temporarily unavailable. The approach conception starts with the discretization of the LTM spatial domain into a prescribed number of sections. Such discretization is performed to obtain a lumped model capable of providing a solution (an internal flow rate) for every section. From this lumped model, a set of algebraic equations (known as residuals) are deduced as the difference between the internal discrete flows and the nominal flow (the mean of the flow rate calculated before the leak). Once the residuals are calculated a principal component analysis (PCA) is carried out to detect a leak occurrence. In the presence of a leak, the residual closest to zero will indicate the section where a leak is occurring. Some simulation-based tests in PipelineStudio® and experimental tests in a lab-pipeline illustrating the suitability of our method are shown at the end of this article

    On the electromagnetic field of a proton beam as a basis for range verification in particle therapy

    Get PDF
    Targeting tumor cells with ionizing radiation in an effort to eliminate them is a mainstay of cancer treatment. External beams of heavy charged particles, such as protons, are applied for such purposes and have the potential to enable highly conformal dose delivery due to their favorable depth dose profile, i.e. the so-called Bragg peak. This allows an effective sparing of healthy tissues and organs at risk, especially when compared to the conventional approach with x-rays. The finite penetration depth of protons within the patient, known as the range, is however subject to uncertainties, which can lead to significant underdosage in the tumor and excessive dose to critical structures. Inaccuracies can originate from imaging, anatomical changes, patient positioning, just to name a few. Such risk factors limit the full potential of proton therapy and necessitate the utilization of safety margins around the tumor volume, which increases the overall dose to healthy tissue. Hence, the development of methodologies to verify the proton range in vivo is an active field of research. The most prominent candidates rely on positron emission tomography (PET), prompt gamma (PG) imaging or the detection of thermoacoustic waves. These methods, however, are limited in several aspects, such as low signal-to-noise ratios or challenging detection, leaving room for new ideas and methods to be developed. Recently, it has been suggested to use the electric field of the primary protons as a basis for an alternative range verification method. The present work aims to investigate the possibilities and limitations of such an approach. The first part is concerned with an exhaustive analytical characterization of the electromagnetic field that originates from a proton pencil beam and how it is affected by biological tissues. The impact of the beam pulse shape, permittivity, conductivity and tissue boundaries are considered. Contradictory to previous results, it has been found that the charge relaxation, which originates from the ionic conductivity of biological tissues, has a huge impact on the electric field, causing it to diminish in a nanosecond time scale. The electric field is thus not suitable as a basis for range verification, considering also the washout effect, that the rapid redistribution of charges creates. The magnetic field, on the other hand, is not affected by the latter and benefits from the approximate constancy of the current density. It does not drop together with the decreasing particle velocity, but is upheld due to the equally increasing charge density towards the range. The associated magnetic field does not show a distinctive peak at the range but follows a smooth yet characteristic profile along the beam axis, from which the range could be determined. Finally, an in-depth analysis of the frequency spectrum has been carried out, separating it into well-known constituents. The second part aimed to lift some of the simplifying assumptions, investigating the impact of nuclear reactions, energy and range straggling, lateral scattering, beam spot size and secondary particles. With an emphasis on the secondary electrons, dedicated Monte Carlo (MC) simulations were conducted, tracking them down to 10 eV. Despite being significantly more numerous than the primary protons, they reduce the overall current density by only 10%. The main reasons are their mostly isotropic flow and short lifetimes, which followed from a thorough phase space analysis. The current density extracted from the MC simulations served as an input for a numerical magnetic field estimation via finite element analysis. Thereby, it has been found that the loss of intensity from nuclear reactions, the electron current and the radial proton current introduce a small but non-negligible longitudinal shift with respect to the analytical result from the first part. In addition, the random current density fluctuations were quantified and deemed negligible in the context of a measurement. Finally, it has been shown that the beam spot size has no impact on the detectable magnetic field. In summary, barring minor deviations, the findings from the first part have been confirmed under more realistic assumptions. The last part expand the applicability of the analytical approach to simple inhomogeneous targets. Through a Green's function approach, the impact of boundaries for a more realistic beam, which includes the RF structure from the accelerator, has been examined. Also, the possibility to modulate the beam intensity artificially in an effort to separate the sought signal from ambient noise (bioelectricity) can be investigated with the same method. Preliminary results indicated that the boundaries cannot be neglected causing an overall reduction of the transmitted signal due to the comparatively large reflection coefficients. Also, the longitudinal magnetic field profile depends on the modulation frequency. Finally, the potential of the range verification method under consideration has been evaluated with respect to current technological capabilities.Die Bestrahlung von Tumorzellen mit ionisierenden Strahlen mit dem Ziel sie unschädlich zu machen gehört zu den Hauptpfeilern der Krebsbehandlung. Zu diesem Zweck werden externe Strahlen bestehend aus schweren geladenen Teilchen wie Protonen eingesetzt, die aufgrund ihres vorteilhaften Tiefendosisprofils, des so genannten Bragg-Peaks, eine sehr konforme Dosisabgabe ermöglichen. Dies gestattet eine effektive Schonung von gesundem Gewebe und gefährdeten Organen, insbesondere im Vergleich zum konventionellen Ansatz mit Röntgenstrahlen. Die endliche Eindringtiefe der Protonen in den Patienten, die so genannte Reichweite, ist jedoch mit Unsicherheiten behaftet, die zu einer erheblichen Unterdosierung im Tumor und einer übermäßigen Dosis in lebensnotwendigen Organen führen können. Ungenauigkeiten können von der Bildgebung, anatomischen Veränderungen, der Positionierung des Patienten, um nur einige zu nennen, herrühren. Solche Risikofaktoren schränken das volle Potenzial der Protonentherapie ein und machen die Verwendung von Sicherheitsmargen um das Tumorvolumen herum erforderlich, was die Gesamtdosis für das gesunde Gewebe erhöht. Daher ist die Entwicklung von Methoden zur Überprüfung der Protonenreichweite in vivo ein aktives Forschungsgebiet. Die bekann-testen Herangehensweisen stützen sich auf die Positronen-Emissions-Tomographie (PET), die prompt gamma (PG) Bildgebung oder die Messung von thermoakustischen Wellen. Diese Methoden sind jedoch in vielerlei Hinsicht eingeschränkt, z. B. durch ein geringes Signal-Rausch-Verhältnis oder eine schwierige Detektion, was Raum für die Entwicklung neuer Ideen und Methoden lässt. Kürzlich wurde vorgeschlagen, das elektrische Feld der Primärprotonen als Grundlage für eine alternative Methode zur Überprüfung der Reichweite zu verwenden. Die vorliegende Arbeit zielt darauf ab, die Möglichkeiten und Grenzen eines solchen Ansatzes zu untersuchen. Der erste Teil befasst sich mit einer umfassenden analytischen Charakterisierung des elektromagnetischen Feldes, das von einem Protonenstrahl ausgeht und wie es von biologischem Gewebe beeinflusst wird. Dabei werden die Auswirkungen der Form des Strahlpulses, der Permittivität, der Leitfähigkeit und der Gewebegrenzen berücksichtigt. Im Gegensatz zu bisherigen Ergebnissen wurde festgestellt, dass die Ladungsrelaxation, die auf die Ionenleitfähigkeit von biologischem Gewebe zurückzuführen ist, einen enormen Einfluss auf das elektrische Feld hat, so dass es sich innerhalb von Nanosekunden abschwächt. Das elektrische Feld eignet sich daher nicht als Grundlage für die Reichwei-tenüberprüfung, auch unter Berücksichtigung des Auswascheffekts, der durch die schnelle Umverteilung der Ladungen entsteht. Das magnetische Feld hingegen wird davon nicht beeinflusst und profitiert von der annähernd konstanten Stromdichte. Sie nimmt nicht mit der abnehmenden Teilchengeschwindigkeit ab, sondern wird aufgrund der ebenfalls zunehmenden Ladungsdichte zur Reichweite hin aufrechterhalten. Das zugehörige Magnetfeld weist keinen ausgeprägten Peak im Bereich der Reichweite auf, sondern folgt einem flachem, aber charakteristischen Profil entlang der Strahlachse, aus dem die Reichweite be- stimmt werden könnte. Schließlich wurde eine eingehende Analyse des Frequenzspektrums durchgeführt, wobei es in die bekannten Bestandteile zerlegt wurde. Der zweite Teil zielte darauf ab, einige der vereinfachenden Annahmen aufzuheben und die Auswirkungen von Kernreaktionen, Energie- und Reichweitenstreuung, lateraler Streuung, Strahldurchmesser und Sekundärteilchen zu untersuchen. Mit Schwerpunkt auf den Sekundärelektronen wurden speziell dafür vorgesehene Monte-Carlo-Simulationen (MC) durchgeführt, bei denen die Elektronen bis hinunter zu 10 eV nachverfolgt wurden. Obwohl sie wesentlich zahlreicher sind als die primären Protonen, reduzieren sie die Gesamtstromdichte nur um 10%. Die Hauptgründe dafür sind ihr überwiegend isotroper Fluss und ihre kurze Lebensdauer, was sich aus einer eingehenden Phasenraumanalyse ergeben hat. Die aus den MC-Simulationen extrahierte Stromdichte diente als Ausgangspunkt für eine numerische Magnetfeldbestimmung mittels Finite-Elemente-Analyse. Dabei wurde festgestellt, dass der Intensitätsverlust aus Kernreaktionen, der Elektronenstrom und der radiale Protonenstrom eine kleine, aber nicht vernachlässigbare Längsverschiebung gegenüber dem analytischen Ergebnis aus dem ersten Teil verursachen. Darüber hinaus wurden die Zufallsschwankungen der Stromdichte quantifiziert und im Rahmen einer Messung als vernachlässigbar eingestuft. Schließlich wurde gezeigt, dass der Strahldurchmesser keinen Einfluss auf das messbare Magnetfeld hat. Zusammenfassend kann gesagt werden, dass die Ergebnisse des ersten Teils, abgesehen von geringfügigen Abweichungen, unter realistischeren Annahmen bestätigt werden konnten. Im letzten Teil wird die Anwendbarkeit des analytischen Ansatzes auf einfache inhomogene Targets erweitert. Mit Hilfe eines Green'schen Funktionsansatzes wurden die Auswirkungen von Gewebegrenzen für einen realistischeren Strahl, der die HF-Struktur des Beschleunigers einschließt, untersucht. Auch die Möglichkeit, die Strahlintensität künst-lich zu modulieren, um das gesuchte Signal vom Umgebungsrauschen (Bioelektrizität) zu trennen, kann mit der gleichen Methode untersucht werden. Vorläufige Ergebnisse zeigten, dass die Grenzflächen nicht vernachlässigt werden können, was aufgrund der vergleichsweise großen Reflexionskoeffizienten zu einer Gesamtverringerung des transmittierten Signals führt. Außerdem hängt das longitudinale Profil des magnetischen Feldes von der Modulationsfrequenz ab. Schließlich wurde das Potenzial der untersuchten Methode zur Reichweitenverifizierung im Hinblick auf die derzeitigen technischen Möglichkeiten evaluiert

    Modelling of radio emission from cosmic ray air showers

    Get PDF

    Etude comparative des matériaux de garnissage dans les réacteurs de filtration pour l’assainissement non collectif

    Get PDF
    The onsite wastewater treatment systems concern 12 to 15 million of people in France. The treatment plant is generally composed by a septic tank as pretreatment, followed by soil infiltration field or sand filtration bed. The vertical drained sand filter provides the purification capacity thanks to the presence of a biomass in form of the biofilm. The dynamic of the biomass growth or the biofilm development is under the impact of filter materials’ nature. In this context, the objective of this work is to understand the mechanisms involved and especially the impact of medium in the functioning of the filtration reactor by comparing two types of packing materials: river sands and crushed aggregates. For this purpose, an experimental study is conducted with pilot unity composed by filtration reactors of 30cm of diameter and different packing thicknesses (15, 30 and 70cm). The reactors packed with two river sands and two crushed aggregates are fed with septic effluent with a volumic hydraulic charge of 12cm/day by 10 batches per day. Based on a characterization of materials, a study of purification performance with biochemical components monitoring of the total biomass and the extracellular matrix of the biofilm is realized by comparing two types of filter materials. The purification performance has presented similar efficiencies of particulates and organic matters removals by fine river sand and fine crushed aggregate. The nitrogen pollutants removals are more effective in the fine river sand which presents the finest granulometry with an alternative of aerobic and anoxic phases along the reactor depth and with a biomass more abundant. The distribution and the quality of the total biomass and the extracellular matrix differentiate between the river sand and the crushed aggregates. As the reference material, the fine river sand presented an earlier stabilization of total biomass growth with a less important production of extracellular exudates compared to the crushed aggregates. The origin of impacts brought by the crushed aggregates might be due to the higher fine particles content which created microenvironments poor in substrates or in oxygen and also due to a more heterogeneous mineralogy. The extracellular components of highest percentage in the biofilm of crushed aggregate are polysaccharides type substances.L'assainissement non collectif concerne 12 à 15 millions de personnes en France. La filière classique de ce mode d’assainissement se compose généralement d'un prétraitement anaérobie par une fosse septique recevant l’ensemble des eaux usées domestiques suivi d’un système d’infiltration dans le sol ou d’un filtre à sable. Le filtre à sable vertical drainé met à profit le pourvoir épuratoire qui est principalement lié à la présence d’une biomasse sous forme d’un biofilm. Cette dynamique de la croissance de la biomasse ou du biofilm est soumise à l’impact de la nature de matériaux filtrants. L’écoulement insaturé dans ces systèmes conditionne également cette croissance du biofilm. Dans ce contexte, l'objectif du travail de la thèse est d’appréhender les mécanismes mis en jeu et particulièrement l’impact des matériaux dans le fonctionnement des filtres en comparant notamment deux types de matériaux: les sables de rivière et les agrégats concassés. Pour cela, une étude expérimental sur une unité pilote composé des réacteurs de filtration du diamètre de 30cm et différents épaisseurs de garnissage (15, 30 et 70cm) a été construite. Les réacteurs garnis de deux sables roulés et deux agrégats concassés, sont alimentés en effluent septique avec une charge volumique 12cm/jour par 10 bâchés par jour. Suite des matériaux, une étude de la performance épuratoire avec le suivi des composants biochimiques de la biomasse totale et de la matrice extracellulaire du biofilm est réalisée en comparant notamment les deux types de matériaux filtrants

    Evaluation of the surface impedance of ReBCO coated conductors and requirements for their use as beam screen materials for the FCC-hh

    Get PDF
    A la portada: logo Alba synchroton(English) The Future Circular Hadron Collider (FCC-hh) is a proposal for a 100-kilometre-long particle accelerator with collision energy substantially higher than previous colliders to expand the Large Hadron Collider (LHC) research. The selection of a low surface impedance beam screen coating material for such a high-energy collider has become of fundamental importance to ensure sufficiently low beam impedance and guarantee stable accelerator operation at high beam currents. Currently, copper is the baseline coating material. In comparison to it, only high-temperature superconductors (HTSs) in the form of ReBCO coated conductors (ReBCO-CCs) have a lower surface impedance and would provide for higher margins of beam stability at the expected operating temperature (40 - 60 K). Whilst theoretical studies of HTSs under FCC-hh conditions have proved encouraging, no experimental data of ReBCO-CCs subject to FCC-hh conditions exists to confirm these predictions. This thesis provides two main contributions: First, it presents the experimental set-ups designed and constructed to measure the surface impedance of ReBCO-CCs, on the basis of dielectric resonator structures of Hakki-Coleman and parallel plate type under AC and DC magnetic fields, photon irradiation, all at cryogenic temperatures, to mimic the environment of the beam screen in the FCC-hh. We also developed DROMS, an automated data acquisition software, and ARPE, a post-processing algorithm to accurately extract the parameters of the dielectric resonators -resonance frequency and quality factor- from the S-parameters of the vector network analyser. The second contribution consists in the results from experimentally-measured surface impedance of ReBCO-CCs from six different manufacturers. We present surface impedance as a function of temperature and under strong magnetic fields in the gigahertz range. Complementary to this, we analysed the non-linear behaviour of ReBCO-CCs in the presence of a magnetic field superimposed on radio-frequency electromagnetic fields with amplitudes comparable to the ones generated by proton bunches in the FCC-hh. Finally, we studied the effect of photon irradiation on the surface resistance in-situ and ex-situ, at the ALBA Synchrotron Light Source. Extrapolating from our data to 16 T and 1 GHz demonstrates the possibility of lowering the surface resistance of the beam screen by up to two orders of magnitude by using ReBCO-CCs instead of copper while the surface reactance is at the same order of magnitude. We conclude that ReBCO-CCs are suitable candidates to significantly reduce the resistive wall impedance in the FCC-hh.(Español) El Future Circular Hadron Collider (FCC-hh) es una propuesta para un acelerador de partículas de 100 kilómetros de longitud con energías de colisión significativamente superiores a los colisionadores anteriores para expandir la investigación del Large Hadron Collider (LHC). La elección de un material de revestimiento de baja impedancia superficial para el interior del tubo de vacio se ha vuelto de fundamental importancia para garantizar una impedancia de haz suficiente baja. Esto permite un funcionamiento estable del acelerador con corrientes de haz altas. Actualmente el cobre es el material de revestimiento de referencia. En comparación con eso, solo los superconductores de alta temperature en forma de conductores recubiertos con ReBCO (ReBCO-CCs) tienen una menor impedancia superficial. De esta manera, prometen mayores márgenes de estabilidad del haz a la temperatura esperada de funcionamiento (40 - 60 K). Mientras los estudios teóricos de superconductores de alta temperatura en condiciones FCC-hh han sido prometedores, no existen datos experimentales de conductores recubiertos con ReBCO sujetos a condiciones FCC-hh para confirmar estas predicciones. Esta tesis aporta dos contribuciones principales. Primero, presenta las condiciones experimentales diseñadas y construidas para medir la impedancia superficial de ReBCO-CCs en base a estructuras de resonadores dieléctricos de tipo Hakki-Coleman y placa paralela bajo campos magnéticos AC y DC, irradiación de fotones, todo ello a condiciones criogénicas temperaturas, para imitar el entorno del tubo de vacio en el FCC-hh. También desarrollamos DRΩMS, un software de adquisición de datos automatizado, y ARPE, un algoritmo de posprocesamiento para extraer con precisión los parámetros del resonador dieléctrico -frecuencia de resonancia y factor de calidadde los parámetros S del analizador de redes vectoriales. La segunda contribución consiste en los resultados de las mediciones experimentales de impedancia de superficie de ReBCO-CC de seis fabricantes distintos. Presentamos la impedancia superficial en función de la temperatura bajo fuertes campos magnéticos en el rango de los gigahercios. Complementariamente, analizamos el comportamiento no lineal de ReBCO-CCs en presencia de un campo magnético superpuesto a campos electromagnéticos de radiofrecuencia con amplitudes comparables a las generadas por haces de protones en el FCC-hh. Finalmente, estudiamos el efecto de la irradiación de fotones sobre la resistencia de la superficie in-situ y ex-situ, en la fuente del luz del sincrotrón ALBA. La extrapolación de nuestros datos a 16 T y 1 GHz demuestra la posibilidad de reducir la resistencia superficial del tubo de vacio de hasta dos órdenes de magnitud mediante el uso de ReBCO-CC en lugar de cobre, mientras que la reactancia superficial está en el mismo orden de magnitud. Concluimos que los ReBCO-CCs son canditatos adecuados para reducir significativamente la impedancia de la pared resistiva en el FCC-hh.Teoria del senyal i comunicacion

    Nonparametric Identification of nonlinear dynamic Systems

    Get PDF
    In der vorliegenden Arbeit wird eine nichtparametrische Identifikationsmethode für stark nichtlineare Systeme entwickelt, welche in der Lage ist, die Nichtlinearitäten basierend auf Schwingungsmessungen in Form von allgemeinen dreidimensionalen Rückstellkraft-Flächen zu rekonstruieren ohne Vorkenntnisse über deren funktionale Form. Die Vorgehensweise basiert auf nichtlinearen Kalman Filter Algorithmen, welche durch Ergänzung des Zustandsvektors in Parameterschätzer verwandelt werden können. In dieser Arbeit wird eine Methode beschrieben, die diese bekannte parametrische Lösung zu einem nichtparametrischen Verfahren weiterentwickelt. Dafür wird ein allgemeines Nichtlinearitätsmodell eingeführt, welches die Rückstellkräfte durch zeitvariable Koeffizienten der Zustandsvariablen beschreibt, die als zusätzliche Zustandsgrößen geschätzt werden. Aufgrund der probabilistischen Formulierung der Methode, können trotz signifikantem Messrauschen störfreie Rückstellkraft-Charakteristiken identifiziert werden. Durch den Kalman Filter Algorithmus ist die Beobachtbarkeit der Nichtlinearitäten bereits durch eine Messgröße pro Systemfreiheitsgrad gegeben. Außerdem ermöglicht diese Beschreibung die Durchführung einer vollständigen Identifikation, wobei die restlichen konstanten Parameter des Systems zusätzlich geschätzt werden. Die Leistungsfähigkeit des entwickelten Verfahrens wird anhand von virtuellen und realen Identifikationsbeispielen nichtlinearer mechanischen Systeme mit ein und drei Freiheitsgraden demonstriert

    Development and Characterization of a tunable ultrafast X-ray source via Inverse Compton Scattering

    Get PDF
    Ultrashort, nearly monochromatic hard X-ray pulses enrich the understanding of the dynamics and function of matter, e.g., the motion of atomic structures associated with ultrafast phase transitions, structural dynamics and (bio)chemical reactions. Inverse Compton backscattering of intense laser pulses from relativistic electrons not only allows for the generation of bright X-ray pulses which can be used in a pumpprobe experiment, but also for the investigation of the electron beam dynamics at the interaction point. The focus of this PhD work lies on the detailed understanding of the kinematics during the interaction of the relativistic electron bunch and the laser pulse in order to quantify the influence of various experiment parameters on the emitted X-ray radiation. The experiment was conducted at the ELBE center for high power radiation sources using the ELBE superconducting linear accelerator and the DRACO Ti:sapphire laser system. The combination of both these state-of-the-art apparatuses guaranteed the control and stability of the interacting beam parameters throughout the measurement. The emitted X-ray spectra were detected with a pixelated detector of 1024 by 256 elements (each 26μm by 26μm) to achieve an unprecedented spatial and energy resolution for a full characterization of the emitted spectrum to reveal parameter influences and correlations of both interacting beams. In this work the influence of the electron beam energy, electron beam emittance, the laser bandwidth and the energy-anglecorrelation on the spectra of the backscattered X-rays is quantified. A rigorous statistical analysis comparing experimental data to ab-initio 3D simulations enabled, e.g., the extraction of the angular distribution of electrons with 1.5% accuracy and, in total, provides predictive capability for the future high brightness hard X-ray source PHOENIX (Photon electron collider for Narrow bandwidth Intense X-rays) and potential all optical gamma-ray sources. The results will serve as a milestone and starting point for the scaling of the Xray flux based on available interaction parameters of an ultrashort bright X-ray source at the ELBE center for high power radiation sources. The knowledge of the spatial and spectral distribution of photons from an inverse Compton scattering source is essential in designing future experiments as well as for tailoring the X-ray spectral properties to an experimental need.Ultrakurze, quasi-monochromatische harte Röntgenpulse erweitern das Verständnis für die dynamischen Prozesse und funktionalen Zusammenhänge in Materie, beispielsweise die Dynamik in atomaren Strukturen bei ultraschnellen Phasenübergängen, Gitterbewegungen und (bio)chemischen Reaktionen. Compton-Rückstreuung erlaubt die Erzeugung der für ein pump-probe-Experiment benötigten intensiven Röntgenpulse und ermöglicht gleichzeitig einen Einblick in die komplexen kinematischen Prozesse während der Wechselwirkung von Elektronen und Photonen. Ziel dieser Arbeit ist, ein quantitatives Verständnis der verschiedenen experimentellen Einflüsse auf die emittierte Röntgenstrahlung bei der Streuung von Laserphotonen an relativistischen Elektronen zu entwickeln. Die Experimente wurden am ELBE - Zentrum für Hochleistungs-Strahlenquellen des Helmholtz-Zentrums Dresden - Rossendorf durchgeführt. Der verwendete supraleitende Linearbschleuniger ELBE und der auf Titan-Saphir basierende Hochleistungslaser DRACO garantieren ein Höchstmaß an Kontrolle und Stabilität der experimentellen Bedingungen. Zur Messung der emittierten Röntgenstrahlung wurde ein Siliziumdetektor mit 1024x256 Pixeln (Pixelgröße 26μm × 26μm) verwendet, welcher für eine bisher nicht erreichte spektrale und räumliche Auflösung sorgt. Die so erfolgte vollständige Charakterisierung der Energie-Winkel-Beziehung erlaubt Rückschlüsse auf Parametereinflüsse und Korrelationen von Elektronen- und Laserstrahl. Eine umfassende statistische Analyse, bei der ab-initio 3D Simulationen mit den experimentellen Daten verglichen und ausgewertet wurden, ermöglichte u.a. die Bestimmung der Elektronenstrahldivergenz mit einer Genauigkeit von 1.5% und erlaubt Vorhersagen zur zu erwartenden Strahlung der zukünftigen brillianten Röntgenquelle PHOENIX (Photon electron collider for Narrow bandwidth Intense X-rays) und potentiellen lasergetriebenen Gammastrahlungsquellen. Die Ergebnisse dienen als Fixpunkt für die Skalierung des erwarteten Photonenflusses der Röntgenquelle für die verfügbaren Ausgangsgrößen am Helmholtz-Zentrum Dresden - Rossendorf. Das Wissen um die räumliche und spektrale Verteilung der Röntgenstrahlung ist entscheidend für die Planung zukünftiger Experimente sowie zur Anpassung der Quelle an experimentelle Bedürfnisse

    Estimation de canal et Synchronisation pour les systèmes OFDM en présence de mobilité

    Get PDF
    Ce mémoire d'HDR retrace huit années d'études théoriques sur les télécommunications dans le domaine des transports, et plus particulièrement sur l'estimation du canal. Ce travail s'inscrit dans un contexte où les télécommunications jouent un rôle de plus en plus important dans les activités de transport, le contrôle des trains, ainsi que les services et commodités offerts aux voyageurs. La spécificité des télécommunications dans les transports par rapport aux télécommunications fixes est la présence de mobilité plus ou moins forte selon le type d'application. Nous avons organisé notre mémoire en deux grandes parties : une partie traitant les variations lentes du canal, et une partie traitant les variations rapides. Les variations peuvent être considérées comme lentes si les interférences entre porteuses dues à l'effet Doppler sont négligeables. Dans ce cas, le modèle classique, le modèle auto-régressif d'ordre 1, utilisé pour approcher les variations du canal s'avère très peu performant. Nous avons alors proposé plusieurs solutions d'estimation du canal qui s'appuient sur un modèle plus performant dans ce contexte, le modèle à marche aléatoire. Dans un premier temps, nous avons proposé une famille de solutions optimales à base de filtre de Kalman. Pour réduire la complexité, nous avons ensuite étudié une famille de solutions à base de boucles de poursuites. Les résultats théoriques sur le réglage de ces solutions sont apportés. Dans le cas où les interférences entre porteuses ne peuvent plus être considérées comme négligeables (le cas variations rapides), nous avons alors proposé des solutions d'estimation de canal qui tiennent compte de ces interférences. Nous avons également exploré l'approche "turbo" pour l'annulation des interférences. La formulation du filtrage de Kalman souple dans ce contexte turbo est présentée en détail dans ce mémoire. Enfin, nous terminons ce mémoire en détaillant les perspectives de recherche, qui s'articulent autour de la radio intelligente et des réseaux de capteurs. Les résultats d'une campagne de mesure en TGV seront également exploités à court terme pour affiner nos modèles

    Time-Delay Switch Attack on Networked Control Systems, Effects and Countermeasures

    Get PDF
    In recent years, the security of networked control systems (NCSs) has been an important challenge for many researchers. Although the security schemes for networked control systems have advanced in the past several years, there have been many acknowledged cyber attacks. As a result, this dissertation proposes the use of a novel time-delay switch (TDS) attack by introducing time delays into the dynamics of NCSs. Such an attack has devastating effects on NCSs if prevention techniques and countermeasures are not considered in the design of these systems. To overcome the stability issue caused by TDS attacks, this dissertation proposes a new detector to track TDS attacks in real time. This method relies on an estimator that will estimate and track time delays introduced by a hacker. Once a detector obtains the maximum tolerable time delay of a plant’s optimal controller (for which the plant remains secure and stable), it issues an alarm signal and directs the system to its alarm state. In the alarm state, the plant operates under the control of an emergency controller that can be local or networked to the plant and remains in this stable mode until the networked control system state is restored. In another effort, this dissertation evaluates different control methods to find out which one is more stable when under a TDS attack than others. Also, a novel, simple and effective controller is proposed to thwart TDS attacks on the sensing loop (SL). The modified controller controls the system under a TDS attack. Also, the time-delay estimator will track time delays introduced by a hacker using a modified model reference-based control with an indirect supervisor and a modified least mean square (LMS) minimization technique. Furthermore, here, the demonstration proves that the cryptographic solutions are ineffective in the recovery from TDS attacks. A cryptography-free TDS recovery (CF-TDSR) communication protocol enhancement is introduced to leverage the adaptive channel redundancy techniques, along with a novel state estimator to detect and assist in the recovery of the destabilizing effects of TDS attacks. The conclusion shows how the CF-TDSR ensures the control stability of linear time invariant systems
    • …
    corecore