21 research outputs found

    Characterizing the influence of neutron fields in causing single-event effects using portable detectors

    Get PDF
    The malfunction of semiconductor devices caused by cosmic rays is known as Single Event Effects(SEEs). In the atmosphere, secondary neutrons are the dominant particles causing this effect. The neutron flux density in atmosphere is very low. For a good statistical certainty, millions of device hours are required to measure the event rate of a device in the natural environment. Event rates obtained in such testings are accurate. To reduce the cost and time of getting the event rate, a device is normally taken to artificial accelerated neutron beams to measure its sensitivity to neutrons. Comparing the flux density of the beam and the flux density of a location in the atmosphere, the real time event rate can be predicted by the event rate obtained. This testing method was standardized as the neutron accelerated soft error rate (ASER) testing in JEDEC JESD89A standard. However, several life testings indicated that the neutron flux density predictions given by the accelerated testings can have large errors. Up to a factor of 2 discrepancy was reported in the literature. One of the major error sources is the equivalence of the absolute neutron flux density in the atmosphere and in accelerated beam. This thesis proposes an alternative accelerated method of predicting the real-time neutron error rate by using proxy devices. This method can avoid the error introduced by the uncertainty in the neutron flux density. The Imaging Single Event Effect Monitor (ISEEM) is one of the proxy devices. It is the instrument originally developed by Z. Török and his co-workers in the University of Central Lancashire. A CCD was used as the sensitive element to detect neutrons. A large amount of data sets acquired by Török were used in this work. A re-engineered ISEEM has been developed in this work to improve ISEEM performance in life testings. Theoretical models have been developed to analyze the response of ISEEM in a wide range of neutron facilities and natural environment. The agreement of the measured and calculated cross-sections are within the error quoted by facilities. Because of the alpha contamination and primary proton direct ionization effects, performance of ISEEM in life testings appeared to be weak

    Multilevel Modeling, Formal Analysis, and Characterization of Single Event Transients Propagation in Digital Systems

    Get PDF
    RÉSUMÉ La croissance exponentielle du nombre de transistors par puce a apporté des progrès considérables aux performances et fonctionnalités des dispositifs semi-conducteurs avec une miniaturisation des dimensions physiques ainsi qu’une augmentation de vitesse. De nos jours, les appareils électroniques utilisés dans un large éventail d’applications telles que les systèmes de divertissement personnels, l’industrie automobile, les systèmes électroniques médicaux, et le secteur financier ont changé notre façon de vivre. Cependant, des études récentes ont démontré que le rétrécissement permanent de la taille des transistors qui s’approchent des dimensions nanométriques fait surgir des défis majeurs. La réduction de la fiabilité au sens large (c.-à-d., la capacité à fournir la fonction attendue) est l’un d’entre eux. Lorsqu’un système est conçu avec une technologie avancée, on s’attend à ce qu’ il connaît plus de défaillances dans sa durée de vie. De telles défaillances peuvent avoir des conséquences graves allant des pertes financières aux pertes humaines. Les erreurs douces induites par la radiation, qui sont apparues d’abord comme une source de panne plutôt exotique causant des anomalies dans les satellites, sont devenues l’un des problèmes les plus difficiles qui influencent la fiabilité des systèmes microélectroniques modernes, y compris les dispositifs terrestres. Dans le secteur médical par exemple, les erreurs douces ont été responsables de l’échec et du rappel de plusieurs stimulateurs cardiaques implantables. En fonction du transistor affecté lors de la fabrication, le passage d’une particule peut induire des perturbations isolées qui se manifestent comme un basculement du contenu d’une cellule de mémoire (c.-à-d., Single Event Upsets (SEU)) ou un changement temporaire de la sortie (sous forme de bruit) dans la logique combinatoire (c.-à-d., Single Event Transients (SETs)). Les SEU ont été largement étudiés au cours des trois dernières décennies, car ils étaient considérés comme la cause principale des erreurs douces. Néanmoins, des études expérimentales ont montré qu’avec plus de miniaturisation technologique, la contribution des SET au taux d’erreurs douces est remarquable et qu’elle peut même dépasser celui des SEU dans les systèmes à haute fréquence [1], [2]. Afin de minimiser l’impact des erreurs douces, l’effet des SET doit être modélisé, prédit et atténué. Toutefois, malgré les progrès considérables accomplis dans la vérification fonctionnelle des circuits numériques, il y a eu très peu de progrès en matiàre de vérification non-fonctionnelle (par exemple, l’analyse des erreurs douces). Ceci est dû au fait que la modélisation et l’analyse des propriétés non-fonctionnelles des SET pose un grand défi. Cela est lié à la nature aléatoire des défauts et à la difficulté de modéliser la variation de leurs caractéristiques lorsqu’ils se propagent.----------ABSTRACT The exponential growth in the number of transistors per chip brought tremendous progress in the performance and the functionality of semiconductor devices associated with reduced physical dimensions and higher speed. Electronic devices used in a wide range of applications such as personal entertainment systems, automotive industry, medical electronic systems, and financial sector changed the way we live nowadays. However, recent studies reveal that further downscaling of the transistor size at nano-scale technology leads to major challenges. Reliability (i.e., ability to provide intended functionality) is one of them, where a system designed in nano-scale nodes is expected to experience more failures in its lifetime than if it was designed using larger technology node size. Such failures can lead to serious conséquences ranging from financial losses to even loss of human life. Soft errors induced by radiation, which were initially considered as a rather exotic failure mechanism causing anomalies in satellites, have become one of the most challenging issues that impact the reliability of modern microelectronic systems, including devices at terrestrial altitudes. For instance, in the medical industry, soft errors have been responsible of the failure and recall of many implantable cardiac pacemakers. Depending on the affected transistor in the design, a particle strike can manifest as a bit flip in a state element (i.e., Single Event Upset (SEU)) or temporally change the output of a combinational gate (i.e., Single Event Transients (SETs)). Initially, SEUs have been widely studied over the last three decades as they were considered to be the main source of soft errors. However, recent experiments show that with further technology downscaling, the contribution of SETs to the overall soft error rate is remarkable and in high frequency systems, it might exceed that of SEUs [1], [2]. In order to minimize the impact of soft errors, the impact of SETs needs to be modeled, predicted, and mitigated. However, despite considerable progress towards developing efficient methodologies for the functional verification of digital designs, advances in non-functional verification (e.g., soft error analysis) have been lagging. This is due to the fact that the modeling and analysis of non-functional properties related to SETs is very challenging. This can be related to the random nature of these faults and the difficulty of modeling the variation in its characteristics while propagating. Moreover, many details about the design structure and the SETs characteristics may not be available at high abstraction levels. Thus, in high level analysis, many assumptions about the SETs behavior are usually made, which impacts the accuracy of the generated results. Consequently, the lowcost detection of soft errors due to SETs is very challenging and requires more sophisticated techniques

    Contributions to the detection and diagnosis of soft errors in radiation environments

    Get PDF
    Texto completo descargado desde Teseo1. Introducción Los efectos de la radiación ionizante sobre dispositivos semiconductores es objeto de estudio desde la invención del transistor bipolar en 1947. El espacio es un entorno de alta radiación, como pusieron de manifiesto los primeros satélites puestos en órbita, y fue durante la carrera espacial de los años 50 cuando se impulsó el estudio de errores generados en componentes electrónicos críticos a bordo de las primeras misiones espaciales. La necesidad de robustecer la electrónica frente a la radiación ha estado siempre presente en el sector aeroespacial, además, el progresivo escalado de las tecnologías microelectrónicas, hace que el problema sea cada vez más acuciante, afectando incluso a dispositivos que operan a nivel del mar. El advenimiento de tecnologías nanométricas augura que serán necesarias nuevas y más eficaces técnicas de robustecimiento que garanticen la fiabilidad de equipos electrónicos críticos en sectores tan importantes como la aviación, automoción o energía nuclear. Existen dos métodos de robustecimiento para los dispositivos electrónicos, por proceso y por diseño. En el primer caso, el circuito integrado es fabricado en una tecnología que presenta baja sensibilidad a los efectos de la radiación, como la ampliamente utilizada SOI (Silicon On Insulator). En el segundo caso, el circuito presenta topologías en su diseño que mitigan en mayor o menor grado el daño por radiación. La efectividad de cualquier medida de protección debe ser validada en el correspondiente ensayo de radiación de acuerdo a los estándares vigentes (ESA, NASA, JEDEC, AEC,...). Existen varios tipos de daño por radiación, asociados a dosis acumulada (TID) y a eventos únicos (SEE), fundamentalmente. Estos últimos están asociados al paso de una única partícula energética a través del dispositivo, que genera una estela de carga y puede dar lugar a respuestas eléctricas no deseadas, como conmutación 2 2 Antecedentes de biestables, enclavamiento de un bit o excursiones de voltaje transitorias. A su vez, dentro de los errores asociados a eventos únicos se puede distinguir entre daños físicos, que pueden destruir el dispositivo de manera irreversible, y errores lógicos o soft errors que conllevan la corrupción del estado de un circuito digital, por ejemplo por la conmutación del valor lógico de un biestable. Los tests en aceleradores de partículas o con fuentes radiactivas, se consideran los ensayos más representativos para conocer la inmunidad de un componente frente al daño de tipo SEE. Sin embargo, la complejidad de estos ensayos dificulta la observabilidad experimental y la interpretación de los resultados obtenidos. En particular los tests dinámicos, que implican que el chip esté operando durante la irradiacón, comportan una dificultad añadida a la hora de interpretar los errores observados en las salidas del circuito. El test dinámico de radiación es el más realista, ya que introduce la variable temporal en el experimento y da lugar a efectos reales que no son reproducibles en condiciones estáticas, como el evento único transitorio (SET). El trabajo a realizar durante esta tesis pretende aportar una metodología de test que mejore la observabilidad de errores lógicos en un test dinámico de radiación de circuitos digitales mediante detección y diagnóstico en tiempo real. 2. Antecedentes La experiencia investigadora del grupo al que pertenece el autor de esta tesis en el campo de los efectos de la radiación sobre dispositivos electrónicos, ha puesto de manifiesto la necesidad de establecer una metodología que permita el diagnóstico de los errores observados en un componente electrónico sometido a radiación ionizante. Generalmente, no es posible correlacionar con certeza el efecto (anomalía detectada en los puertos de salida) con la causa del mismo. La complejidad inherente a la instrumentación de un ensayo de radiación en un acelerador 3 3 Hipótesis y Objetivos de partículas, así como la propia comlejidad del circuito bajo estudio, requieren algún criterio de clasificación de los errores observados que pueden ser de muy diversa naturaleza. Algunos autores han aportado técnicas que combinan inyección de fallos dinámica con test en acelerador estáticos para estimar la probabilidad de fallo real del circuito, salvando la complejidad del test de radiación dinámico. La protección selectiva, consistente en adoptar topologías de diseño robustas en ¿puntos calientes¿ o críticos del circuito, requiere técnicas de ensayo que permita el diagnóstico y localización del daño por radiación. El uso de microsondas nucleares permite la focalización de un haz de iones en una región relativamente pequeña, facilitando el diagnóstico. La disponibilidad de uso de la microsonda nuclear en el Centro Nacional de Aceleradores puede contribuir al desarrollo de la técnica de detección y diagnóstico que es objeto de esta tesis. La curva de sección eficaz de fallo SEE es la forma más extendida de representación de resultados de experimentación. Estas curvas representan una colección de datos experimentales que deben ser minuciosamente clasificados. Lo mismo ocurre en los tests destinados a evaluar la tasa de errores lógicos en tiempo real (RTSER). En este sentido, la norma JEDEC JESD89-1A recomienda que se sigan ¿criterios de fallo¿ para la correcta identificación de los errores detectados a la salida de un circuito en tests de radiación. 3. Hipótesis y Objetivos El grupo de investigación al que pertenece el doctorando, posee una contrastada experiencia en el uso de emuladores hardware para la evaluación temprana de la robustez de diseños digitales ante errores lógicos. Estos emuladores inyectan fallos en la netlist de un diseño digital y estudian la evolución del estado del circuito durante la ejecución de un conjunto de estímulos. La principal ventaja de estas herramientas frente a la simulación, radica en la aceleración hardware de los 4 3 Hipótesis y Objetivos tests que permite la finalización de campañas de inyección masivas en un tiempo relativamente corto. Las campañas masivas o sistemáticas de inyección de fallos permiten comprobar de forma exhaustiva la respuesta de un diseño digital a un entorno de alta radiación. Estas campañas arrojan una ingente cantidad de información acerca de las vulnerabilidades del diseño que debe ser procesada generalmente de forma estadística. La correlación entre el instante y lugar de inyección del fallo emulado y la respuesta del mismo, sería una información que permitiría establecer la causa de un error (comportamiento anómalo) observado durante un test de radiación, donde generalmente sólo están accesibles las salidas del dispositivo. Los resultados de una campaña de inyección dependen, además del diseño bajo test, del conjunto de estímulos aplicado (workload). A partir de los resultados de la campaña de inyección masiva, se puede realizar un estudio estadístico que determine la calidad de los vectores de test desde el punto de vista del diagnóstico. Es de esperar que diferentes fallos inyectados compartan la misma firma, de manera que en caso de obtener dicha firma en un test de radiación, sea imposible determinar exactamente el punto de inyección del fallo. A la hora de preparar un test de radiación, es recomendable emplear vectores de test que garanticen que la certidumbre del diagnóstico sea máxima, lo cual es un aporte adicional de la tesis. Esta tesis pretende establecer un procedimiento que permita obtener ¿diccionarios de fallos¿ en los que se establece una correlación entre el punto de inyección y la respuesta del circuito codificada en una firma de pocos bytes. Durante un test de radiación se pueden obtener en tiempo real las firmas generadas por el circuito, que servirán para diagnosticar en cada caso el origen del daño empleando los diccionarios de fallos previamente generados en un emulador hardware. En el supuesto de que la firma generada durante la irradiación no estuviera contenida en un diccionario exhaustivo, se puede decir que el error no ha sido originado por el 5 4 Metodología y Trabajo Realizado modelo de fallo empleado en la generación del diccionario, debiéndose por tanto a un tipo de daño no contemplado (por ejemplo daño físico). La culminación de la tesis es el test de radiación en un acelerador de partículas. La Universidad de Sevilla cuenta con las instalaciones del Centro Nacional de Aceleradores, que puede ser un banco de pruebas idóneo para comprobar la validez de la metodología y comprobar las ventajas e inconvenientes de la misma. 4. Metodología y Trabajo Realizado El plan de trabajo incluyó los siguientes hitos en el orden expuesto: Estudio de la base de conocimiento genérica relacionada con los efectos de la radiación en circuitos electrónicos Análisis del Estado del Arte en técnicas de inyección de fallos en circuitos digitales. Recopilación de normas y estándares relacionados con los test radiación de componentes electrónicos. Estudio simulado de bajo nivel de los efectos de la radiación en tecnologías submicrométricas. Selección de un módulo adecuado para creación de firmas a partir de las salidas de un circuito digital. Adecuación del emulador hardware FT-UNSHADES para la generación de firmas durante las campañas de inyección. Selección de un vehículo de test para el experimento en la microsonda nuclear del CNA. 6 4 Metodología y Trabajo Realizado Realización de campañas de inyección masivas para la generación de diccionarios de fallos sobre diseños digitales y análisis de resultados. Preparación del setup experimental para el acelerador de partículas. Experimento en la microsonda nuclear del CNA y análisis de resultados. El estudio bibliográfico de la base de conocimiento en el campo de los efectos de la radiación sobre circuitos electrónicos ha sido fundamental para poder establecer el ámbito de aplicación de la tesis. El papel de la emulación hardware para inyección de fallos en esta investigación fue crítica y ha sido necesario un estudio de las plataformas existentes para entender qué puede aportar cada herramienta. Para acabar con la documentación, es necesario además recopilar las normas y estándares relacionados con test de radiación de circuitos electrónicos. La simulación de bajo nivel de los efectos de la radiación sobre una determinada tecnología engloba herramientas como SPICE, SRIM y TCAD. Estas simulaciones permiten estimar cuales deben ser las características del haz de iones empleado en un futuro ensayo en el acelerador de partículas. Los resultados de estas simulaciones fueron discutidos con los técnicos del acelerador para estudiar la viabilidad de los parámetros deseados. Un elemento clave en la metodología fue el bloque que debe generar las firmas a partir de las salidas del circuito digital. Es deseable que se trate de un módulo sencillo y que pueda ser implementado en un dispositivo programable sin suponer un consumo excesivo de recursos. El emulador FT-UNSHADES fue adaptado par incorporar el módulo de firmas. Se dispuso de un circuito integrado que servió vehículo de test para un experimento en el CNA. Es necesaria además la descripción VHDL del mismo para su emulación en FT-UNSHADES. No es objeto de esta tesis el desarrollo de este componente, su diseño y fabricación está fuera del alcance de esta tesis. Se gener- 7 4 Metodología y Trabajo Realizado aron diccionarios de fallos del vehículo de tests y de otros diseños digitales y, a partir de estos diccionarios, se han confeccionado estudios estadísticos de diagnóstico. En una fase ulterior, se desarrolló el hardware necesario para el setup experimental. Todo el hardware se probó en el laboratorio, antes de acudir al CNA. El resultado de esta etapa es la configuración del equipamiento de test automático (ATE) que se encargó de introducir estímulos en el chip y monitorizarlo durante el experimento en el acelerador de partículas. Finalmente, se llevó a cabo un experimento en el Centro Nacional de Aceleradores sobre el vehículo de test elegido para completar una prueba de concepto de la metodología propuesta.

    Characterizing the influence of neutron fields in causing single-event effects using portable detectors

    Get PDF
    The malfunction of semiconductor devices caused by cosmic rays is known as Single Event Effects(SEEs). In the atmosphere, secondary neutrons are the dominant particles causing this effect. The neutron flux density in atmosphere is very low. For a good statistical certainty, millions of device hours are required to measure the event rate of a device in the natural environment. Event rates obtained in such testings are accurate. To reduce the cost and time of getting the event rate, a device is normally taken to artificial accelerated neutron beams to measure its sensitivity to neutrons. Comparing the flux density of the beam and the flux density of a location in the atmosphere, the real time event rate can be predicted by the event rate obtained. This testing method was standardized as the neutron accelerated soft error rate (ASER) testing in JEDEC JESD89A standard. However, several life testings indicated that the neutron flux density predictions given by the accelerated testings can have large errors. Up to a factor of 2 discrepancy was reported in the literature. One of the major error sources is the equivalence of the absolute neutron flux density in the atmosphere and in accelerated beam. This thesis proposes an alternative accelerated method of predicting the real-time neutron error rate by using proxy devices. This method can avoid the error introduced by the uncertainty in the neutron flux density. The Imaging Single Event Effect Monitor (ISEEM) is one of the proxy devices. It is the instrument originally developed by Z. Török and his co-workers in the University of Central Lancashire. A CCD was used as the sensitive element to detect neutrons. A large amount of data sets acquired by Török were used in this work. A re-engineered ISEEM has been developed in this work to improve ISEEM performance in life testings. Theoretical models have been developed to analyze the response of ISEEM in a wide range of neutron facilities and natural environment. The agreement of the measured and calculated cross-sections are within the error quoted by facilities. Because of the alpha contamination and primary proton direct ionization effects, performance of ISEEM in life testings appeared to be weak.EThOS - Electronic Theses Online ServiceGBUnited Kingdo

    Reliability-energy-performance optimisation in combinational circuits in presence of soft errors

    Get PDF
    PhD ThesisThe reliability metric has a direct relationship to the amount of value produced by a circuit, similar to the performance metric. With advances in CMOS technology, digital circuits become increasingly more susceptible to soft errors. Therefore, it is imperative to be able to assess and improve the level of reliability of these circuits. A framework for evaluating and improving the reliability of combinational circuits is proposed, and an interplay between the metrics of reliability, energy and performance is explored. Reliability evaluation is divided into two levels of characterisation: stochastic fault model (SFM) of the component library and a design-specific critical vector model (CVM). The SFM captures the properties of components with regard to the interference which causes error. The CVM is derived from a limited number of simulation runs on the specific design at the design time and producing the reliability metric. The idea is to move the high-complexity problem of the stochastic characterisation of components to the generic part of the design process, and to do it just once for a large number of specific designs. The method is demonstrated on a range of circuits with various structures. A three-way trade-off between reliability, energy, and performance has been discovered; this trade-off facilitates optimisations of circuits and their operating conditions. A technique for improving the reliability of a circuit is proposed, based on adding a slow stage at the primary output. Slow stages have the ability to absorb narrow glitches from prior stages, thus reducing the error probability. Such stages, or filters, suppress most of the glitches generated in prior stages and prevent them from arriving at the primary output of the circuit. Two filter solutions have been developed and analysed. The results show a dramatic improvement in reliability at the expense of minor performance and energy penalties. To alleviate the problem of the time-consuming analogue simulations involved in the proposed method, a simplification technique is proposed. This technique exploits the equivalence between the properties of the gates within a path and the equivalence between paths. On the basis of these equivalences, it is possible to reduce the number of simulation runs. The effectiveness of the proposed technique is evaluated by applying it to different circuits with a representative variety of path topologies. The results show a significant decrease in the time taken to estimate reliability at the expense of a minor decrease in the accuracy of estimation. The simplification technique enables the use of the proposed method in applications with complex circuits.Ministry of Education and Scientific Research in Liby

    Optimized Biosignals Processing Algorithms for New Designs of Human Machine Interfaces on Parallel Ultra-Low Power Architectures

    Get PDF
    The aim of this dissertation is to explore Human Machine Interfaces (HMIs) in a variety of biomedical scenarios. The research addresses typical challenges in wearable and implantable devices for diagnostic, monitoring, and prosthetic purposes, suggesting a methodology for tailoring such applications to cutting edge embedded architectures. The main challenge is the enhancement of high-level applications, also introducing Machine Learning (ML) algorithms, using parallel programming and specialized hardware to improve the performance. The majority of these algorithms are computationally intensive, posing significant challenges for the deployment on embedded devices, which have several limitations in term of memory size, maximum operative frequency, and battery duration. The proposed solutions take advantage of a Parallel Ultra-Low Power (PULP) architecture, enhancing the elaboration on specific target architectures, heavily optimizing the execution, exploiting software and hardware resources. The thesis starts by describing a methodology that can be considered a guideline to efficiently implement algorithms on embedded architectures. This is followed by several case studies in the biomedical field, starting with the analysis of a Hand Gesture Recognition, based on the Hyperdimensional Computing algorithm, which allows performing a fast on-chip re-training, and a comparison with the state-of-the-art Support Vector Machine (SVM); then a Brain Machine Interface (BCI) to detect the respond of the brain to a visual stimulus follows in the manuscript. Furthermore, a seizure detection application is also presented, exploring different solutions for the dimensionality reduction of the input signals. The last part is dedicated to an exploration of typical modules for the development of optimized ECG-based applications

    Development of novel two-dimensional floating strip micromegas detectors with an in-depth insight into the strip signal formation

    Get PDF
    Floating Strip Micromegas Detektoren sind mikrostrukturierte Gasdetektoren (MPGDs). Aufgrund kurzer Ionendriftwege und hochsegmentierter Auslesestrukturen sind diese Detektoren hocheffiziente Einzelteilchendetektoren mit sehr guter räumlicher und zeitlicher Auflösung bis zu sehr hohen Teilchenflussdichten von mehreren MHz/cm². In dieser Arbeit werden neuartige zweidimensionale Floating Strip Micromegas Detektoren mit drei Schichten Kupferstreifen entwickelt und umfassend untersucht. Unter den Floating Strips, die über hochohmige Widerstände mit Hochspannung verbunden sind, befinden sich zwei Auslesestreifenlagen, die parallel (x-Strips) und senkrecht (y-Strips) zu der Floating Strip-Schicht angeordnet sind. Um die Signalentstehung im Detektor, dessen Kopplung auf die Auslesestreifen sowie die Antwort von ladungsempfindlicher Elektronik auf die im Detektor erzeugten Stromsignale zu verstehen, wird eine detaillierte Detektorsimulation entwickelt. Die Simulationsergebnisse führen zur Einführung von y-Strips mit alternierender Streifen-breite um die Signale auf beiden Ausleselagen zu optimieren. Mit Hilfe dieser Resultate werden mehrere Anodenstrukturen entwickelt und zu Detektoren zusammengebaut. Charakteri-sierungsmessungen zeigen eine gleichzeitige Erhöhung der Signalamplitude auf beiden Auslese-lagen: um einen Faktor von 2 auf der senkrechten und um einen Faktor von 4,8 auf der parallelen Ausleselage, bezogen auf Detektordesigns mit gleichmäßiger Streifenbreite. Diese neuartigen Detektoren mit 0,5 mm und 0,3 mm Streifenperiodizität werden erfolgreich unter Bestrahlung mit 20 MeV Protonen getestet. Auf dem Detektor mit kleinerem Streifenabstand ist keine Verschlechterung der Pulshöhe auf den beiden Auslesestreifenlagen zu beobachten. Hocheffizienter Einzelteilchennachweis ist bis zur höchsten untersuchten Teilchenrate von 1 MHz möglich. Die neuartigen Detektoren mit 0,5 mm Streifenperiodizität werden in hochenergetischen und Hochraten-Myonen- und Pionstrahlen untersucht. Die räumliche Auflösung wurde bei senk-rechtem Einfall auf (79±4) µm für die x-Strips und (54±2) µm für die y-Strips bei einer Effizienz von (98,0±0,2) % bestimmt. Die räumliche Auflösung bleibt unter (152±8) µm für Einfallswinkel bis zu 40 ° mit einem 6 mm Driftbereich und einer Winkelauflösung von 2 ° für x- bzw. y-Lage mit einer Effizienz über 96 %. Die räumliche Auflösung und Effizienz wird nur minimal beeinflusst durch eine 10 %ige Pulshöhenreduzierung bei einer Teilchenflussdichte von 4,7 MHz/cm². Es wurde ein zweidimensionaler Floating Strip Micromegas Detektor mit einer aktiven Fläche von 19,2 x 19,2 cm² und niedrigem Materialbudget (0,8 % X₀) entwickelt und gebaut. In Messungen mit einer radioaktiven ⁵⁵ Fe Quelle wurde eine homogene Pulshöhe über die gesamte aktive Detektorfläche beobachtet. Floating Strip Micromegas Detektoren mit besonders geringem Materialbudget können als Einzelteilchendetektoren in ionenbasierten medizinischen Bildgebungsanwendungen eingesetzt werden, um die Bildqualität zu verbessern. Mit solchen Detektoren wird das Profil eines Protonen- und Kohlenstoffionenstrahls in einem therapeutischen Energiebereich im Heidelberger Ionentherapiezentrum gemessen. Die Strahlprofilmessung vor und nach dem Durchqueren von gewebeähnlichen Schichten eines Phantoms ermöglicht die Unterscheidung der Gewebeschichten anhand ihrer Dichte.Floating strip Micromegas detectors are one kind of micro-pattern gaseous detectors (MPGDs). Due to short ion drift paths and highly segmented readout structures, these detectors are highly efficient single particle tracking devices with very good spatial and temporal resolution up to very high particle flux densities of several MHz/cm². In this thesis novel two-dimensional floating strip Micromegas detectors with three layers of copper strips are developed and extensively studied. Two of the three layers are readout strip layers which have strips parallel (x-strips) and perpendicular (y-strips) to the floating anode strips, placed below the floating strip layer, which is connected to high-voltage via high ohmic resistors. A detailed detector simulation is developed to understand the signal formation in the detector, its coupling to the readout strips as well as the response of charge sensitive front-end electronics to the current signals generated in the detector. The simulation results lead to the introduction of striplines with non-uniform width on the y-strips as a means of improving performance. Several anode structures are developed on this idea and assembled into detectors. Characterization measurements show simultaneous signal amplitude enhancements on both readout strip layers, a factor of 2 on the perpendicular and a factor of 4.8 on the parallel readout strip layer, with respect to designs with uniform readout strip width. These novel detectors with 0.5 mm and 0.3 mm strip pitch performed perfectly under irradiation with 20 MeV protons. No pulse height degradation is observed on the smaller with respect to the larger pitch detector on either of the two readout strip layers. Highly efficient single particle tracking is possible up to the highest investigated particle rate of 1 MHz. The novel 0.5 mm strip pitch detectors are investigated in high energy and high rate muon and pion beams. Spatial resolution at perpendicular incidence of (79±4) µm for the x-layer and (54±2) µm for the y-layer are observed at an efficiency of (98,0±0,2) %. The spatial resolution stays below (152±8) µm for incidence angles up to 40 ° from a 6 mm drift space with an angular resolution of 2 ° for x- and y-layer, while the efficiency remains above 96 %. Spatial resolution and efficiency are only minimally affected by a 10 % pulse height reduction observed at a particle flux density of 4,7 MHz/cm². A low material budget two-dimensional floating strip Micromegas detector (0,8 % X₀) is developed and built with an active area of 19,2 x 19,2 cm². In measurements with a radioactive ⁵⁵ Fe source a homogeneous pulse height is observed over the full detector active surface. Floating strip Micromegas detectors especially designed with a low material budget can be included as single particle tracking devices in ion transmission-based medical imaging applications to improve the image quality. Such detectors are used to measure the profile of a proton and carbon ion beam in a therapeutic energy range at the Heidelberg Ion Therapy center. The beam profile before and after the particles traverse tissue equivalent layers of a phantom allow to distinguish tissues according to their density

    GSI Scientific Report 2008 [GSI Report 2009-1]

    Get PDF
    corecore