3,297 research outputs found

    A novel ultrasonic strain gauge for single-sided measurement of a local 3D strain field

    Get PDF
    A novel method is introduced for the measurement of a 3D strain field by exploiting the interaction between ultrasound waves and geometrical characteristics of the insonified specimen. First, the response of obliquely incident harmonic waves to a deterministic surface roughness is utilized. Analysis of backscattered amplitudes in Bragg diffraction geometry then yields a measure for the in-plane strain field by mapping any shift in angular dependency. Secondly, the analysis of the reflection characteristics of normal incident pulsed waves in frequency domain provides a measure of the out-of-plane normal strain field component, simply by tracking any change in the stimulation condition for a thickness resonance. As such, the developed ultrasonic strain gauge yields an absolute, contactless and single-sided mapping of a local 3D strain field, in which both sample preparation and alignment procedure are needless. Results are presented for cold-rolled DC06 steel samples onto which skin passing of the work rolls is applied. The samples have been mechanically loaded, introducing plastic strain levels ranging from 2% up to 35%. The ultrasonically measured strains have been validated with various other strain measurement techniques, including manual micrometer, longitudinal and transverse mechanical extensometer and optical mono- and stereovision digital image correlation. Good agreement has been obtained between the ultrasonically determined strain values and the results of the conventional methods. As the ultrasonic strain gauge provides all three normal strain field components, it has been employed for the extraction of Lankford ratios at different applied longitudinal plastic strain levels, revealing a strain dependent plastic anisotropy of the investigated DC06 steel sheet

    Nuclear Power Plants

    Get PDF
    This book covers various topics, from thermal-hydraulic analysis to the safety analysis of nuclear power plant. It does not focus only on current power plant issues. Instead, it aims to address the challenging ideas that can be implemented in and used for the development of future nuclear power plants. This book will take the readers into the world of innovative research and development of future plants. Find your interests inside this book

    Coprocessor integration for real-time event processing in particle physics detectors

    Get PDF
    Els experiments de física d’altes energies actuals disposen d’acceleradors amb més energía, sensors més precisos i formes més flexibles de recopilar les dades. Aquesta ràpida evolució requereix de més capacitat de càlcul; els processadors massivament paral·lels, com ara les targes acceleradores gràfiques, ens posen a l’abast aquesta major capacitat de càlcul a un cost sensiblement inferior a les CPUs tradicionals. L’ús d’aquest tipus de processadors requereix, però, de nous algoritmes i nous enfocaments de l’organització de les dades que són difícils d’integrar en els programaris actuals. En aquest treball s’exploren els problemes derivats de l’ús d’algoritmes paral·lels en els entorns de programari existents, orientats a CPUs, i es proposa una solució, en forma de servei, que comunica amb els diversos pipelines que processen els esdeveniments procedents de les col·lisions de partícules, recull les dades en lots i els envia als algoritmes corrent sobre els processadors massivament paral·lels. Aquest servei s’integra en Gaudí - l’entorn de software de dos dels quatre experiments principals del Gran Col·lisionador d’Hadrons. S’examina el sobrecost que el servei afegeix als algoritmes paral·lels. S’estudia un cas d´ùs del servei per fer una reconstrucció paral·lela de les traces detectades en el VELO Pixel, el subdetector encarregat de la detecció de vèrtex en l’upgrade de LHCb. Per aquest cas, s’observen les característiques del rendiment en funció de la mida dels lots de dades. Finalment, les conclusions en posen en el context dels requeriments del sistema de trigger de LHCb.La física de altas energías dispone actualmente de aceleradores con energías mayores, sensores más precisos y métodos de recopilación de datos más flexibles que nunca. Su rápido progreso necesita aún más potencia de cálculo; el hardware masivamente paralelo, como las unidades de procesamiento gráfico, nos brinda esta potencia a un coste mucho más bajo que las CPUs tradicionales. Sin embargo, para usar eficientemente este hardware necesitamos algoritmos nuevos y nuevos enfoques de organización de datos difíciles de integrarse con el software existente. En este trabajo, se investiga cómo se pueden usar estos algoritmos paralelos en las infraestructuras de software ya existentes y que están orientadas a CPUs. Se propone una solución en forma de un servicio que comunica con los diversos pipelines que procesan los eventos de las correspondientes colisiones de particulas, reúne los datos en lotes y se los entrega a los algoritmos paralelos acelerados por hardware. Este servicio se integra con Gaudí — la infraestructura del entorno de software que usan dos de los cuatro gran experimentos del Gran Colisionador de Hadrones. Se examinan los costes añadidos por el servicio en los algoritmos paralelos. Se estudia un caso de uso del servicio para ejecutar un algoritmo paralelo para el VELO Pixel (el subdetector encargado de la localización de vértices en el upgrade del experimento LHCb) y se estudian las características de rendimiento de los distintos tamaños de lotes de datos. Finalmente, las conclusiones se contextualizan dentro la perspectiva de los requerimientos para el sistema de trigger de LHCb.High-energy physics experiments today have higher energies, more accurate sensors, and more flexible means of data collection than ever before. Their rapid progress requires ever more computational power; and massively parallel hardware, such as graphics cards, holds the promise to provide this power at a much lower cost than traditional CPUs. Yet, using this hardware requires new algorithms and new approaches to organizing data that can be difficult to integrate with existing software. In this work, I explore the problem of using parallel algorithms within existing CPU-orientated frameworks and propose a compromise between the different trade-offs. The solution is a service that communicates with multiple event-processing pipelines, gathers data into batches, and submits them to hardware-accelerated parallel algorithms. I integrate this service with Gaudi — a framework underlying the software environments of two of the four major experiments at the Large Hadron Collider. I examine the overhead the service adds to parallel algorithms. I perform a case study of using the service to run a parallel track reconstruction algorithm for the LHCb experiment's prospective VELO Pixel subdetector and look at the performance characteristics of using different data batch sizes. Finally, I put the findings into perspective within the context of the LHCb trigger's requirements
    • …
    corecore