251 research outputs found
Synthetic Aperture Radar (SAR) Meets Deep Learning
This reprint focuses on the application of the combination of synthetic aperture radars and depth learning technology. It aims to further promote the development of SAR image intelligent interpretation technology. A synthetic aperture radar (SAR) is an important active microwave imaging sensor, whose all-day and all-weather working capacity give it an important place in the remote sensing community. Since the United States launched the first SAR satellite, SAR has received much attention in the remote sensing community, e.g., in geological exploration, topographic mapping, disaster forecast, and traffic monitoring. It is valuable and meaningful, therefore, to study SAR-based remote sensing applications. In recent years, deep learning represented by convolution neural networks has promoted significant progress in the computer vision community, e.g., in face recognition, the driverless field and Internet of things (IoT). Deep learning can enable computational models with multiple processing layers to learn data representations with multiple-level abstractions. This can greatly improve the performance of various applications. This reprint provides a platform for researchers to handle the above significant challenges and present their innovative and cutting-edge research results when applying deep learning to SAR in various manuscript types, e.g., articles, letters, reviews and technical reports
Fundamental Study of Photoluminescence-Shape Relationship of Fluorescent Nanodiamonds using Machine Learning Assisted Correlative Transmission Electron Microscopy and Photoluminescence Microscopy Method
Luminescent nanoparticles have shown wide applications ranging from lighting, display, sensors, and biomedical diagnostics and imaging. Among these, fluorescent nanodiamonds (FNDs) containing nitrogen-vacancy (NV) color centers are posed as emerging materials particularly in biomedical and biological imaging applications due to their room-temperature emission, excellent photo- and chemical- stability, high bio-compatibility, and versatile functionalization potentials. The shape variation of nanoparticles has a decisive influence on their fluorescence. However, current relative studies are limited by the lack of reliable statistical analysis of nanoparticle shape and the difficulty of achieving a precise correlation between shape/structure and optical measurements of large numbers of individual nanoparticles. Therefore, new methods are urgently needed to overcome these challenges to assist in nanoparticle synthesis control and fluorescence performance optimization.
In this thesis a new correlative TEM and photoluminescence (PL) microscopy (TEMPL) method has been developed that combines the measurements of the optical properties and the materials structure at the exact same particle and sample area, so that accurate correlation can be established to statistically study the FND morphology/structure and PL properties, at the single nanoparticle level. Moreover, machine learning based methods have been developed for categorizing the 2D and 3D shapes of a large number of nanoparticles generated in TEMPL method.
This ML-assisted TEMPL method has been applied to understand the PL correlation with the size and shape of FNDs at the single particle level. In this thesis, a strong correlation between particle morphology and NV fluorescence in FND particles has been revealed: thin, flake-like particles produce enhanced fluorescence. The robustness of this trend is proven in FND with different surface oxidation treatments. This finding offers guidance for fluorescence-optimized sensing applications of FND, by controlling the shape of the particles in fabrication.
Overall the TEMPL methodology developed in the thesis provides a versatile and general way to study the shape and fluorescence relationship of various nanoparticles and opens up the possibility of correlation methods between other characterisation techniques
Computer Vision Methods for Autonomous Remote Sizing in Manufacturing
In the grand scheme of Industry 4.0, the employment of modern intelligent digital technology has been utilised to facilitate industrial production, leveraging automation to elevate production efficiency. Building upon this, Industry 5.0 takes a step forward, accentuating the concept of human-machine symbiosis. It directs its focus on augmenting human performance within the industry, mitigating errors made by workers, and honing the overarching performance of human-machine systems. Across various manufacturing domains, an escalating demand for this level of automation has been noticed. One such area is the speciality steel industry, whose tasks are the primary consideration of this dissertation.
Speciality steel rolling forms the backbone of industrial sectors as diverse as aerospace and oil and gas. The key to the sustained survival of steel plants hinges on the digitalisation of the rolling process. Despite this, a significant number of steel rolling plants in the present day continue to place a heavy reliance on human operators to oversee and regulate the manufacturing process.
With a view to securing the safety of workers in high-risk factory environments and optimising the control of steel production, this dissertation puts forth machine vision approaches. These are aimed at supervising the direction of hot steel sections and remotely gauging their dimensions, both conducted in real-time. This dissertation further contributes a novel image registration approach founded on extrinsic features. This approach is then amalgamated with frequency domain image fusion of optical images. The resultant fused image is designated to evaluate the size of high-quality hot steel sections from a remote standpoint.
With the integration of the remote imaging sizing module, operators can stay abreast of the section dimensions in real time. Concurrently, the mill stands can be pre-adjusted to facilitate quality assurance. The efficacy of the developed approaches has been tested over real data, delivering an accuracy rate exceeding 95%. This suggests that the approach not only ensures worker safety but also contributes significantly to the enhancement of production control and efficiency in the speciality steel industry
Multiscale visualization approaches for Volunteered Geographic Information and Location-based Social Media
Today, “zoomable” maps are a state-of-the-art way to explore the world, available to anyone with Internet access. However, the process of creating this visualization has been rather loosely investigated and documented. Nevertheless, with an increasing amount of available data, interactive maps have become a more integral approach to visualizing and exploring big datasets and user-generated data. OpenStreetMap and online platforms such as Twitter and Flickr offer application programming interfaces (APIs) with geographic information. They are well-known examples of this visualization challenge and are often used as examples. In addition, an increasing number of public administrations collect open data and publish their data sets, which makes the task of visualization even more relevant. This dissertation deals with the visualization of user-generated geodata as a multiscale map. The basics of today’s multiscale maps—their history, technologies, and possibilities—are explored and abstracted. This work introduces two new multiscale-focused visualization approaches for point data from volunteered geographic information (VGI) and location-based social media (LBSM).
One contribution of this effort is a visualization methodology for spatially referenced information in the form of point geometries, using nominally scaled data from social media such as Twitter or Flickr. Typical for this data is a high number of social media posts in different categories—a post on social media corresponds to a point in a specific category. Due to the sheer quantity and similar characteristics, the posts appear generic rather than unique. This type of dataset can be explored using the new method of micro diagrams to visualize the dataset on multiple scales and resolutions. The data is aggregated into small grid cells, and the numerical proportion is shown with small diagrams, which can visually merge into heterogenous areas through colors depicting a specific category. The diagram sizes allow the user to estimate the overall number of aggregated points in a grid cell.
A different visualization approach is proposed for more unique points, considered points of interest (POI), based on the selection method. The goal is to identify more locally relevant points from the data set, considered more important compared to other points in the neighborhood, which are then compared by numerical attribute. The method, derived from topographic isolation and called discrete isolation, is the distance from one point to the next with a higher attribute value. By using this measure, the most essential points can be easily selected by choosing a minimum distance and producing a homogenous spatial of the selected points within the chosen dataset.
The two newly developed approaches are applied to multiscale mapping by constructing example workflows that produce multiscale maps. The publicly available multiscale mapping workflows OpenMapTiles and OpenStreetMap Carto, using OpenStreetMap data, are systematically explored and analyzed. The result is a general workflow for multiscale map production and a short overview of the toolchain software. In particular, the generalization approaches in the example projects are discussed and these are classified into cartographic theories on the basis of literature. The workflow is demonstrated by building a raster tile service for the micro diagrams and a vector tile service for the discrete isolation, able to be used with just a web browser.
In conclusion, these new approaches for point data using VGI and LBSM allow better qualitative visualization of geodata. While analyzing vast global datasets is challenging, exploring and analyzing hidden data patterns is fruitful. Creating this degree of visualization and producing maps on multiple scales is a complicated task. The workflows and tools provided in this thesis will make map production on a worldwide scale easier.:1 Introduction 1
1.1 Motivation .................................................................................................. 3
1.2 Visualization of crowdsourced geodata on multiple scales ............ 5
1.2.1 Research objective 1: Visualization of point collections ......... 6
1.2.2 Research objective 2: Visualization of points of interest ......... 7
1.2.3 Research objective 3: Production of multiscale maps ............. 7
1.3 Reader’s guide ......................................................................................... 9
1.3.1 Structure ........................................................................................... 9
1.3.2 Related Publications ....................................................................... 9
1.3.3 Formatting and layout ................................................................. 10
1.3.4 Online examples ........................................................................... 10
2 Foundations of crowdsourced mapping on multiple scales 11
2.1 Types and properties of crowdsourced data .................................. 11
2.2 Currents trends in cartography ......................................................... 11
2.3 Definitions .............................................................................................. 12
2.3.1 VGI .................................................................................................. 12
2.3.2 LBSM .............................................................................................. 13
2.3.3 Space, place, and location......................................................... 13
2.4 Visualization approaches for crowdsourced geodata ................... 14
2.4.1 Review of publications and visualization approaches ........... 14
2.4.2 Conclusions from the review ...................................................... 15
2.4.3 Challenges mapping crowdsourced data ................................ 17
2.5 Technologies for serving multiscale maps ...................................... 17
2.5.1 Research about multiscale maps .............................................. 17
2.5.2 Web Mercator projection ............................................................ 18
2.5.3 Tiles and zoom levels .................................................................. 19
2.5.4 Raster tiles ..................................................................................... 21
2.5.5 Vector tiles .................................................................................... 23
2.5.6 Tiling as a principle ..................................................................... 25
3 Point collection visualization with categorized attributes 26
3.1 Target users and possible tasks ....................................................... 26
3.2 Example data ......................................................................................... 27
3.3 Visualization approaches .................................................................... 28
3.3.1 Common techniques .................................................................... 28
3.3.2 The micro diagram approach .................................................... 30
3.4 The micro diagram and its parameters ............................................ 33
3.4.1 Aggregating points into a regular structure ............................ 33
3.4.2 Visualizing the number of data points ...................................... 35
3.4.3 Grid and micro diagrams ............................................................ 36
3.4.4 Visualizing numerical proportions with diagrams .................. 37
3.4.5 Influence of color and color brightness ................................... 38
3.4.6 Interaction options with micro diagrams .................................. 39
3.5 Application and user-based evaluation ............................................ 39
3.5.1 Micro diagrams in a multiscale environment ........................... 39
3.5.2 The micro diagram user study ................................................... 41
3.5.3 Point collection visualization discussion .................................. 47
4 Selection of POIs for visualization 50
4.1 Approaches for point selection .......................................................... 50
4.2 Methods for point selection ................................................................ 51
4.2.1 Label grid approach .................................................................... 52
4.2.2 Functional importance approach .............................................. 53
4.2.3 Discrete isolation approach ....................................................... 54
4.3 Functional evaluation of selection methods .................................... 56
4.3.1 Runtime comparison .................................................................... 56
4.3.2 Use cases for discrete isolation ................................................ 57
4.4 Discussion of the selection approaches .......................................... 61
4.4.1 A critical view of the use cases ................................................. 61
4.4.2 Comparing the approaches ........................................................ 62
4.4.3 Conclusion ..................................................................................... 64
5 Creating multiscale maps 65
5.1 Examples of multiscale map production .......................................... 65
5.1.1 OpenStreetMap Infrastructure ................................................... 66
5.1.2 OpenStreetMap Carto ................................................................. 67
5.1.3 OpenMapTiles ............................................................................... 73
5.2 Methods of multiscale map production ............................................ 80
5.2.1 OpenStreetMap tools ................................................................... 80
5.2.2 Geoprocessing .............................................................................. 80
5.2.3 Database ........................................................................................ 80
5.2.4 Creating tiles ................................................................................. 82
5.2.5 Caching .......................................................................................... 82
5.2.6 Styling tiles .................................................................................... 82
5.2.7 Viewing tiles ................................................................................... 83
5.2.8 The stackless approach to tile creation ................................... 83
5.3 Example workflows for creating multiscale maps ........................... 84
5.3.1 Raster tiles: OGC services and micro diagrams .................... 84
5.3.2 Vector tiles: Slippy map and vector tiles ................................. 87
5.4 Discussion of approaches and workflows ....................................... 90
5.4.1 Map production as a rendering pipeline .................................. 90
5.4.2 Comparison of OpenStreetMap Carto and OpenMapTiles .. 92
5.4.3 Discussion of the implementations ........................................... 93
5.4.4 Generalization in map production workflows .......................... 95
5.4.5 Conclusions ................................................................................. 101
6 Discussion 103
6.1 Development for web mapping ........................................................ 103
6.1.1 The role of standards in map production .............................. 103
6.1.2 Technological development ..................................................... 103
6.2 New data, new mapping techniques? ............................................. 104
7 Conclusion 106
7.1 Visualization of point collections ..................................................... 106
7.2 Visualization of points of interest ................................................... 107
7.3 Production of multiscale maps ........................................................ 107
7.4 Synthesis of the research questions .............................................. 108
7.5 Contributions ....................................................................................... 109
7.6 Limitations ............................................................................................ 110
7.7 Outlook ................................................................................................. 111
8 References 113
9 Appendix 130
9.1 Zoom levels and Scale ...................................................................... 130
9.3 Full information about selected UGC papers ................................ 131
9.4 Timeline of mapping technologies .................................................. 133
9.5 Timeline of map providers ................................................................ 133
9.6 Code snippets from own map production workflows .................. 134
9.6.1 Vector tiles workflow ................................................................. 134
9.6.2 Raster tiles workflow.................................................................. 137Heute sind zoombare Karten Alltag für jeden Internetznutzer. Die Erstellung interaktiv zoombarer Karten ist allerdings wenig erforscht, was einen deutlichen Gegensatz zu ihrer aktuellen Bedeutung und Nutzungshäufigkeit darstellt. Die Forschung in diesem Bereich ist also umso notwendiger. Steigende Datenmengen und größere Regionen, die von Karten abgedeckt werden sollen, unterstreichen den Forschungsbedarf umso mehr.
Beispiele für stetig wachsende Datenmengen sind Geodatenquellen wie OpenStreetMap aber auch freie amtliche Geodatensätze (OpenData), aber auch die zunehmende Zahl georeferenzierter Inhalte auf Internetplatformen wie Twitter oder Flickr zu nennen. Das Thema dieser Arbeit ist die Visualisierung eben dieser nutzergenerierten Geodaten mittels zoombarer Karten. Dafür wird die Entwicklung der zugrundeliegenden Technologien über die letzten zwei Jahr-zehnte und die damit verbundene Möglichkeiten vorgestellt. Weitere Beiträge sind zwei neue Visualisierungsmethoden, die sich besonders für die Darstellung von Punktdaten aus raumbezogenen nutzergenerierten Daten und georeferenzierte Daten aus Sozialen Netzwerken eignen.
Ein Beitrag dieser Arbeit ist eine neue Visualisierungsmethode für raumbezogene Informationen in Form von Punktgeometrien mit nominal skalierten Daten aus Sozialen Medien, wie beispielsweise Twitter oder Flickr. Typisch für diese Daten ist eine hohe Anzahl von Beiträgen mit unterschiedlichen Kategorien. Wobei die Beiträge, bedingt durch ihre schiere Menge und ähnlicher Ei-genschaften, eher generisch als einzigartig sind. Ein Beitrag in den So-zia len Medien entspricht dabei einem Punkt mit einer bestimmten Katego-rie. Ein solcher Datensatz kann mit der neuen Methode der „micro diagrams“ in verschiedenen Maßstäben und Auflösungen visualisiert und analysiert werden. Dazu werden die Daten in kleine Gitterzellen aggregiert. Die Menge und Verteilung der über die Kategorien aggregierten Punkte wird durch kleine Diagramme dargestellt, wobei die Farben die verschiedenen Kategorien visualisieren. Durch die geringere Größe der einzelnen Diagramme verschmelzen die kleinen Diagramme visuell, je nach der Verteilung der Farben für die Kategorien. Bei genauerem Hinsehen ist die Schätzung der Menge der aggregierten Punkte über die Größe der Diagramme die Menge und die Verteilung über die Kategorien möglich.
Für einzigartigere Punkte, die als Points of Interest (POI) angesehen werden, wird ein anderer Visualisierungsansatz vorgeschlagen, der auf einer Auswahlmethode basiert. Ziel ist es dabei lokal relevantere Punkte aus dem Datensatz zu identifizieren, die im Vergleich zu anderen Punkten in der Nachbarschaft des Punktes verglichen nach einem numerischen Attribut wichtiger sind. Die Methode ist von dem geographischen Prinzip der Dominanz von Bergen abgeleitet und wird „discrete isolation“ genannt. Es handelt sich dabei um die Distanz von einem Punkt zum nächsten mit einem höheren Attributwert. Durch die Verwendung dieses Maßes können lokal bedeutende Punkte leicht ausgewählt werden, indem ein minimaler Abstand gewählt und so räumlich gleichmäßig verteilte Punkte aus dem Datensatz ausgewählt werden.
Die beiden neu vorgestellten Methoden werden in den Kontext der zoombaren Karten gestellt, indem exemplarische Arbeitsabläufe erstellt werden, die als Er-gebnis eine zoombare Karte liefern. Dazu werden die frei verfügbaren Beispiele zur Herstellung von weltweiten zoombaren Karten mit nutzergenerierten Geo-daten von OpenStreetMap, anhand der Kartenprojekte OpenMapTiles und O-penStreetMap Carto analysiert und in Arbeitsschritte gegliedert. Das Ergebnis ist ein wiederverwendbarer Arbeitsablauf zur Herstellung zoombarer Karten, ergänzt durch eine Auswahl von passender Software für die einzelnen Arbeits-schritte. Dabei wird insbesondere auf die Generalisierungsansätze in den Beispielprojekten eingegangen und diese anhand von Literatur in die kartographische Theorie eingeordnet. Zur Demonstration des Workflows wird je ein Raster Tiles Dienst für die „micro diagrams“ und ein Vektor Tiles Dienst für die „discrete isolation“ erstellt. Beide Dienste lassen sich mit einem aktuellen Webbrowser nutzen.
Zusammenfassend ermöglichen diese neuen Visualisierungsansätze für Punkt-daten aus VGI und LBSM eine bessere qualitative Visualisierung der neuen Geodaten. Die Analyse riesiger globaler Datensätze ist immer noch eine Herausforderung, aber die Erforschung und Analyse verborgener Muster in den Daten ist lohnend. Die Erstellung solcher Visualisierungen und die Produktion von Karten in verschiedenen Maßstäben ist eine komplexe Aufgabe. Die in dieser Arbeit vorgestellten Arbeitsabläufe und Werkzeuge erleichtern die Erstellung von Karten in globalem Maßstab.:1 Introduction 1
1.1 Motivation .................................................................................................. 3
1.2 Visualization of crowdsourced geodata on multiple scales ............ 5
1.2.1 Research objective 1: Visualization of point collections ......... 6
1.2.2 Research objective 2: Visualization of points of interest ......... 7
1.2.3 Research objective 3: Production of multiscale maps ............. 7
1.3 Reader’s guide ......................................................................................... 9
1.3.1 Structure ........................................................................................... 9
1.3.2 Related Publications ....................................................................... 9
1.3.3 Formatting and layout ................................................................. 10
1.3.4 Online examples ........................................................................... 10
2 Foundations of crowdsourced mapping on multiple scales 11
2.1 Types and properties of crowdsourced data .................................. 11
2.2 Currents trends in cartography ......................................................... 11
2.3 Definitions .............................................................................................. 12
2.3.1 VGI .................................................................................................. 12
2.3.2 LBSM .............................................................................................. 13
2.3.3 Space, place, and location......................................................... 13
2.4 Visualization approaches for crowdsourced geodata ................... 14
2.4.1 Review of publications and visualization approaches ........... 14
2.4.2 Conclusions from the review ...................................................... 15
2.4.3 Challenges mapping crowdsourced data ................................ 17
2.5 Technologies for serving multiscale maps ...................................... 17
2.5.1 Research about multiscale maps .............................................. 17
2.5.2 Web Mercator projection ............................................................ 18
2.5.3 Tiles and zoom levels .................................................................. 19
2.5.4 Raster tiles ..................................................................................... 21
2.5.5 Vector tiles .................................................................................... 23
2.5.6 Tiling as a principle ..................................................................... 25
3 Point collection visualization with categorized attributes 26
3.1 Target users and possible tasks ....................................................... 26
3.2 Example data ......................................................................................... 27
3.3 Visualization approaches .................................................................... 28
3.3.1 Common techniques .................................................................... 28
3.3.2 The micro diagram approach .................................................... 30
3.4 The micro diagram and its parameters ............................................ 33
3.4.1 Aggregating points into a regular structure ............................ 33
3.4.2 Visualizing the number of data points ...................................... 35
3.4.3 Grid and micro diagrams ............................................................ 36
3.4.4 Visualizing numerical proportions with diagrams .................. 37
3.4.5 Influence of color and color brightness ................................... 38
3.4.6 Interaction options with micro diagrams .................................. 39
3.5 Application and user-based evaluation ............................................ 39
3.5.1 Micro diagrams in a multiscale environment ........................... 39
3.5.2 The micro diagram user study ................................................... 41
3.5.3 Point collection vis
Synthetic image generation and the use of virtual environments for image enhancement tasks
Deep learning networks are often difficult to train if there are insufficient image samples. Gathering real-world images tailored for a specific job takes a lot of work to perform. This dissertation explores techniques for synthetic image generation and virtual environments for various image enhancement/ correction/restoration tasks, specifically distortion correction, dehazing, shadow removal, and intrinsic image decomposition. First, given various image formation equations, such as those used in distortion correction and dehazing, synthetic image samples can be produced, provided that the equation is well-posed. Second, using virtual environments to train various image models is applicable for simulating real-world effects that are otherwise difficult to gather or replicate, such as dehazing and shadow removal. Given synthetic images, one cannot train a network directly on it as there is a possible gap between the synthetic and real domains. We have devised several techniques for generating synthetic images and formulated domain adaptation methods where our trained deep-learning networks perform competitively in distortion correction, dehazing, and shadow removal. Additional studies and directions are provided for the intrinsic image decomposition problem and the exploration of procedural content generation, where a virtual Philippine city was created as an initial prototype.
Keywords: image generation, image correction, image dehazing, shadow removal, intrinsic image decomposition, computer graphics, rendering, machine learning, neural networks, domain adaptation, procedural content generation
Experimental and Data-driven Workflows for Microstructure-based Damage Prediction
Materialermüdung ist die häufigste Ursache für mechanisches Versagen. Die Degradationsmechanismen, welche die Lebensdauer von Bauteilen bei vergleichsweise ausgeprägten zyklischen Belastungen bestimmen, sind gut bekannt. Bei Belastungen im makroskopisch elastischen Bereich hingegen, der (sehr) hochzyklischen Ermüdung, bestimmen die innere Struktur eines Werkstoffs und die Wechselwirkung kristallografischer Defekte die Lebensdauer. Unter diesen Umständen sind die inneren Degradationsphänomene auf der mikroskopischen Skala weitgehend reversibel und führen nicht zur Bildung kritischer Schädigungen, die kontinuierlich wachsen können. Allerdings sind einige Kornensembles in polykristallinen Metallen, je nach den lokalen mikrostrukturellen Gegebenheiten, anfällig für Schädigungsinitiierung, Rissbildung und -wachstum und wirken daher als Schwachstellen. Daher weisen Bauteile, die solchen Belastungen ausgesetzt sind, oft eine ausgeprägte Lebensdauerstreuung auf. Die Tatsache, dass ein umfassendes mechanistisches Verständnis für diese Degradationsprozesse in verschiedenen Werkstoffen nicht vorliegt, hat zur Folge, dass die derzeitigen Modellierungsbemühungen die mittlere Lebensdauer und ihre Varianz in der Regel nur mit unbefriedigender Genauigkeit vorhersagen. Dies wiederum erschwert die Bauteilauslegung und macht die Nutzung von Sicherheitsfaktoren während des Dimensionierungsprozesses erforderlich.
Abhilfe kann geschaffen werden, indem umfangreiche Daten zu Einflussfaktoren und deren Wirkung auf die Bildung initialer Ermüdungsschädigungen erhoben werden. Die Datenknappheit wirkt sich nach wie vor negativ auf Datenwissenschaftler und Modellierungsexperten aus, die versuchen, trotz geringer Stichprobengröße und unvollständigen Merkmalsräumen, mikrostrukturelle Abhängigkeiten abzuleiten, datengetriebene Vorhersagemodelle zu trainieren oder physikalische, regelbasierte Modelle zu parametrisieren. Die Tatsache, dass nur wenige kritische Schädigungen bezogen auf das gesamte Probenvolumen auftreten und die hochzyklische Ermüdung eine Vielzahl unterschiedlicher Abhängigkeiten aufweist, impliziert einige Anforderungen an die Datenerfassung und -verarbeitung. Am wichtigsten ist, dass die Messtechniken so empfindlich sind, dass nuancierte Schwankungen im Probenzustand erfasst werden können, dass die gesamte Routine effizient ist und dass die korrelative Mikroskopie räumliche Informationen aus verschiedenen Messungen miteinander verbindet.
Das Hauptziel dieser Arbeit besteht darin, einen Workflow zu etablieren, der den Datenmangel behebt, so dass die zukünftige virtuelle Auslegung von Komponenten effizienter, zuverlässiger und nachhaltiger gestaltet werden kann. Zu diesem Zweck wird in dieser Arbeit ein kombinierter experimenteller und datenverarbeitender Workflow vorgeschlagen, um multimodale Datensätze zu Ermüdungsschädigungen zu erzeugen. Der Schwerpunkt liegt dabei auf dem Auftreten von lokalen Gleitbändern, der Rissinitiierung und dem Wachstum mikrostrukturell kurzer Risse. Der Workflow vereint die Ermüdungsprüfung von mesoskaligen Proben, um die Empfindlichkeit der Schädigungsdetektion zu erhöhen, die ergänzende Charakterisierung, die multimodale Registrierung und Datenfusion der heterogenen Daten, sowie die bildverarbeitungsbasierte Schädigungslokalisierung und -bewertung. Mesoskalige Biegeresonanzprüfung ermöglicht das Erreichen des hochzyklischen Ermüdungszustands in vergleichsweise kurzen Zeitspannen bei gleichzeitig verbessertem Auflösungsvermögen der Schädigungsentwicklung. Je nach Komplexität der einzelnen Bildverarbeitungsaufgaben und Datenverfügbarkeit werden entweder regelbasierte Bildverarbeitungsverfahren oder Repräsentationslernen gezielt eingesetzt. So sorgt beispielsweise die semantische Segmentierung von Schädigungsstellen dafür, dass wichtige Ermüdungsmerkmale aus mikroskopischen Abbildungen extrahiert werden können. Entlang des Workflows wird auf einen hohen Automatisierungsgrad Wert gelegt. Wann immer möglich, wurde die Generalisierbarkeit einzelner Workflow-Elemente untersucht. Dieser Workflow wird auf einen ferritischen Stahl (EN 1.4003) angewendet. Der resultierende Datensatz verknüpft unter anderem große verzerrungskorrigierte Mikrostrukturdaten mit der Schädigungslokalisierung und deren zyklischer Entwicklung. Im Zuge der Arbeit wird der Datensatz wird im Hinblick auf seinen Informationsgehalt untersucht, indem detaillierte, analytische Studien zur einzelnen Schädigungsbildung durchgeführt werden. Auf diese Weise konnten unter anderem neuartige, quantitative Erkenntnisse über mikrostrukturinduzierte plastische Verformungs- und Rissstopmechanismen gewonnen werden. Darüber hinaus werden aus dem Datensatz abgeleitete kornweise Merkmalsvektoren und binäre Schädigungskategorien verwendet, um einen Random-Forest-Klassifikator zu trainieren und dessen Vorhersagegüte zu bewerten. Der vorgeschlagene Workflow hat das Potenzial, die Grundlage für künftiges Data Mining und datengetriebene Modellierung mikrostrukturempfindlicher Ermüdung zu legen. Er erlaubt die effiziente Erhebung statistisch repräsentativer Datensätze mit gleichzeitig hohem Informationsgehalt und kann auf eine Vielzahl von Werkstoffen ausgeweitet werden
Understanding Quantum Technologies 2022
Understanding Quantum Technologies 2022 is a creative-commons ebook that
provides a unique 360 degrees overview of quantum technologies from science and
technology to geopolitical and societal issues. It covers quantum physics
history, quantum physics 101, gate-based quantum computing, quantum computing
engineering (including quantum error corrections and quantum computing
energetics), quantum computing hardware (all qubit types, including quantum
annealing and quantum simulation paradigms, history, science, research,
implementation and vendors), quantum enabling technologies (cryogenics, control
electronics, photonics, components fabs, raw materials), quantum computing
algorithms, software development tools and use cases, unconventional computing
(potential alternatives to quantum and classical computing), quantum
telecommunications and cryptography, quantum sensing, quantum technologies
around the world, quantum technologies societal impact and even quantum fake
sciences. The main audience are computer science engineers, developers and IT
specialists as well as quantum scientists and students who want to acquire a
global view of how quantum technologies work, and particularly quantum
computing. This version is an extensive update to the 2021 edition published in
October 2021.Comment: 1132 pages, 920 figures, Letter forma
Advances in Computer Recognition, Image Processing and Communications, Selected Papers from CORES 2021 and IP&C 2021
As almost all human activities have been moved online due to the pandemic, novel robust and efficient approaches and further research have been in higher demand in the field of computer science and telecommunication. Therefore, this (reprint) book contains 13 high-quality papers presenting advancements in theoretical and practical aspects of computer recognition, pattern recognition, image processing and machine learning (shallow and deep), including, in particular, novel implementations of these techniques in the areas of modern telecommunications and cybersecurity
- …