University of Würzburg

Online-Publikations-Server der Universität Würzburg
Not a member yet
    22665 research outputs found

    Zur Rolle des Finanzsystems für wirtschaftliche Entwicklung - Empirische Evidenz für Schumpeters monetäre Analyse

    No full text
    This dissertation studies applications of Joseph A. Schumpeter's monetary analysis in four self-contained studies. The first study provides a critical review of the existing literature on the finance and growth nexus, accompanied by an empirical analysis based on Schumpeter's monetary analysis. The second study discusses Schumpeter's growth model using China as a case study. The third study presents a monetary theory of financial crises, which is analysed within the context of an empirical model. The fourth study provides a systemic analysis of the discussion on central bank digital currencies. The econometric studies in this dissertation use a combination of conventional estimation methods, including various panel estimations, time series econometric approaches such as (structural) vector autoregressions (VAR), and modern machine learning approaches.Die vorliegende Dissertation befasst sich in vier in sich geschlossenen Studien mit der Anwendung der monetären Analyse von Joseph A. Schumpeter. Die erste Studie beinhaltet eine kritische Diskussion der Literatur zum Zusammenhang von Finanzsystem und Wachstum sowie eine eigene empirische Untersuchung, welche auf Schumpeters monetärer Analyse basiert. Die zweite Studie diskutiert Schumpeters Wachstumsmodell am Anwendungsfall China. Die dritte Studie widmet sich einer monetären Theorie von Finanzkrisen, welche anhand eines empirischen Modells analysiert wird. Die vierte Studie bietet eine systemische Analyse zur Diskussion um digitales Zentralbankgeld. Für die ökonometrischen Untersuchungen wird eine Mischung aus konventionellen Schätzmethoden, insbesondere verschiedener Panelschätzungen, zeitreihenökonometrischer Ansätze wie (strukturelle) Vektor-Autoregressionen (VAR) sowie moderner Machine Learning-Ansätze verwendet

    Bewertung von sicheren Gruppenkommunikationsverfahren und homomorphem Computing als Grundlage für sichere IoT-Kommunikation und Cloud-Computing

    No full text
    With the rapid pace of digitalization, our working world is undergoing fundamental changes like never before since the beginning of industrialization [For21a]. This change is driven by the merging of the physical and digital worlds. Physical objects are embedded with low-cost sensors that are networked together to form the Internet of Things (IoT), enabling them to perform complex tasks. The individual sensors are limited in their capabilities, but as a network, they can implement smart applications such as autonomous vehicles or Industry 4.0 factories. The sensors gather data on the environment to enable automated intelligent decision-making by, e.g., AI models. However, using such AI models requires first training them, which is most efficiently done in the cloud [For22]. The following two building blocks are, therefore, essential for our "smart" future: (i) the networking of IoT devices that collect and share data about us and (ii) AI models that are trained in the cloud on the collected data. As sensitive personal data are collected and processed in these two domains, it is, therefore, essential for a "smart" future to handle the confidential data appropriately and protect them from unauthorized access. Various examples from the past show this is not the case. In 2021, for instance, 76% of all IoT devices were still transmitting data unencrypted, which attackers could easily read [Zsc21]. The situation regarding cloud security is no better either since 45% of all companies have already been victims of cyberattacks in the cloud [Sai20]. The reasons for these deficiencies are that IoT communication is realized using the publisher-subscriber model [PIH+21a] and, therefore, follows the n-to-n communication pattern, not the classic 1-to-1 pattern. This type of communication is more challenging to encrypt, as messages no longer have to be encrypted for a single recipient but for a group of recipients. Although numerous encryption schemes with precisely this functionality are presented in the literature, they differ significantly in terms of their performance, requirements, and features provided. Developers are challenged to select the most optimal schemes for their application from this heterogeneous set of encryption schemes without further assistance. A significant challenge for security in the cloud is to protect the data from unauthorized access on the one hand and to use it for computations on the other. Unless one wants to use the cloud only for pure data storage, the data must be available in decrypted form in the cloud, at least for the period in which they are used for computations. During this period, the data are predisposed to theft, whether by exploiting technical security gaps or bribing or blackmailing employees. Therefore, a solution to the confidentiality problem in clouds would be if the data were encrypted throughout the cloud, and computations could be carried out using only the encrypted data. In this way, potential attackers can only steal encrypted data from the cloud, which are useless to them. With homomorphic encryption, an encryption method that fulfills this property already exists. Different variants of homomorphic encryption enable computations based on either encrypted boolean, integer, or double values. However, homomorphic encryption methods currently support a maximum of two operations in the case of numerical systems, for example, addition and multiplication. In contrast, cloud applications like AI services or data science algorithms like k-means are based on more complex mathematical functions. Developers currently have to implement these themselves without further help. To address the two mentioned challenges, the selection of a suitable encryption scheme for n-to-n communication and the homomorphic realization of more complex mathematical functions, this thesis presents the following three contributions: (i) the derivation of decision trees for the selection of Secure Group Communication (SGC) schemes, (ii) the development of a benchmark suite for SGC schemes, and (iii) the extension of the homomorphic cryptosystem CKKS by essential mathematical functions. In the following, the three contributions are summarized. Contribution I - Selection Guidelines for Secure Group Communication Schemes To derive selection guidelines for SGC schemes, we first surveyed the literature to identify suitable schemes. In doing so, we determined which metrics are used to evaluate the performance of SGC schemes in the literature and which security properties they can provide. In total, we assessed the performance and security features of 34 schemes. We then standardized the classifications of SGC schemes used in the literature and modeled the selection of such a scheme as a multi-objective optimization problem. In this modeling, we considered both the complexity of the schemes and their security properties. By modeling the selection of a SGC scheme as a multi-objective optimization problem, we could restrict the number of possible schemes by forming the Pareto-front and designed decision trees for the narrowed-down set of SGC schemes. When creating the decision trees, we differentiated between whether only the performance, only the features, or the performance and the features of the schemes should be considered. In addition, we have answered the question of the comparability of the different classes of SGC schemes. Contribution II - Benchmark Suite for Secure Group Communication Schemes We have designed a benchmark suite for SGC schemes focusing on IoT to support developers in selecting a SGC scheme with measurements regarding their perfor- mance, such as the required computation times. We have defined corresponding business problems, workloads, and metrics for this benchmark suite, considering the specifics of the different scheme classes. We first created a specification-based benchmark to develop this benchmark suite and then expanded it into a hybrid benchmark. Our benchmark suite comprises ten centralized, seven decentralized/hybrid, and six distributed/contributing SGC schemes. Contribution III - Extension of the Homomorphic Cryptosystem CKKS Since the homomorphic cryptosystem CKKS only supports the addition and multiplication of doubles, but modern applications consist of more complex calculations, we have extended CKKS by the following essential mathematical functions: division, root, logarithm, exponential, minimum, and maximum. To do this, we first created an overview of how these functions are realized in the non-homomorphic case and determined which methods can also be used in the homomorphic case. We then selected the method that requires the least multiplicative depth from the remaining methods, as this is the main limiting factor in the homomorphic case. In the next step, we implemented the respective functions with the selected methods and evaluated their performance by corresponding measurements. Finally, we have implemented the Box-Cox trans- formation homomorphic using our functions to demonstrate that they can be combined into more complex applications. This work’s contributions can be seen as milestones in the use of encryption for IoT communication and homomorphic encryption. For the first time, well-founded selection guidelines for SGC schemes, which consider the schemes’ features and performance, are presented. Therefore, we evaluated the performance using the Landau notation. To provide developers with data on the performance of SGC schemes in terms of computation times and memory requirements in seconds and bytes, we have also designed a benchmark suite for SGC schemes focusing on IoT. Our selection guidelines and benchmark suite thus make it easier for developers to choose the proper SGC scheme for their use case. Both our selection guidelines and benchmark suite can be easily expanded to include new future schemes. In the domain of homomorphic computing, we have laid the foundations for the practical usage of the homomorphic cryptosystem CKKS. By default, this cryptosystem only supports two operations: addition and multiplication. However, modern applications such as neural networks or data analysis algorithms such as k-means require many other basic mathematical operations. Until now, developers had to realize these functions without further help before they could start developing the actual homomorphic application. For this reason, in this thesis, we have identified and evaluated methods to realize the following essential mathematical functions homomorphically: division, root, exponential, logarithm, minimum, and maximum.Mit der immer schneller fortschreitenden Digitalisierung erleben wir aktuell die wohl fundamentalsten Veränderungen in unserer Arbeitswelt, seit dem Beginn der Industrialisierung [For21a]. Angetrieben werden diese Veränderungen durch das Verschmelzen der realen und der digitalen Welt. So werden physische Objekte mit günstigen, ressourcenbeschränkten Sensoren ausgestattet, welche sich zu einem Netzwerk, dem sogenannten Internet of Things (IoT), zusammenschließen, um komplexere Aufgaben zu realisieren. An sich sind die einzelnen Sensoren hinsichtlich ihrer Fähigkeiten beschränkt, als Verbund können sie jedoch smarte Anwendungen wie autonom fahrende Fahrzeuge oder Industrie-4.0-Anlagen umsetzen. Dazu sammeln die einzelnen Sensoren Daten über ihre jeweilige Umwelt, welche in ihrer Summe als Grundlage für automatisierte Entscheidungsfindungsprozesse genutzt werden können. Dabei bietet sich der Einsatz von KI-Verfahren an, um möglichst intelligente Entscheidungen zu treffen. Für den Einsatz solcher KI-Programme ist allerdings deren Training notwendig, was heutzutage am effizientesten in der Cloud passiert [For22]. Zusammengefasst sind demnach folgende zwei Bausteine fundamental für unsere "smarte" Zukunft: (i) der Einsatz zahlloser IoT-Geräte, welche Daten über uns sammeln und (ii) KI-Modelle, welche in der Cloud auf den gesammelten Daten trainiert werden. Da in diesen beiden Bereichen sensible, persönliche Daten gesammelt und verarbeitet werden, ist es für eine "smarte" Zukunft essenziell wichtig, dass diese mit entsprechender Sorgfalt behandelt werden und vor unbefugtem Zugriff geschützt sind. Dass dem nicht der Fall ist, zeigen verschiedene Beispiele aus der Vergangenheit. So haben 2021 76% aller IoT-Geräte beispielsweise noch unverschlüsselt Daten übertragen, welche Angreifer problemlos mitlesen konnten [Zsc21]. Für KI-Modelle in Cloud-Umgebungen zeichnet sich sicherheitstechnisch ebenfalls ein negatives Bild ab. So wurden etwa bereits 45% aller Firmen Opfer von Cyberangriffen in der Cloud [Sai20]. Gründe für diese Missstände sind dabei, dass IoT-Kommunikation mittels des Publisher-Subscriber-Modells realisiert wird [PIH+21a] und somit nicht mehr dem klassischen 1-zu-1 Kommunikationsmuster folgt, sondern dem n-zu-n Muster. Diese Kommunikationsart ist schwieriger zu verschlüsseln, da Nachrichten nun nicht mehr für einen einzelnen Empfänger verschlüsselt werden müssen, sondern für eine Gruppe von Empfängern. In der Literatur werden zwar zahlreiche Verschlüsselungsschemata mit genau dieser Funktionalität vorgestellt, allerdings unterscheiden sich diese stark hinsichtlich ihrer Performance, Anforderungen und bereit gestellten Eigenschaften. Entwickler stehen damit vor der schwierigen Aufgabe, aus dieser heterogenen Menge von Verschlüsselungsschemata, ohne weitere Hilfen, das, für ihren Anwendungsfall, optimale Verfahren auszuwählen. Eine große Herausforderung für die Sicherheit in der Cloud besteht darin, einerseits die Daten vor unbefugtem Zugriff zu schützen und andererseits, auf diesen Operationen durchzuführen. Möchte man die Cloud also nicht zur reinen Datenspeicherung verwenden, müssen zumindest für den Zeitraum, in welchem Operationen auf den Daten durchgeführt werden sollen, die Daten in entschlüsselter Form in der Cloud vorliegen. In dieser Zeit sind die Daten prädestiniert für einen Diebstahl, sei es durch das Ausnutzen technischer Sicherheitslücken oder das Bestechen oder Erpressen von Mitarbeitern. Die Lösung für das Vertraulichkeitsproblem in Cloud-Speichern wäre es daher, wenn die Daten durchgehend verschlüsselt in der Cloud liegen würden und man auf den verschlüsselten Daten die Operationen ausführen könnte. So würden mögliche Angreifer nur verschlüsselte Daten aus der Cloud stehlen, welche für sie wertlos wären. Mit homomorpher Verschlüsselung existiert bereits ein Verschlüsselungsverfahren, welches eben diese Eigenschaft erfüllt. Dabei gibt es unterschiedliche Varianten von homomorphen Verschlüsselungen, welche Berechnungen entweder auf verschlüsselten Booleschen-, Integer- oder Double-Werten ermöglichen. Allerdings unterstützen aktuell homomorphe Verschlüsselungsverfahren maximal zwei Operationen. Im Falle der zahlenbasierten Systeme wären das etwa die Addition und Multiplikation. Cloud-Anwendungen, wie zum Beispiel KI-Services basieren allerdings auf deutlich komplexeren mathematischen Funktionen. Diese müssen Entwickler aktuell, ohne weitere Hilfe, aufbauend auf den unterstützten homomorphen Operationen selbst implementieren. Um die beiden erwähnten Herausforderungen, die Auswahl eines passenden Verschlüsselungsverfahrens für n-zu-n Kommunikation und die homomorphe Realisierung komplexerer mathematischer Funktionen, anzugehen, leistet diese Arbeit folgende drei Beiträge: (i) die Ableitung von Entscheidungsbäumen für die Auswahl von Verschlüsselungsverfahren für die Gruppenkommunikation anhand von Eigenschafts- und Komplexitätsanalysen, (ii) die Entwicklung einer Benchmark-Suite für sichere Gruppenkommunikationsverfahren mit Fokus auf das IoT und (iii) die Erweiterung des homomorphen Kryptosystems CKKS. Im Folgenden werden die drei Beiträge zusammengefasst. Beitrag I - Auswahlrichtlinien für sichere Gruppenkommunikationsverfahren Für das Ableiten von Auswahlrichtlinien für sichere Gruppenkommunikationsverfahren haben wir im ersten Schritt eine Literaturrecherche durchgeführt, um entsprechende Verfahren zu identifizieren. Dabei konnten wir ermitteln, anhand welcher Komplexitätsaspekte die Performance von sicheren Gruppenkommunikationsverfahren in der Literatur bewertet wird und über welche Sicherheitseigenschaften diese verfügen kann. Insgesamt waren wir so in der Lage, die Performance und Eigenschaften von 34 Verfahren zu bestimmen. Anschließend haben wir die, in der Literatur verwendeten, Klassifikationen von sicheren Gruppenkommunikationsverfahren vereinheitlicht und die Auswahl eines solchen Verfahrens als Mehrzieloptimierungsproblem modelliert. Bei dieser Modellierung berücksichtigten wir sowohl die Komplexität der Verfahren, als auch deren Sicherheitseigenschaften. Dank der Modellierung als Mehrzieloptimierungsproblem, konnten wir über die Bildung der Pareto-Front die Menge an in Frage kommenden Verfahren einschränken und unsere Richtlinien für die Auswahl eines Verfahrens aufstellen. Hinsichtlich der Richtlinien haben wir dabei unterschieden, ob nur die Komplexität, nur die Eigenschaften oder die Komplexität und die Eigenschaften der Verfahren berücksichtigt werden sollen. Zusätzlich haben wir noch die Frage der Vergleichbarkeit der verschiedenen Klassen von sicheren Gruppenkommunikationsverfahren beantwortet. Beitrag II - Benchmark-Suite für Gruppenkommunikationsverfahren Um Entwickler bei der Auswahl eines sicheren Gruppenkommunikationsverfahrens mit Messungen hinsichtlich deren Performance, wie etwa der benötigten Berechnungszeiten, zu unterstützen, haben wir eine entsprechende Benchmark-Suite mit Fokus auf IoT entworfen. Für diese Benchmark-Suite haben wir geeignete Geschäftsprobleme, Workloads und Metriken definiert und dabei die Besonderheiten der unterschiedlichen Klassen von Verfahren berücksichtigt. Für die Entwicklung dieser Benchmark-Suite haben wir zuerst einen sepzifikations-basierten Benchmark erstellt und diesen anschließend zu einem hybriden Benchmark erweitert. Insgesamt umfasst unsere Benchmark-Suite zehn zentralisierte, sieben dezentralisierte/hybride und sechs verteilte/beitragende Verfahren. Beitrag III - Erweiterung des homomorphen Kryptosystems CKKS Da das homomorphe Kryptosystem CKKS nur die Addition und Multiplikation von Doubles ermöglicht, moderne Anwendungen allerdings aus komplexeren Berechnungen bestehen, haben wir CKKS um folgende grundlegende mathematische Funktionen erweitert: Division, Exponential, Wurzel, Logarithmus, Minimum und Maximum. Dazu haben wir uns zuerst einen Überblick darüber verschafft, wie diese Funktionen im nicht-homomorphen Fall realisiert werden. Anschließend haben wir ermittelt, welche dieser Methoden auch im homomorphen Fall angewendet werden kann. Aus den übrig gebliebenen Verfahren haben wir danach jeweils das Verfahren ausgewählt, welches die geringste multiplikative Tiefe benötigt, da diese den Hauptlimitierungsfaktor im homomorphen Fall darstellt. Im nächsten Schritt haben wir die Box-Cox-Transformation mittels unserer Funktionen umgesetzt, um zu demonstrieren, dass sich die von uns implementierten Funktionen auch zu komplexeren Anwendungen zusammensetzen lassen. Die Beiträge dieser Arbeit können als Meilensteine in der Nutzung von Verschlüsselung für IoT-Kommunikation und homomorpher Verschlüsselung angesehen werden. Zum ersten Mal werden fundierte Auswahlrichtlinien für sichere Gruppenkommunikationsverfahren vorgestellt, welche die Eigenschaften und Komplexität der Verfahren berücksichtigen. Aufbauend auf den mit Hilfe der Landau-Notation durchgeführten Performance-Analysen der einzelnen Verfahren haben wir eine Benchmark-Suite mit Fokus auf IoT designt. Sie ermöglicht es, Entwickler mit Daten über die Laufzeiten und Speicheranforderungen der Verfahren zu versorgen, welche auf echter IoT-Hardware gemessen wurden. Unsere Auswahlrichtlinien und Benchmark-Suite erleichtern es Entwicklern somit, das passende sichere Gruppenverschlüsselungsverfahren für ihren Anwendungsfall auszuwählen. Dabei lassen sich sowohl unsere Auswahlrichtlinien, als auch unsere Benchmark-Suite leicht um neue zukünftige Verfahren erweitern. Im Bereich homomorpher Verschlüsselung haben wir die Grundsteine für den Einsatz des homomorphen Kryptosystems CKKS gelegt. Dieses Kryptosystem unterstützt standardmäßig nur die beiden Operationen Addition und Multiplikation. Moderne Anwendungen wie neuronale Netze oder Datenauswertungsalgorithmen wie k-Means benötigen jedoch eine Vielzahl weiterer grundlegender mathematischer Operationen. Bislang mussten Entwickler diese mathematischen Funktionen ohne weitere Hilfe realisieren, bevor die eigentliche homomorphe Anwendung umgesetzt werden konnte. Aus diesem Grund haben wir in dieser Arbeit Methoden ermittelt, bewertet und deren Performance in der Praxis evaluiert, um die folgenden mathematischen Grundfunktionen homomorph zu realisieren: Division, Wurzel, Exponential, Logarithmus, Minimum und Maximum

    Der Einfluss der Zweisprachigkeit auf die Entwicklung des Wortschatzes und des Satzverständnisses bei Vorschulkindern

    No full text
    In today’s globalized society, growing up with more than one language is increasingly the norm, particularly for children with a migration background. These bilingual children face the unique challenge of developing competencies in both languages for everyday and academic contexts. Vocabulary plays a key role in this process, as it is essential for reading comprehension, academic success, and social integration. This dissertation investigates the vocabulary development of bilingual children, focusing on the under-researched Turkish-German language combination. It explores influencing factors and the relationship between vocabulary and language comprehension, with the long-term goal of informing effective diagnostic and support strategies. Study 1 adopted a new validation approach for test items by applying a literature-based, multi-stepp 1-PL model approach from test theory (Hartig et al., 2012). Item features such as age of acquisition and frequency were analyzed in relation to monolingual and bilingual language backgrounds. Results show structural similarities in vocabulary development between the first and second language and indicate that bilingual children can draw on their L1 knowledge. Study 2 used a longitudinal design to investigate productive and receptive vocabulary growth and the role of language exposure in mono- and bilingual preschool children. Using parallel test versions enabled fine-grained comparisons across language groups. The findings show that, under favorable conditions, bilingual children can bridge vocabulary gaps in their second language and transfer concepts from their first language effectively. Study 3 examined the influence of vocabulary, fluid intelligence, and inhibitory control on sentence comprehension. It revealed strong links between vocabulary size and comprehension performance, as well as compensatory effects of cognitive abilities, especially in the heritage language. This dissertation makes a significant contribution to understanding bilingual language development. It highlights the importance of vocabulary and cognitive resources and supports the development of diagnostic tools and support strategies that integrate linguistic, cognitive, and sociocultural dimensions.In der heutigen globalisierten Gesellschaft ist das Aufwachsen mit mehr als einer Sprache zunehmend die Regel, besonders bei Kindern mit Migrationshintergrund. Diese bilingualen Kinder stehen vor der Herausforderung, Kompetenzen in beiden Sprachen für Alltag und Bildung zu entwickeln. Der Wortschatz spielt dabei eine Schlüsselrolle, da er wesentlich für Leseverständnis, Bildungserfolg und soziale Integration ist. Diese Dissertation untersucht die Wortschatzentwicklung bilingualer Kinder, mit Fokus auf der bisher wenig erforschten Sprachkombination Türkisch-Deutsch. Es werden Einflussfaktoren und der Zusammenhang zwischen Wortschatz und Sprachverstehen analysiert – mit dem Ziel, effektive Diagnose- und Förderstrategien zu unterstützen. Studie 1 nutzte einen neuartigen Validierungsansatz mit einem literaturbasierten, mehrstufigen 1-PL-Modell (Hartig et al., 2012). Itemmerkmale wie Erwerbsalter und Häufigkeit wurden im Hinblick auf mono- und bilinguale Hintergründe analysiert. Die Ergebnisse zeigen strukturelle Ähnlichkeiten zwischen Erst- und Zweitsprache und weisen auf den Nutzen von L1-Wissen hin. Studie 2 untersuchte in einem Längsschnittdesign das Wachstum des rezeptiven und produktiven Wortschatzes sowie die Rolle sprachlicher Exposition bei mono- und bilingualen Vorschulkindern. Parallele Testversionen ermöglichten differenzierte Vergleiche. Die Ergebnisse zeigen, dass bilinguale Kinder unter günstigen Bedingungen Wortschatzlücken überbrücken und Konzepte aus der Erstsprache übertragen können. Studie 3 analysierte den Einfluss von Wortschatz, fluider Intelligenz und Inhibition auf das Satzverstehen. Es zeigten sich starke Zusammenhänge zwischen Wortschatzgröße und Verstehen sowie kompensatorische Effekte kognitiver Ressourcen, besonders in der Herkunftssprache. Die Arbeit liefert wichtige Beiträge zum Verständnis bilingualer Sprachentwicklung und zur Entwicklung integrierter Förderansätze

    Evaluation of Chemokine Receptor 4-directed Theranostics in hematologic neoplasms and solid tumors

    No full text
    Der CXC-Motiv Chemokinrezeptor 4 (CXCR4) wird von einer Vielzahl maligner Tumorentitäten exprimiert. Mit der [68Ga]Ga-PentixaFor-Positronenemissionstomographie/Computertomographie (PET/CT) ist eine in-vivo Visualisierung dieser CXCR4-Expression möglich. Im Sinne eines theranostischen Konzepts ist zudem die CXCR4-gerichtete Therapie mit den Radioliganden [177Lu]Lu- und [90Y]Y-PentixaTher, aber auch mit nicht-radioaktiven Wirkstoffen verfügbar. Ziel dieser Arbeit war es, solide und hämatologische Tumorentitäten mit einer relevanten in-vivo CXCR4-Expression zu identifizieren und zudem den Einfluss der applizierten spezifischen Aktivität auf die PET-Quantifizierung zu untersuchen. In weiterführenden Analysen sollte dann die CXCR4-Expression in malignen soliden Tumorentitäten genauer examiniert werden sowie zudem das Vorliegen eines Tumor-Sink-Effekts und der Einfluss vorheriger Therapielinien auf die CXCR4-Expression im Knochenmark untersucht werden. Abschließend wurden Patient:innen mit malignen soliden Tumoren hinsichtlich einer Eignung für die CXCR4-gerichtete Radioligandentherapie (RLT) evaluiert. Hierzu wurden am Universitätsklinikum Würzburg durchgeführte PET/CT-Untersuchungen mit [68Ga]Ga-PentixaFor visuell und semiquantitativ analysiert. Für die Gesamtkohorte wurde eine Einzelläsions-basierte Analyse durchgeführt. In der weiteren Analyse der malignen soliden Entitäten wurde die Tumorlast weiterführend segmentiert. Hierdurch konnte die Traceraufnahme zwischen Läsionen unterschiedlicher Kompartimente verglichen und die Eignung für eine CXCR4-gerichtete RLT evaluiert werden. Zudem wurde die Expression der gesunden Normalorgane in der PET untersucht, wodurch das Vorliegen eines Tumor-Sink-Effekts sowie der Einfluss von Vortherapien auf die Knochenmarksexpression bewertet werden konnte. Eine hohe CXCR4-Expression zeigten insbesondere B-Zell-Lymphome, kleinzellige Lungenkarzinome (SCLC) und adrenokortikale Karzinome (ACC). Es ergab sich zudem insgesamt kein signifikanter Unterschied der Tracerbelegung zwischen soliden Tumorentitäten und hämatologischen Neoplasien. Ein relevanter Einfluss der spezifischen Aktivität konnte nicht beobachtet werden. In der weiterführenden Analyse ergaben sich hohe Uptake-Parameter insbesondere für die soliden Entitäten Ovarialkarzinom, SCLC und desmoplastisch klein-rundzelliger Tumor (DSRCT). Einen signifikant niedrigeren Traceruptake im Vergleich der unterschiedlichen Tumorlokalisationen zeigten lediglich die Lungenmetastasen. Ein Tumor-Sink-Effekt konnte nicht beobachtet werden. Bei der Untersuchung der CXCR4-Expression des Knochenmarks zeigten chemotherapeutisch- und strahlentherapeutisch-vorbehandelte Patient:innen eine signifikant niedrigere Expression. Für eine CXCR4-gerichtete RLT wurden visuell 34%, semiquantitativ 11,7% der Patient:innen mit malignen soliden Tumoren als potenziell geeignet klassifiziert. Insgesamt zeigte sich eine erhöhte CXCR4-Expression in einer Vielzahl von Tumorentitäten, basierend hierauf könnte die CXCR4-gerichtete Theranostik für einen relevanten Anteil onkologischer Patient:innen eine valide Option darstellen.The CXC-motif chemokine receptor 4 (CXCR4) is expressed by a large number of hematologic neoplasms and solid tumors. With [68Ga]Ga-PentixaFor positron emission tomography/computed tomography (PET/CT) an in-vivo visualization of the CXCR4 expression is possible. Furthermore, a theranostic concept using the CXCR4-targeted radioligands [177Lu]Lu- and [90Y]Y-PentixaTher as well as non-radioactive agents is available. The aim of this work was to identify solid tumors and hematological neoplasms with relevant in vivo CXCR4 expression and to investigate the influence of the specific activity on PET quantification. In further analyses, the CXCR4 expression in solid tumor entities was further examined as well as the presence of a tumor sink effect and the influence of previous therapy lines on CXCR4 expression in the bone marrow. In addition, patients with malignant solid tumors were evaluated regarding their potential suitability for CXCR4-directed radioligand therapy (RLT). For this purpose, PET/CT examinations performed at the University Hospital of Würzburg using [68Ga]Ga-PentixaFor were analyzed visually and semi-quantitatively. A single-lesion-based analysis was performed for the entire cohort. In the further analysis of the solid entities, the tumor burden was further segmented. This allowed for a comparison of tracer uptake between lesions of different compartments and evaluation of suitability for CXCR4-targeted RLT. In addition, the expression of healthy normal organs was examined, allowing to assess the presence of a tumor sink effect and the influence of previous therapies on bone marrow CXCR4 expression. B-cell lymphoma, small cell lung cancer (SCLC) and adrenocortical carcinoma (ACC) presented with high CXCR4 expression. There was no significant difference in uptake of the radiotracer between solid tumor entities and hematological neoplasms. A relevant influence of the specific activity could not be observed. Further analysis of malignant solid tumor entities revealed high uptake parameters, particularly for ovarian carcinoma, SCLC and desmoplastic small round cell tumor (DSRCT). When comparing uptake by body compartments of the tumor manifestations, only lung metastases showed a significantly lower uptake of the radiotracer compared to the other tumor localizations. A tumor sink effect could not be observed. In the investigation of bone marrow CXCR4 expression, patients that had previously received chemotherapy- and/or radiation therapy showed significantly lower CXCR4 expression. Regarding a CXCR4-directed RLT in solid tumor patients, 34% were classified as potentially suitable by visual criteria and 11.7% by semi-quantitative criteria. Overall, increased CXCR4 expression was found in a large variety of solid and hematologic tumor entities; based on this, CXCR4-directed theranostics could represent a promising approach in a relevant proportion of oncological patients

    Negative PSMA-PET/CT in Recurrent Prostate Cancer: Causes and Clinical Implications

    No full text
    Die vorliegende Arbeit basiert auf einer retrospektiven, unizentrischen Datenanalyse von N = 377 Patienten, die zwischen 2014 und 2018 eine PSMA-PET/CT zur Rezidivdiagnostik ihres primär operativ therapierten Prostatakarzinoms erhielten. Ziel war die Identifikation von Faktoren für einen negativen Befund sowie ein Befundvergleich der ersten PSMA-PET/CT mit Wiederholungsuntersuchungen, um den Stellenwert und mögliche Indikatoren für Folge-PSMA-PET/CT-Untersuchungen zu beurteilen. Darüber hinaus wurde geprüft, ob nach negativem Befund eine Salvage-Bestrahlung stattfindet und welchen Einfluss diese auf das Ergebnis einer Folgeuntersuchung hat. Die erste PSMA-PET/CT erbrachte Detektionsraten von jeweils 31.6%, 52.9%, 68.4% und 82.3% für die PSA-Kategorien 0.2 - 0.49ng/mL, 0.5 - 0.99ng/mL, 1 - 1.99ng/mL und ≥ 2ng/mL. Ein PSA Cut-off Wert für einen positiven Befund wurde mit 0.775ng/mL berechnet. Die negativ getestete Gruppe wies einen signifikant niedrigeren PSA-Wert auf und die Wahrscheinlichkeit für einen positiven Befund stieg um 0.4% pro Monat seit Primärtherapie. Darüber hinaus stand kein untersuchtes Charakteristikum (Gleason- Score, T-Klassifikation, Resektionsstatus, Alter bei Erstdiagnose und initialer PSA-Wert) in Zusammenhang mit einem negativen Befund. Nach einer initial negativen PSMA- PET/CT wurde entgegen der aktuellen Leitlinie in den meisten Fällen keine Salvage- Bestrahlung durchgeführt. Patienten ohne Salvage-Bestrahlung wurden häufiger für eine erneute PSMA-PET/CT vorstellig als Patienten mit erfolgter Bestrahlung. Die zweite PSMA-PET/CT bei initial negativem Befund wies im Bereich niedriger PSA-Werte eine höhere Detektionsrate als die Erstuntersuchung auf (54.5%, 50.0%, 68.2%, 77.3% für o.g. Kategorien). Es lagen mehr Lokalrezidive als bei der Erstuntersuchung vor (77.1% vs. 53.3%), was suggeriert, dass die erste negative PSMA-PET/CT meist für Lokalrezidive falsch-negativ ausfiel. Der PSA-Wert war bei Patienten mit positivem Befund höher als bei Patienten mit negativem Befund, konnte aber nicht mit akzeptabler Testgüte zwischen positivem und negativem Befund in Folge-PSMA-PET/CT- Untersuchungen unterscheiden. Er stand nicht signifikant in Zusammenhang mit der Detektionsrate und ist somit kein idealer Indikator für eine Folgeuntersuchung gewesen. Darüber hinaus fand sich kein Prädiktor für den zweiten PSMA-PET/CT-Befund. In der dritten PSMA-PET/CT (nach negativer Erst- und Zweituntersuchung) lag der PSA-Wert bei positivem Befund niedriger als bei negativem Befund. Als Ursache für den negativen Befund trotz hohem PSA-Wert wurde eine verminderte PSMA-Expression sowie ein Halo-Effekt bei Lokalrezidiv diskutiert. Die vorliegenden Daten der dritten PSMA-PET/CT sprechen ebenfalls gegen den PSA-Wert als Indikator für Folge-PET/CT- Untersuchungen bei initial negativem Befund.This study is based on a retrospective, single-center data analysis of N = 377 patients who underwent PSMA-PET/CT between 2014 and 2018 for the evaluation of biochemical recurrence following primary surgical treatment of prostate cancer. The primary objective was to identify factors associated with negative PSMA-PET/CT findings and to compare initial scans with subsequent follow-up examinations in order to assess the clinical value and potential indications for repeat imaging. Furthermore, the study investigated the frequency of salvage radiotherapy following an initial negative scan and evaluated its impact on the outcomes of subsequent PSMA-PET/CT. Detection rates of the initial scan were 31.6%, 52.9%, 68.4%, and 82.3% for PSA categories 0.2–0.49 ng/mL, 0.5–0.99 ng/mL, 1–1.99 ng/mL, and ≥2 ng/mL, respectively. A PSA cut-off value of 0.775 ng/mL was calculated for predicting a positive result. Patients with negative scans had significantly lower PSA values, and the probability of a positive result increased by 0.4% per month since primary treatment. None of the clinical variables assessed—Gleason score, T-stage, resection margin status, age at diagnosis, or initial PSA—were significantly associated with a negative PSMA-PET/CT result. Despite current clinical guidelines, most patients with negative initial scans did not undergo salvage radiotherapy. These patients were more likely to be referred for a second PSMA-PET/CT compared to those who received radiotherapy. Second PSMA-PET/CT scans following a previously negative result showed higher detection rates within the lowest PSA range (54.5%, 50.0%, 68.2%, and 77.3%, respectively), and a higher proportion of local recurrences compared to the initial scan (77.1% vs. 53.3%). This suggests that initial negative findings were often false negatives, particularly for local recurrences. Although PSA levels were higher in patients with positive findings on repeat scans, the PSA value did not reliably distinguish between positive and negative results in follow-up PSMA-PET/CT. Additionally, no other predictive factor for the outcome of the second scan was identified. In the third PSMA-PET/CT—performed after two prior negative scans—PSA levels were lower in patients with positive findings compared to those with negative results, further indicating its limited value as a predictor for repeat imaging. Possible causes for persistent negative findings despite elevated PSA include reduced PSMA expression and a halo effect in local recurrences. Overall, the data suggest that PSA is not necessarily a suitable indicator for guiding follow-up PSMA-PET/CT imaging in cases of initial negative results

    Weltraumgestützte Fernerkundung für die Politik - Unterstützung der nationalen Einhaltung von internationalen politischen Vereinbarungen aus dem Weltall

    No full text
    Despite worldwide efforts to tackle anthropogenic climate change and sustainable development, such as through the Paris Agreement (PA) and the United Nations (UN) Agenda 2030 with its Sustainable Development Goals (SDGs), Earth’s resilience and capacities are continuously pushed in unprecedented ways. Climate change is amplifying worldwide weather and climate extremes with adverse impacts, while ecosystems are being altered and polluted at an increasing rate. At the same time, worldwide conflicts and violence are eroding the political stability of the global community, shaking the foundations of the most advanced democracies, and leaving sustainable development at risk. More than ever, there exists the necessity for an evidence-based policy (EBP) approach to identify the full impact of policies and, thus, policymaking, and to provide a credible counter-voice towards the increasing distrust spurred through these developments during a time of surging information. Both the PA and the SDGs adhere to an EBP approach. Under the PA, nations must communicate progress towards their goals through 'Nationally Determined Contributions' (NDCs). Monitoring, reporting, and verification (MRV) systems and indicators for MRV of policy measures are therefore crucial to helping nations and the international community guarantee adherence to and the global success of the agreement. However, ensuring the efficiency and successful implementation of policy measures is a complex undertaking, as it is difficult to systematically measure progress in global sustainable development. Additionally, data provisioning can pose a substantial challenge for nations, especially those in developing regions like West Africa (WA), as it often necessitates significant financial and personal resources. In this context, spaceborne remote sensing (RS) can be a valuable source of information for EBP. RS is one of the most powerful tools to derive objective and systematic information across different spatial and temporal scales. By doing so, RS can provide pivotal insights into the status of the environment and can support uncovering existing linkages. Besides, it can be particularly useful in regions where data gaps exist. This dissertation investigated the use of RS for EPB from conceptual, peer-reviewed, and stakeholder perspectives. The topic is further explored with practical analyses of the use of RS for the NDCs of WA countries. WA is chosen as a study region due to the importance of the PA and the SDGs in mitigating anthropogenic-related climate change impacts and achieving sustainable development in these countries. These agreements also offer WA countries the opportunity to receive support in financing, capacity development and technological transfer to achieve their goals – emphasising the relevance of cost-effective solutions for monitoring national measures within the framework of these agreements. In this context, one study provides insights into the application of RS based on the analysis of the NDC documents of WA countries. The second study builds on these results to investigate the implications of using open-access products to monitor specific NDCs of WA countries. The coherence between the NDCs and SDGs was analysed to assess the potential for aligning RS applications. Although the thesis demonstrates that RS can assist in EBP, the research field is not fully exploiting the potential of RS for EBP according to the results. The literature review ascertained only four studies that directly contribute results or applications to the policy field. Instead, most studies examine policy measures indirectly (i.e., discussing or stating the relevance of their RS approach for policy). Further, using the concept of the so-called policy cycle showed that studies mainly contribute to the first (‘problem identification and knowledge building’) and last (‘policy monitoring and evaluation’) stage of the four stages of the policy cycle. Few studies contribute to the other two stages (‘policy formulation’ and ‘policy implementation’). The results further highlight the requirement of policy-relevant RS applications at national level and those that go beyond national borders. Most studies focus on China as study region, followed by Italy and the USA. Accordingly, the geographical scope of applications could be broadened to other countries as well as regions like Middle- and South America, Africa, and Europe. To account for the complexity of policies and make RS applications policy-relevant, RS applications may need to become more interdisciplinary. Using ancillary data to account for relevant policy topics, such as socioeconomic aspects, may achieve this. This may also promote RS applications beyond the ‘traditional’ topics, i.e., analyses from a land-use perspective and focussing on eco-environmental, agricultural, forest, water, and conservation policies, which were mostly covered. The stakeholder analysis of ‘scientists’, ‘intermediaries’, and ‘policymakers’ confirmed the degree in science-policy integration in the research field, which is reflected among others in the engagement of the analysed stakeholder groups in policy relevant analyses. The study also confirmed the importance of RS applications for emerging sectoral topics that are relevant to future public policy, such as in the realm of the NDCs and SDGs. These are, for instance, the interrelationships between the environment and health, new energy solutions, carbon trading and digitalisation. To tackle the identified bottleneck at the science-policy interface, a more in-depth discussion of the role of each stakeholder group in integrating RS for EBP may be necessary. Important identified supporting structures and conditions to strengthen RS for EBP are capacity development, knowledge development, provisioning of funding, facilitating engagement at the science-policy interface, clarifying information chains, addressing necessary institutional arrangements, and tackling power imbalances between stakeholder groups. These may accelerate the use of RS for EBP, thereby alleviating the bottleneck at the science-policy interface. The web-based survey revealed partially differences in opinions between participants from Europe and WA, such as regarding the most important supporting structures and conditions to strengthen RS for EBP, thereby indicating region-specific differences in challenges hindering the use of RS for EBP and ‘toeholds’ to promote applications. The analysis of the NDC documents of WA countries to further explore the topic and investigate the applicability of RS for related NDC measures revealed forestry and agriculture as the two most relevant policy sectors for climate-relevant measures in WA. Comparable NDC measures and indicators were identified across nations. However, the use of RS for the NDCs is hampered as quantitative indicators for NDC measures are not defined in some cases (42 out of 96 RS-relevant political measures in the forest and agricultural sector are linked to quantitative indicators). Further, the analysis of the alignment between NDCs and the SDG indicator framework in these two sectors found solely one possible alignment between the NDC ‘reducing deforestation/increasing reforestation’ and SDG 5.1.1. (‘forest area as a proportion of total land area’). As one opportunity to address these challenges and create synergies within and among treaties, the possibility of nations without quantitative indicators to build upon those provided by other nations with comparable policy measures was identified. However, the results also raise the question as to whether nations may need to reassess the integration of both treaties by aligning their core objectives. Based on these results, the impact of using open-access RS products for the monitoring of measures in the forestry sector of WA countries was analysed as a further practical analysis. Here, the analysis of open-access land use (LU) data from the Food and Agriculture Organization Corporate Statistical Database (FAOSTAT) and land cover (LC) data from ESA’s Climate Change Initiative (ESA-CCI) and the Copernicus Global Land Service (CGLS) revealed that these are currently not fit-for-purpose to monitor forest-related NDCs for international compliance. Significant differences in forest and agricultural area values exist, the latter of which was included in the analysis for reasons of comparison. Explanations are differences in data sources, definitions, methods, and resulting accuracy levels among the datasets. This is reflected in the analysis of Ghana in meeting its NDC target of reforesting 20,000 hectares a year from 2015 to 2019: Ghana would have either exceeded (increase by 102 kha a-1, ESA-CCI LC data), met (increase by 25 kha a-1, FAOSTAT LU data), or failed to meet its NDC target of increasing forest area (decrease by 5 kha a-1, CGLS LC data). Accordingly, there exists the necessity to develop ‘purposeful’ RS products, with standardised products that are targeted to a specific region being identified as one possible solution for the international community. Other requirements of future open-access RS products are also identified and presented, such as the necessity to align the spatial resolution with the scale of the policy goal in focus. The thesis provides a comprehensive overview of the present landscape of RS applications for EBP from peer-reviewed literature and stakeholder perspectives. It further offers insights into the consequences of relying on the currently available open-access data for monitoring forest-related NDCs in WA countries. To make full use of the potentials of RS as a tool for providing objective evidence for policy, practical toeholds and concrete recommendations to promote and facilitate RS applications for EBP are provided and highlighted at the end of the thesis.Trotz der weltweiten Bemühungen, den anthropogenen Klimawandel und eine nachhaltige Entwicklung anzugehen, wie etwa durch das Übereinkommen von Paris (‚Paris Agreement‘, PA) und die 2030-Agenda der Vereinten Nationen (UN) mit ihren 17 Nachhaltigkeitszielen (‚Sustainable Development Goals‘, SDGs), wird die Widerstandsfähigkeit und die Kapazitäten der Erde in noch nie dagewesener Weise von der Menschheit belastet. Der Klimawandel verstärkt weltweit Wetter- und Klimaextreme mit teils verheerenden Folgen, während die Ökosysteme immer schneller verändert und verschmutzt werden. Gleichzeitig untergraben weltweite Konflikte und Gewalt die politische Stabilität der Weltgemeinschaft, erschüttern die Grundfeiler der fortschrittlichsten Demokratien, und gefährden die nachhaltige Entwicklung. Mehr denn je besteht die Notwendigkeit eines evidenzbasierten Politikansatzes (‚evidence-based policy‘, EBP), um die vollen Auswirkungen unserer Politik zu belegen und dem zunehmenden Misstrauen, das durch diese Entwicklungen in einer Zeit der Informationsflut geschürt wird, eine glaubwürdige Gegenstimme entgegenzusetzen. Sowohl das PA als auch die SDGs folgen einem EBP-Ansatz. Im Rahmen des PA müssen die Staaten ihre Fortschritte bei der Erreichung ihrer Ziele durch die „Nationally Determined Contributions“ (NDCs) mitteilen. Überwachungs-, Berichts- und Überprüfungssysteme (Monitoring, Reporting, and Verification, MRV) und Indikatoren für MRV von politischen Maßnahmen sind daher von entscheidender Bedeutung, um den Staaten und der internationalen Gemeinschaft zu helfen, die Einhaltung und den globalen Erfolg des Abkommens zu gewährleisten. Die Gewährleistung ihrer Effizienz und erfolgreichen Umsetzung ist jedoch ein komplexes Unterfangen. Zum einen ist es schwierig, die Fortschritte bei der globalen nachhaltigen Entwicklung systematisch zu messen. Darüber hinaus kann die Bereitstellung von Daten eine erhebliche Herausforderung für Staaten darstellen, insbesondere für solche in Entwicklungsregionen wie Westafrika (WA), da sie oft erhebliche finanzielle und personelle Ressourcen erfordert. In diesem Zusammenhang kann die weltraumgestützte Fernerkundung (FE) eine wertvolle Informationsquelle für eine EBP sein. Die FE ist eines der leistungsfähigsten Instrumente zur Gewinnung objektiver und systematischer Informationen über verschiedene räumliche und zeitliche Maßstäbe hinweg. Auf diese Weise kann die FE entscheidende Einblicke in den Zustand der Umwelt geben und bei der Aufdeckung möglicher Zusammenhänge unterstützen. Darüber hinaus kann sie in Regionen, in denen Datenlücken bestehen, besonders nützlich sein. In dieser Dissertation wurde der Einsatz der FE für eine EBP aus konzeptioneller Sicht, aus Sicht von ‚peer-reviewed‘ Literatur und aus Sicht von Interessengruppen untersucht. Vertieft wurde die Thematik anhand praktischer Analysen zur Verwendung der FE für die NDCs westafrikanischer Länder. WA wurde u.a. als Studienregion gewählt aufgrund der Bedeutung des PA und der SDGs für die Schadensminimierung des menschengemachten Klimawandels und Erreichung einer nachhaltigen Entwicklung in den Ländern. Zudem bieten diese Vereinbarungen den Ländern die Möglichkeit Unterstützung in den Bereichen Finanzierung, Kapazitätsentwicklung und Technologietransfer zu beantragen, um ihre Ziele zu erreichen – was die Relevanz von kostengünstigen Lösungen zum Monitoring nationaler Maßnahmen im Rahmen der Vereinbarungen hervorhebt. Die erste Fallstudie bietet Einblicke in die Anwendung der FE auf der Basis einer Analyse der NDC-Dokumente der westafrikanischen Länder. Die zweite Fallstudie baut auf diesen Ergebnissen auf und investigiert, inwieweit frei zugängliche Produkte für die Überwachung spezifischer NDCs westafrikanischer Länder geeignet sind. Die Kohärenz zwischen den NDCs und dem SDG-Rahmenwerk wurde ebenfalls analysiert, um eine mögliche Harmonisierung von FE-Anwendungen zu untersuchen. Obwohl die Dissertation belegt, dass die FE einen wichtigen Beitrag zur EBP leisten kann, zeigen die Forschungsergebnisse auch, dass die Forschung das Potenzial der FE für die EBP noch nicht vollständig ausschöpft. Die Literaturanalyse fand nur vier Studien, die unmittelbar Ergebnisse oder Anwendungen für die Politik liefern und mit der Politik kollaboriert haben. Stattdessen untersuchen die meisten Studien politische Maßnahmen indirekt (d. h. sie erörtern oder betonen nur die Relevanz ihres RS-Ansatzes für die Politik). Die Verwendung des Konzepts des so genannten Politikzyklus hat außerdem gezeigt, dass Studien hauptsächlich zur ersten („Problemerkennung und Wissensaufbau“) und letzten („Überwachung und Bewertung von politischen Maßnahmen“) der vier Phasen des Zyklus beitragen. Nur wenige Studien befassen sich mit den beiden anderen Phasen des Politikzyklus („Politikformulierung“ und „Politikumsetzung“) und mit dem direkten Monitoring politsicher Maßnahmen. Darüber hinaus zeigt sich eine Lücke in Bezug zu politikrelevanten FE-Anwendungen auf nationaler Ebene und solche, die über nationale Grenzen hinausgehen. Die meisten Studien konzentrieren sich auf China, gefolgt von Italien und den USA. Folglich könnte der Anwendungsbereich auf andere Länder ausgeweitet werden. In diesem Kontext ist auch eine weitere Vertiefung der Anwendungen in Regionen wie Mittel- und Südamerika, Afrika und Europa möglich. Um der Komplexität der Politik Rechnung zu tragen und FE-Anwendungen politikrelevant zu machen, sollten diese interdisziplinärer werden. Die Verwendung zusätzlicher Daten zur Berücksichtigung relevanter politischer Themen, wie z. B. sozioökonomischer Aspekte, könnte dies unterstützen. Dies könnte auch FE-Anwendungen fördern, die über die „traditionellen“ Themen hinausgehen, d. h. Analysen aus der Landnutzungsperspektive und mit Schwerpunkt auf der Umwelt-, Landwirtschafts-, Wald-, Wasser- und Naturschutzpolitik, die am häufigsten adressiert wurden. Die Stakeholder-Analyse zu ‚Wissenschaftlern‘, ‚Intermediäre Organisationen‘ und ‚politischen Entscheidungsträgern‘ bestätigte die Ergebnisse zum Grad der Integration von Wissenschaft und Politik im Forschungsbereich, der sich u.a. im Engagement der Interessengruppen in Bezug zu politisch-relevanten Studien widerspiegelt. Ebenso bestätigte sie, dass mehr FE-Anwendungen erforderlich sind, die sich mit den NDCs und den SDGs aus einer politisch angewandten Perspektive befassen. Die Studie bestätigte auch die Bedeutung von FE-Anwendungen für neuere sektorale Themen, die für die künftige öffentliche Politik relevant sind, wie im Bereich der NDCs und SDGs. Hierzu gehören u.a. die Wechselbeziehungen zwischen Umwelt und Gesundheit, der Emissionshandel, neue Energielösungen und die Digitalisierung. Um den identifizierten Engpass an der Schnittstelle zwischen Wissenschaft und Politik zu adressieren, könnte eine Diskussion über die Rolle der einzelnen Interessengruppen für die Integration der FE in eine EBP notwendig sein. Wichtige identifizierte Strukturen und Möglichkeiten zur Stärkung der FE für die EBP sind der Aufbau von Kapazitäten, die Wissensentwicklung, die Bereitstellung von Finanzmitteln, die Förderung des Engagements an der Schnittstelle zwischen Wissenschaft und Politik, die Klärung von Informationsketten, die Implementierung notwendiger institutioneller Strukturen und die Beseitigung von Machtungleichgewichten zwischen den Interessengruppen. Dies könnte die Nutzung der FE für die EBP beschleunigen und damit den Engpass an der Schnittstelle zwischen Wissenschaft und Politik verringern. Bei der webbasierten Umfrage wurde ein Unterschied zwischen den Meinungen der Teilnehmer aus Europa und WA festgestellt, z. B. in Bezug auf die wichtigsten unterstützenden Strukturen und Bedingungen zur Stärkung der FE für EBP. Dies deutet auf regionalspezifische Unterschiede bei den Herausforderungen, die den Einsatz der FE für EBP behindern, sowie bezüglich der „Ansatzpunkte“ zur Förderung von Anwendungen. Die praktische Analyse der NDC-Dokumente westafrikanischer Länder zur Vertiefung der Thematik und Analyse der FE-Anwendbarkeit für NDC-Maßnahmen ergab, dass die Forst- und Landwirtschaft die wichtigsten Politikbereiche für klimarelevante Maßnahmen sind. Hierbei wurden vergleichbare NDC-Maßnahmen und -Indikatoren zwischen den Ländern identifiziert. Die Verwendung der FE für die NDCs wird jedoch dadurch erschwert, dass quantitativen Indikatoren für die NDC-Maßnahmen teilweise nicht festgelegt werden (42 von 96 FE-relevanten politischen Maßnahmen im Forst- und Agrarsektor sind mit quantitativen Indikatoren verknüpft). Darüber hinaus ergab die Analyse der Kohärenz zwischen den NDCs und dem SDG-Indikatorrahmen in diesen beiden Sektoren lediglich eine mögliche Kohärenz zwischen dem NDC ‚Verringerung der Entwaldung/Verstärkung der Wiederaufforstung‘ und dem SDG 5.1.1. (‚Anteil der Waldfläche an der Gesamtlandfläche‘). Als ein möglicher Weg zur Bewältigung dieser Herausforderungen und zur Schaffung von Synergien innerhalb und zwischen den beiden Verträgen, wurde u.a. die Möglichkeit für Staaten ohne quantitative Indikatoren auf die Indikatoren von anderen Staaten mit vergleichbaren politischen Maßnahmen aufzubauen, identifiziert. Zugleich werfen die Ergebnisse jedoch die Frage auf, ob Nationen die Integration beider Verträge durch eine Angleichung ihrer Kernziele in Erwägung ziehen sollten. Aufbauend auf den Ergebnissen dieser Fallstudie, wurde als eine weitere praktische Analyse die Auswirkung der Verwendung frei-verfügbarer FE-Produkte für das Monitoring von Maßnahmen im Forstsektor westafrikanischer Länder analysiert. Dabei zeigt die Analyse von frei zugänglichen Landnutzungsdaten (LU) der Food and Agriculture Organization Corporate Statistical Database (FAOSTAT) und Landbedeckungsdaten (LC) aus der Climate Change Initiative der European Space Agency (ESA-CCI) und dem Copernicus Global Land Service (CGLS), dass diese derzeit nicht geeignet sind, um die nationale und internationale Einhaltung der waldbezogenen NDCs zu überwachen. Der Vergleich der Datensätze führte zu signifikanten Unterschieden in Wald- und Landwirtschaftsflächen, wobei letztere aus Vergleichsgründen in die Analyse einbezogen wurden. Die Gründe dafür sind Unterschiede in den Datenquellen, Definitionen, Methoden und daraus resultierenden Genauigkeitsniveaus der Datensätze. Dies spiegelte sich in den Ergebnissen der Analyse von Ghana bei der Erfüllung seines Ziels der Aufforstung von 20.000 Hektar pro Jahr von 2015 bis 2019 wider: Ghana hätte sein Ziel entweder übertroffen (Zunahme um 102 kha a-1, ESA-CCI LC), erfüllt (Zunahme um 25 kha a-1, FAOSTAT LU) oder verfehlt (Abnahme um 5 kha a-1, CGLS LC). Aufbauend lassen sich Anforderungen an künftige frei zugängliche FE-Produkte ableiten, z. B. die Anpassung der räumlichen Auflösung an den Maßstab des jeweiligen politischen Ziels. Zudem besteht die Notwendigkeit ‚zielgerichteter‘ FE-Produkte, wobei standardisierte Produkte, die auf bestimmte Region zugeschnitten sind, als eine mögliche Lösung für die internationale Gemeinschaft identifiziert wurden. Die Arbeit bietet einen umfassenden Überblick über die derzeitigen FE-Anwendungen für EBP aus der Sicht der Fachliteratur und Stakeholdergruppen. Darüber hinaus bietet sie Einblicke in die Folgen der Nutzung von derzeit verfügbaren frei zugänglichen Daten für die Überwachung waldbezogener NDCs in westafrikanischen Ländern. Um das Potenzial von FE-Anwendungen für die Politik voll auszuschöpfen, werden praktische Ansätze und konkrete Empfehlungen zur Förderung und Umsetzung von FE-Anwendungen für EBP vorgestellt und am Ende zusammengefasst hervorgehoben

    Influence of the season on the incidence of Hodgkin lymphoma and Non-Hodgkin lymphoma

    No full text
    Saisonale Veränderungen der Inzidenz vom klassischen Hodgkin Lymphom (CHL) wurden in letzter Zeit vermehrt beschrieben. Diese Daten wollten wir als Referenzzentrum für Lymphome bestätigen sowie den Einfluss von Geschlecht, Alter und histologischem Subtyp auf die Inzidenz untersuchen. Auf Grund der in einigen Publikationen geäußerten Hypothese, dass saisonale Veränderungen der Inzidenz von Lymphomen mit Infektionen zusammenhängen können, haben wir im Falle des CHL den Einfluss einer Assoziation mit einer Epstein-Barr Virus (EBV)-Infektion untersucht. Ergänzend wurden die Ergebnisse mit anderen Lymphomentitäten verglichen. Dabei haben uns bei den Non-Hodgkin-Lymphomen Entitäten interessiert, die Hinweise auf einen pathogenetischen Zusammenhang mit einer Infektion bieten. Hierfür wurden 8.038 Patient*innen eingeschlossen, die im Zeitraum von 2007 bis 2021 die Erstdiagnose eines CHL erhalten haben sowie 1.402 Fälle mit Erstdiagnose eines nodulären lymphozytenprädominanten Hodgkin Lymphoms (NLPHL), 451 Fälle mit Erstdiagnose einer Haarzellleukämie (HCL), 487 Fälle mit Erstdiagnose eines kutanen Marginalzonenlymphoms (MZL) sowie 247 Fälle mit Erstdiagnose eines pulmonalen MZL jeweils im Zeitraum von 2002 bis 2021. Zur Untersuchung der Saisonalität haben wir die vier Quartale des Jahres verglichen. Die Ergebnisse wurden ausgewertet mit Hilfe des Mann-Whitney-U-Tests und des Chi-Quadrat-Tests. Wir konnten zeigen, dass die Inzidenzwerte des CHL einen wellenförmigen Verlauf aufzeigen mit einem Inzidenzmaximum im ersten sowie einem Inzidenzminimum im dritten Quartal. Im ersten Quartal wurden 20 % mehr Erstdiagnosen gestellt als im dritten Quartal. Signifikante Unterschiede zeigten sich vor allem bei jüngeren Patient*innen (< 60 Jahre), Männern, EBV-negativen Fällen sowie beim Subtyp der nodulären Sklerose. Für das seltenere NLPHL sowie für die untersuchten Non-Hodgkin Lymphome konnten keine signifikanten Unterschiede gezeigt werden. Veränderungen durch die Covid-19-Pandemie konnten wir nicht aufzeigen. Somit scheint das Vorliegen einer Infektion von Tumorzellen mit einem Virus (wie beim CHL) oder der angenommene Zusammenhang einer Infektion im Falle der HCL, sowie der kutanen und pulmonalen MZL keinen Einfluss auf deren Inzidenzwerte im Laufe des Jahres aufzuweisen.Seasonal changes in the incidence of classic Hodgkin lymphoma (CHL) have been increasingly described recently. The institute of pathology of the university of Wuerzburg, a reference center for lymphomas, wanted to confirm these data and investigate the influence of gender, age and histological subtype on the incidence. Based on the hypothesis stated in some publications that seasonal changes in the incidence of lymphomas may be related to infections, we investigated the influence of an association with Epstein-Barr virus (EBV) infection in the case of CHL. In addition, the results were compared with other lymphoma entities. In non-Hodgkin lymphomas, we were interested in entities that provide evidence of a pathogenetic connection with infection. For this purpose, 8,038 patients were included who received a primary diagnosis of CHL between 2007 and 2021, as well as 1,402 cases with a primary diagnosis of nodular lymphocyte-predominant Hodgkin lymphoma (NLPHL), 451 cases with a primary diagnosis of hairy cell leukaemia (HCL), 487 cases with a primary diagnosis of cutaneous marginal zone lymphoma (MZL), and 247 cases with a primary diagnosis of pulmonary MZL, each between 2002 and 2021. To investigate seasonality, we compared the four quarters of the year. The results were evaluated using the Mann-Whitney U test and the chi-squared test. We were able to show that the incidence rates of CHL follow a wave-like pattern, with an incidence maximum in the first quarter and an incidence minimum in the third quarter. 20% more primary diagnoses were made in the first quarter than in the third quarter. Significant differences were observed primarily in younger patients (<60 years), men, EBV-negative cases, and the nodular sclerosis subtype. No significant differences were found for the less common NLPHL or for the NHL. We were unable to demonstrate any changes due to the COVID-19 pandemic. Thus, the presence of infection of tumor cells with a virus (as in CHL) or the assumed association of infection in the case of HCL, as well as cutaneous and pulmonary MZL, does not appear to have any influence on their incidence rates over the course of the year

    Zusammenspiel zwischen Elektrochemie und Mechanik in Lithium-basierten Batteriezellen mit einer Siliciumelektrode

    No full text
    The overall aim of this work was to gain knowledge about how external pressure impacts the performance of lithium-ion battery cells with silicon electrodes and liquid or solid (hybrid polymer) electrolytes. For the investigation of pressure effects in cells with a liquid electrolyte, cells with a prelithiated LTO cathode, a silicon anode and a lithium reference were developed. High pressure (1.0 MPa) leads to early capacity fading, likely due to a combination of lithium loss (which occurs at all pressures) and a high resistance toward lithium-ion transport in the pores of the Si electrode. A relithiation of the LTO electrode via the Li electrode enables 1000 cycles at 1200 mAh/g_{Si} and the results indicate reduced lithium loss at a pressure of 1.0 MPa compared to at pressures ≤ 0.5 MPa. SEM micrographs of Si electrode cross sections after cycling suggest that the reduced lithium loss in the cells under an external pressure of 1.0 MPa is due to the external pressure supporting a better preservation of the integrity of the Si electrode. The in-house developed hybrid polymer electrolytes (HPEs) used for the solid-electrolyte cells exhibit a high mechanical flexibility and ionic conductivities of approx. 0.2 mS/cm to almost 1 mS/cm at 60 °C. Si polymer electrodes were developed and the electrode and HPE composition was optimized. The best results are achieved by first preparing porous Si electrodes that do not include the HPE and subsequently impregnating them with a liquid pre-polymer containing LiFSI and Pyr14FSI, which is then heated to obtain solid Si polymer electrodes. LFP polymer electrodes were also developed and used as cathodes for the evaluation of the impact of external pressure on cells with Si polymer anodes. All solid-electrolyte full cells show a rapid capacity fading in the beginning, most likely due to lithium loss. As cycling progresses, higher pressure leads to improved capacity retention.Das übergeordnete Ziel dieser Arbeit war es, Erkenntnisse darüber zu erlangen, wie sich äußerer Druck auf die Performance von Lithiumionen-Batteriezellen mit Siliciumelektroden und flüssigen Elektrolyten oder festen Hybridpolymerelektrolyten auswirkt. Für die Untersuchung des Druckeinflusses in Zellen mit einem flüssigen Elektrolyten wurden Zellen mit einer prälithiierten LTO-Kathode, einer Silicium-Anode und einer Lithium-Referenzelektrode entwickelt. Hoher Druck (1,0 MPa) führt zu einem frühen Kapazitätsabfall, wahrscheinlich aufgrund einer Kombination aus Lithiumverlust (der bei allen Drücken stattfindet) und einem hohen Widerstand für den Lithiumionentransport in die Poren der Si-Elektrode. Eine Relithiierung der LTO-Elektrode mithilfe der Li-Elektrode ermöglicht 1000 Zyklen bei 1200 mAh/g_{Si}, und die Ergebnisse weisen auf reduzierten Lithiumverlust bei einem Druck von 1,0 MPa im Vergleich zu Drücken ≤ 0,5 MPa hin. REM-Aufnahmen von Querschnitten der Si-Elektroden nach der Zyklisierung deuten darauf hin, dass der geringere Lithiumverlust in den Zellen unter einem Druck von 1,0 MPa damit zusammenhängt, dass der externe Druck dabei hilft, den Zusammenhalt der Si-Elektrode über die Zyklisierung aufrecht zu erhalten. Die hausintern entwickelten Hybridpolymerelektrolyte (HPEs), die für die Festkörperzellen genutzt wurden, weisen eine hohe mechanische Stabilität und eine Ionenleitfähigkeit von ca. 0,2 mS/cm bis nahzu 1 mS/cm bei 60 °C auf. Es wurden Si-Polymerelektroden entwickelt und die HPE-Zusammensetzung wurde optimiert. Die besten Ergebnisse werden erreicht, wenn zuerst poröse Si-Elektroden ohne HPE hergestellt werden, die dann mit einem flüssigen Prepolymer imprägniert werden, welches LiFSI and Pyr14FSI enthält. Das Prepolymer wird im Anschluss erwärmt, um die festen Si-Polymerelektroden zu erhalten. Außerdem wurden LFP-Polymerelektroden entwickelt, die als Kathoden für die Untersuchung des Einflusses von äußerem Druck auf Zellen mit Si-Polymeranoden verwendet wurden. Alle Festkörper-Vollzellen zeigen zu Beginn einen schnellen Kapazitätsabfall, höchstwahrscheinlich aufgrund von Lithiumverlust. Mit Fortschreiten der Zyklisierung führt ein höherer Druck zu einer verbesserten Kapazitätserhaltung

    Case Report: Personalized peptide-based immunization in an advanced-stage prostate cancer patient with bone metastasis

    No full text
    Neoantigens, which are recognized as non-self and trigger an immune response, are novel antigens generated by tumor cells. Here, we report a de novo metastatic hormone-sensitive prostate cancer (mHSPC) case, which benefited from our personalized peptide immunization named BioInformatic Tumor Address Peptides (BITAP) in a monotherapeutic setting. Our in-house bioinformatics pipeline involved identifying somatic variations, analyzing their expression, and computationally predicting novel epitopes from both metastatic and primary tumors, separately. As stand-alone therapy, the patient has been administered multiple injections of two peptide pools (BITAP-1 and BITAP-2). Several months following immunizations, a significant regression of both metastatic and primary tumor lesions was recorded along with low-level of prostate-specific antigen (PSA). Besides mild and short-lasting local and systemic reactions, no serious treatment-related adverse effects were reported by the patient. In conclusion, this case suggests that BITAP immunization is feasible and safe, and may present an immunotherapeutic approach inducing sustainable tumor regressions in mHSPC patients

    Pathologische β dynamik im progressiven AAV-A53T-α-SynModell der Parkinson-Krankheit

    No full text
    Im progressiven AAV1/2-A53T-Alpha-Synuclein-Parkinson-Modell bei Ratten konnten wir bestätigen, dass das Ausmaß der Neurodegeneration in der Substantia nigra pars compacta, die dopaminerge Denervierung des Striatums sowie die motorischen Beeinträchtigungen dosisabhängig waren. Ein höherer Virustiter führte zu einer stärkeren Schädigung des nigrostriatalen Systems und zu ausgeprägteren motorischen Defiziten. Diese Beobachtung legt nahe, dass eine gezielte Beeinflussung von Alpha-Synuclein – im Hinblick auf seine physiologische Konformation, Expression, Aggregation und intrazelluläre Beseitigung – bei Parkinson-Patientinnen und -Patienten zum Schutz dopaminerger Nervenzellen und zur Erhaltung der motorischen Funktion beitragen könnte und somit eine Intervention in den Krankheitsverlauf ermöglichen würde. Eine erhöhte β-Aktivität im subthalamischen Kern und im motorischen Kortex war über den gesamten Krankheitsverlauf des Hoch-Titer-A53T-Modells hinweg nachweisbar. Insbesondere zeigte die β-Aktivität im subthalamischen Kern eine progressive Zunahme und erreichte ihren größten Unterschied im Vergleich zur Niedrig-Titer-Gruppe zum letzten Messzeitpunkt. Diese erhöhte β-Aktivität im subthalamischen Kern zeigte eine stärkere Korrelation mit motorischen Defiziten und dem Ausmaß der Neurodegeneration als die erhöhte β-Aktivität im motorischen Kortex. Dies deutet darauf hin, dass eine hohe β-Aktivität im subthalamischen Kern ein Kennzeichen für die Schwere der Erkrankung sein könnte. Dieser Befund ist besonders bedeutsam für die Überwachung der Entwicklung der motorischen Funktion oder des Krankheitsfortschritts. Die Rolle abnormaler kortikaler β-Oszillationen ist hingegen noch nicht vollständig geklärt. Zukünftige Studien sollten diesen Aspekt näher untersuchen, da kortikale Signale bereits in frühen oder prodromalen Stadien der Parkinson-Erkrankung durch nicht-invasive Methoden wie Elektroenzephalografie oder Magnetenzephalografie erfasst werden können – Zeitpunkte, zu denen noch keine Elektroden im subthalamischen Kern implantiert sind. Von besonderer Bedeutung ist, dass wir zwei prädiktive Ansätze eingeführt haben. Erstens nutzten wir sowohl die niedrige β-Aktivität als auch die dopaminergen Endigungen im Striatum als Prädiktoren zur Abschätzung der motorischen Beeinträchtigungen und des dopaminergen Zellverlustes in der Substantia nigra pars compacta bei Parkinson-Ratten. Zweitens verwendeten wir Parameter der hohen β-Aktivität sowohl aus dem motorischen Kortex als auch aus dem subthalamischen Kern zur Vorhersage motorischer Defizite. Diese Beobachtungen zeigen, dass die Kombination elektrophysiologischer Messungen mit dopaminergen Analysen unsere Fähigkeit verbessern könnte, die Neurodegeneration bei Parkinson vorherzusagen und zu überwachen – und somit wertvolle Erkenntnisse sowohl für die Forschung als auch für die klinische Praxis liefern kann.In this study, we employed a progressive AAV1/2-A53T-α-synuclein (α-Syn) rat model of Parkinson’s disease (PD) and performed longitudinal electrophysiological recordings to investigate the temporal development of beta (β) activities and motor deficits throughout disease progression. We demonstrated that substantia nigra pars compacta (SNpc) neurodegeneration, striatal dopaminergic denervation, and motor dysfunction were all dose-dependent, with higher viral titers resulting in more severe nigrostriatal damage and behavioral impairments. These findings highlight the potential therapeutic relevance of targeting α-Syn—its physiological conformation, expression, aggregation, and intracellular clearance—as a means to protect dopaminergic neurons and preserve motor function. In the high-titer group, elevated β power in both the subthalamic nucleus (STN) and motor cortex (MCx) was consistently observed across the disease course. Notably, STN β power exhibited a progressive increase, with the largest difference from the lower titer group observed at the final recording point. Moreover, STN high β power showed a stronger correlation with motor deficits and neurodegeneration than MCx β power, suggesting that elevated STN β activity may serve as a robust biomarker of disease severity. This finding holds potential value for tracking disease progression and motor decline. However, the functional role of abnormal cortical β oscillations remains incompletely understood. Given that cortical signals can be non-invasively recorded via electroencephalography or magnetoencephalography, particularly during early or prodromal stages when STN electrodes are not yet implanted, further investigation into cortical β activity is warranted. Importantly, we introduce two predictive frameworks: (1) combining low β power and striatal dopaminergic terminal density to estimate motor impairment and SNpc dopaminergic neuron loss, and (2) using high β parameters from both the MCx and STN to predict motor deficits. Together, these findings suggest that integrating electrophysiological metrics with dopaminergic biomarkers enhances our ability to monitor and predict neurodegeneration in PD, offering valuable insights for both translational research and clinical application

    4,195

    full texts

    22,665

    metadata records
    Updated in last 30 days.
    Online-Publikations-Server der Universität Würzburg is based in Germany
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇