4,512 research outputs found

    Authentication enhancement in command and control networks: (a study in Vehicular Ad-Hoc Networks)

    Get PDF
    Intelligent transportation systems contribute to improved traffic safety by facilitating real time communication between vehicles. By using wireless channels for communication, vehicular networks are susceptible to a wide range of attacks, such as impersonation, modification, and replay. In this context, securing data exchange between intercommunicating terminals, e.g., vehicle-to-everything (V2X) communication, constitutes a technological challenge that needs to be addressed. Hence, message authentication is crucial to safeguard vehicular ad-hoc networks (VANETs) from malicious attacks. The current state-of-the-art for authentication in VANETs relies on conventional cryptographic primitives, introducing significant computation and communication overheads. In this challenging scenario, physical (PHY)-layer authentication has gained popularity, which involves leveraging the inherent characteristics of wireless channels and the hardware imperfections to discriminate between wireless devices. However, PHY-layerbased authentication cannot be an alternative to crypto-based methods as the initial legitimacy detection must be conducted using cryptographic methods to extract the communicating terminal secret features. Nevertheless, it can be a promising complementary solution for the reauthentication problem in VANETs, introducing what is known as “cross-layer authentication.” This thesis focuses on designing efficient cross-layer authentication schemes for VANETs, reducing the communication and computation overheads associated with transmitting and verifying a crypto-based signature for each transmission. The following provides an overview of the proposed methodologies employed in various contributions presented in this thesis. 1. The first cross-layer authentication scheme: A four-step process represents this approach: initial crypto-based authentication, shared key extraction, re-authentication via a PHY challenge-response algorithm, and adaptive adjustments based on channel conditions. Simulation results validate its efficacy, especially in low signal-to-noise ratio (SNR) scenarios while proving its resilience against active and passive attacks. 2. The second cross-layer authentication scheme: Leveraging the spatially and temporally correlated wireless channel features, this scheme extracts high entropy shared keys that can be used to create dynamic PHY-layer signatures for authentication. A 3-Dimensional (3D) scattering Doppler emulator is designed to investigate the scheme’s performance at different speeds of a moving vehicle and SNRs. Theoretical and hardware implementation analyses prove the scheme’s capability to support high detection probability for an acceptable false alarm value ≤ 0.1 at SNR ≥ 0 dB and speed ≤ 45 m/s. 3. The third proposal: Reconfigurable intelligent surfaces (RIS) integration for improved authentication: Focusing on enhancing PHY-layer re-authentication, this proposal explores integrating RIS technology to improve SNR directed at designated vehicles. Theoretical analysis and practical implementation of the proposed scheme are conducted using a 1-bit RIS, consisting of 64 × 64 reflective units. Experimental results show a significant improvement in the Pd, increasing from 0.82 to 0.96 at SNR = − 6 dB for multicarrier communications. 4. The fourth proposal: RIS-enhanced vehicular communication security: Tailored for challenging SNR in non-line-of-sight (NLoS) scenarios, this proposal optimises key extraction and defends against denial-of-service (DoS) attacks through selective signal strengthening. Hardware implementation studies prove its effectiveness, showcasing improved key extraction performance and resilience against potential threats. 5. The fifth cross-layer authentication scheme: Integrating PKI-based initial legitimacy detection and blockchain-based reconciliation techniques, this scheme ensures secure data exchange. Rigorous security analyses and performance evaluations using network simulators and computation metrics showcase its effectiveness, ensuring its resistance against common attacks and time efficiency in message verification. 6. The final proposal: Group key distribution: Employing smart contract-based blockchain technology alongside PKI-based authentication, this proposal distributes group session keys securely. Its lightweight symmetric key cryptography-based method maintains privacy in VANETs, validated via Ethereum’s main network (MainNet) and comprehensive computation and communication evaluations. The analysis shows that the proposed methods yield a noteworthy reduction, approximately ranging from 70% to 99%, in both computation and communication overheads, as compared to the conventional approaches. This reduction pertains to the verification and transmission of 1000 messages in total

    Non-Market Food Practices Do Things Markets Cannot: Why Vermonters Produce and Distribute Food That\u27s Not For Sale

    Get PDF
    Researchers tend to portray food self-provisioning in high-income societies as a coping mechanism for the poor or a hobby for the well-off. They describe food charity as a regrettable band-aid. Vegetable gardens and neighborly sharing are considered remnants of precapitalist tradition. These are non-market food practices: producing food that is not for sale and distributing food in ways other than selling it. Recent scholarship challenges those standard understandings by showing (i) that non-market food practices remain prevalent in high-income countries, (ii) that people in diverse social groups engage in these practices, and (iii) that they articulate diverse reasons for doing so. In this dissertation, I investigate the persistent pervasiveness of non-market food practices in Vermont. To go beyond explanations that rely on individual motivation, I examine the roles these practices play in society. First, I investigate the prevalence of non-market food practices. Several surveys with large, representative samples reveal that more than half of Vermont households grow, hunt, fish, or gather some of their own food. Respondents estimate that they acquire 14% of the food they consume through non-market means, on average. For reference, commercial local food makes up about the same portion of total consumption. Then, drawing on the words of 94 non-market food practitioners I interviewed, I demonstrate that these practices serve functions that markets cannot. Interviewees attested that non-market distribution is special because it feeds the hungry, strengthens relationships, builds resilience, puts edible-but-unsellable food to use, and aligns with a desired future in which food is not for sale. Hunters, fishers, foragers, scavengers, and homesteaders said that these activities contribute to their long-run food security as a skills-based safety net. Self-provisioning allows them to eat from the landscape despite disruptions to their ability to access market food such as job loss, supply chain problems, or a global pandemic. Additional evidence from vegetable growers suggests that non-market settings liberate production from financial discipline, making space for work that is meaningful, playful, educational, and therapeutic. Non-market food practices mend holes in the social fabric torn by the commodification of everyday life. Finally, I synthesize scholarly critiques of markets as institutions for organizing the production and distribution of food. Markets send food toward money rather than hunger. Producing for market compels farmers to prioritize financial viability over other values such as stewardship. Historically, people rarely if ever sell each other food until external authorities coerce them to do so through taxation, indebtedness, cutting off access to the means of subsistence, or extinguishing non-market institutions. Today, more humans than ever suffer from chronic undernourishment even as the scale of commercial agriculture pushes environmental pressures past critical thresholds of planetary sustainability. This research substantiates that alternatives to markets exist and have the potential to address their shortcomings

    Meta-critical thinking, paradox, and probabilities

    Get PDF
    There is as much lack of clarity concerning what “critical thinking” involves, even among those charged with teaching it, as there is consensus that we need more emphasis on it in both academia and society. There is an apparent need to think critically about critical thinking, an exercise that might be called meta-critical thinking. It involves emphasizing a practice in terms of which “critical thinking” is helpfully carried out and clarifying one or more of the concepts in terms of which “critical thinking” is usually defined. The practice is distinction making and the concept that of evidence. Science advances by constructing models that explain real-world processes. Once multiple potential models have been distinguished, there remains the task of identifying which models match the real-world process better than others. Since statistical inference has in large part to do with showing how data provide support, i.e., furnish evidence, that the model/hypothesis is more or less likely while still uncertain, we turn to it to help make the concept more precise and thereby useful. In fact, two of the leading methodological paradigms—Bayesian and likelihood—can be taken to provide answers to the questions of the extent to which as well as how data provide evidence for conclusions. Examining these answers in some detail is a highly promising way to make progress. We do so by way of the analysis of three well-known statistical paradoxes—the Lottery, the Old Evidence, and Humphreys’—and the identification of distinctions on the basis of which their plausible resolutions depend. These distinctions, among others between belief and evidence and different concepts of probability, in turn have more general applications. They are applied here to two highly contested public policy issues—the efficacy of COVID vaccinations and the fossil fuel cause of climate change. Our aim is to provide some tools, they might be called “healthy habits of mind,” with which to assess statistical arguments, in particular with respect to the nature and extent of the evidence they furnish, and to illustrate their use in well-defined ways

    Resource-aware scheduling for 2D/3D multi-/many-core processor-memory systems

    Get PDF
    This dissertation addresses the complexities of 2D/3D multi-/many-core processor-memory systems, focusing on two key areas: enhancing timing predictability in real-time multi-core processors and optimizing performance within thermal constraints. The integration of an increasing number of transistors into compact chip designs, while boosting computational capacity, presents challenges in resource contention and thermal management. The first part of the thesis improves timing predictability. We enhance shared cache interference analysis for set-associative caches, advancing the calculation of Worst-Case Execution Time (WCET). This development enables accurate assessment of cache interference and the effectiveness of partitioned schedulers in real-world scenarios. We introduce TCPS, a novel task and cache-aware partitioned scheduler that optimizes cache partitioning based on task-specific WCET sensitivity, leading to improved schedulability and predictability. Our research explores various cache and scheduling configurations, providing insights into their performance trade-offs. The second part focuses on thermal management in 2D/3D many-core systems. Recognizing the limitations of Dynamic Voltage and Frequency Scaling (DVFS) in S-NUCA many-core processors, we propose synchronous thread migrations as a thermal management strategy. This approach culminates in the HotPotato scheduler, which balances performance and thermal safety. We also introduce 3D-TTP, a transient temperature-aware power budgeting strategy for 3D-stacked systems, reducing the need for Dynamic Thermal Management (DTM) activation. Finally, we present 3QUTM, a novel method for 3D-stacked systems that combines core DVFS and memory bank Low Power Modes with a learning algorithm, optimizing response times within thermal limits. This research contributes significantly to enhancing performance and thermal management in advanced processor-memory systems

    The infrared structure of perturbative gauge theories

    Get PDF
    Infrared divergences in the perturbative expansion of gauge theory amplitudes and cross sections have been a focus of theoretical investigations for almost a century. New insights still continue to emerge, as higher perturbative orders are explored, and high-precision phenomenological applications demand an ever more refined understanding. This review aims to provide a pedagogical overview of the subject. We briefly cover some of the early historical results, we provide some simple examples of low-order applications in the context of perturbative QCD, and discuss the necessary tools to extend these results to all perturbative orders. Finally, we describe recent developments concerning the calculation of soft anomalous dimensions in multi-particle scattering amplitudes at high orders, and we provide a brief introduction to the very active field of infrared subtraction for the calculation of differential distributions at colliders. © 2022 Elsevier B.V

    Membrane chromatography - high throughput screening and simulative process develoopment

    Get PDF
    Die in dieser Dissertation durchgeführten Untersuchungen liefern einen Beitrag im Bereich der biopharmazeutischen Prozessentwicklung und Produktion, im Speziellen für die chromatographische Aufreinigung. Bedingt durch die weltweite SARS-CoV-2 Pandemie stand die biopharmazeutische Industrie im Mittelpunkt des Medieninteresses. Dies führte zu einer öffentlichen Diskussion der Entwicklung und Herstellung von biopharmazeutischen Produkten. Aufgrund des dringlich benötigten Impfstoffes sind auch die benötigten Prozessentwicklungszeiten dieses erörtert worden. Die schnelle Bereitstellung eines wirksamen Arzneimittels bzw. Impfstoffes unter Einhaltung der behördlichen Anforderungen erfordert eine modernisierte und effizientere Entwicklung. Hierbei birgt eine einseitige Fokussierung auf die reine Reduktion der Entwicklungszeit eines Prozesses jedoch Nachteile und Risiken. Die Effizienzsteigerungspotentiale ergeben sich vor allem aus Wissensmanagement bei der Übertragung von bekannten Prozessentwicklungen wodurch Neuentwicklungen durch vorhandenes Wissen beschleunigt werden können. Des Weiteren besteht das Risiko bei eine reinen Zeitfokussierung, dass neuer/alternativer Herstellungsverfahren vernachlässigt werden und die langfristige Wettbewerbsfähigkeit nicht gegeben ist. Im Allgemeinen ist der pharmazeutische Aufreinigungsprozess in den vorgelagerten Upstream- (USP) und den daran angeschlossenen Downstream Prozess (DSP) unterteilt. Der USP verfolgt den optimalen Zellklon bzw. die optimalen Zellproduktionsbedingungen, wodurch eine stabile und hohe Produktivität erreicht wird. Im Gegensatz konzentriert sich das DSP auf die Produkt- und die Verunreinigungsprofile mit dem Ziel, eine hohe Reinheit und Ausbeute des Produktes zu erhalten. Aufgrund des hohen Standardisierungsgrades und der verfügbaren Informationen eignet sich die Herstellung von monoklonalen Antikörpern als Beispiel für einen Plattformprozess. Dieser Prozess umfasst im UPS die Vorbereitung von Kulturen und Zellen sowie die Herstellung des Wirkstoffes in einem Fermenter. Anschließend erfolgt die Aufreinigung des Produktes im DSP durch die Zellabtrennung, zwei bis drei Chromatographieschritte, Virusinaktivierung und einen eventuellen Pufferaustausch. Dem angeschlossen folgt die Virus- und Sterilfiltration in Vorbereitung auf die Abfüllung. Das derzeitige Verfahren in der chromatographischen Prozessentwicklung ermöglicht den Maßstabstransfer vom Labor zur Produktion durch verschiedene Ansätze. Diese Ansätze beruhen auf experimentellen Informationen, Expertenwissen sowie mechanistischer und/oder statistischer Modellierung. Die Prozessentwicklung gliedert sich in eine erste statische Untersuchung, eine detailliertere dynamische Leistungsuntersuchung und Experimente. Das grundsätzliche Ziel ist eine erfolgreiche Ergebnisübertragung in den Produktionsmaßstab. In frühen Entwicklungsstadien stehen der Prozessentwicklung meist nur sehr geringe Mengen des potenziellen Wirkstoffes zur Verfügung. Dementsprechend werden die statischen Untersuchungen entweder manuell oder durch robotergestützte Pipettierschritte im Kleinstmaßstab durchgeführt. Dem angeschlossen werden in Performance-Untersuchungen die ersten dynamischen Effekte ermittelt, typischerweise in automatisierten Robotersäulen im Mikrolitermaßstab. Bei ausreichender Verfügbarkeit werden detaillierte Experimente im Milliliter-Maßstab mit Flüssigchromatographie-Systemen im Labormaßstab durchgeführt. Die Laborsysteme weisen bereits einen mit der Produktion vergleichbaren Automatisierungsgrad auf. Dementsprechend bieten die detaillierten Experimente in der Regel die Grundlage für den Transfer in den Pilot- oder Produktionsmaßstab. In aktuellen Studien wird der Entwicklungsprozess häufig durch mechanistische Modellierung (MM) unterstützt. Das Ziel dieser Arbeiten ist eine theoretische Repräsentation des betrachteten Schrittes unter Bildung eines digitalen Zwillings. MM bietet die Möglichkeit, zusätzliche Informationen über Eingangsstoffe, stationäre Phasen, Geräte und Prozessführungen zu generieren. Auf diese Weise könnte MM die heute bekannten Prozessentwicklungsansätze miteinander verbinden, zusammenfassen und eine lebende Prozessbibliothek schaffen. Eine solche Bibliothek könnte das Wissen aus verschiedenen Prozessen bündeln und auf neue Fragestellung übertragen. Durch eine solche Transferleistung würden sich Zeit- und Kostenaufwand reduzieren. Die Entwicklung einer lebendigen Prozessbibliothek erfordert gleiche Untersuchungsansätze für alle stationären Phasen. Aufgrund der historischen Entwicklung besteht ein Ungleichgewicht zwischen partikulären/harzbasierter basiert Chromatographie und anderen stationären Phasen. Diese zumeist relativ neuen stationären Phasen werden nur selten für neue experimentelle Aufbauten, Prozessführungen und mechanistischen Modellierungsansätzen diskutiert. In der vorliegenden Arbeit wird ein monoklonaler Antikörper-Aufreinigungsprozess zur Aggregatabtrennung untersucht. Hierbei wird zunächst die Angleichung der Prozessentwicklungsmethoden zwischen diffusiven harzbasierten- und konvektiven Membranadsorbern (MA) als stationäre Phasen angestrebt. Dafür wird zunächst ein Aufbau für ein Hochdurchsatz-Screening entwickelt und mittels mechanistischer Modellierung die Ausarbeitung eines digitalen Zwillings angestrebt. In vier maßgeblichen Fallstudien werden die unterschiedlichen Prozessentwicklungsansätze für konvektive stationäre Phasen an jene der partikulären Chromatographie angeglichen. Hierbei werden folgende Bereiche untersucht: Bestimmung des Prozessparameterbereichs, Einbeziehung neuer Prozessführungen, Vergleichbarkeit unterschiedlicher stationärer Phasen und Skalierbarkeit. Für die Untersuchung konvektiver stationärer Phasen wie MA, welche typischerweise einen hohen Stofftransport und geringen Druckverlust im Modul aufweisen, wurde ein HTS Modul im Kleinstmaßstab für eine skalierbare Prozessentwicklung entwickelt. Die Untersuchung fokussierte sich auf die Entfernung von Aggregaten aus einer fermentierten monoklonalen Antikörperlösung. Die erste Fallstudie untersucht die experimentelle Anwendung des entwickelten HTS-Aufbaus und -Moduls. Hierbei werden der klassische Bindungs- und Elutionsmodus unter Variation des pH-Wertes und der Salzkonzentration angewendet. Dadurch lassen sich die Prozessfenster für die untersuchten Ionenaustausch-MA Sartobind® S und Q ermitteln. Des Weiteren wird mit Hilfe mechanistischer Modellbildung ein digitaler Zwilling erarbeitet. Die erhaltenen Ergebnisse bestätigen den erfolgreichen HTS-Aufbau und den entwickelten digitalen Zwilling. Im Ergebnisvergleich mit einer flüssigchromatographiebasierten Systemauftrennung zeigte der digitale Zwilling eine Signalübereinstimmung von über 80%. Des Weiteren wird für eine Maßstabsübertragung eines 0.42 mL Moduls auf ein 800 mL Modul eine Vorhersagegenauigkeit der dynamischen Durchbruchskonzentration von 90 % erzielt. Im Rahmen der Angleichung von konvektiven zu harzbasierten stationären Phasen ist in der zweiten Fallstudie die Abbildbarkeit von neuen Prozessführungen untersucht worden. Unterstützt durch mechanistische Modellierung wurden zwei verschiedene Trennungen auf kompetitive Adsorption untersucht. Darauf aufbauend wurde ein neuartiges HTS-Screeningmethode entwickelt. Dieses Verfahren ermöglicht die Bestimmung von Verdrängungseffekten durch kompetitive Adsorption und liefert Schlüsselgrößen zur Identifizierung dieser. Die Untersuchungsmethode wird Überladungs- und Elutionsverfahren (overload and elute mode, OBE) genannt und ebenfalls in der Aggregatabtrennung mit Sartobind® S untersucht. Basierend auf der im HTS angewandten OBE-Methode lassen sich sowohl klassische als auch dynamische Effekte bestimmen. Die Einführung des Verdrängungsidentifikators (displacement identifier, DI) ermöglicht eine Visualisierung von Verdrängungseffekten in einer Prozessparameterkarte. Auf Grundlage dieser Ergebnisse werden die Verdrängungseffekte in einem Recyclingexperiment angewendet. Dieses Recyclingexperiment weist durch die Ausnutzung der Verdrängungseffekte eine 45 % Reduktion der IgG- und 88 % höher Aggregatbindungskapazität im Vergleich mit einem einfachen FT-Prozess auf. Die zuvor angeführten Arbeiten haben die Unterschiede zwischen harzbasierten und konvektiven stationären Phasen reduziert. Dementsprechend erfolgten in der dritten Fallstudie die Untersuchung und der Vergleich von unterschiedlichen stationären Phasen. Hierbei wird eine Strategie zur Bewertung verschiedener Kombinationen von stationären Phasen, deren Grundgerüsten und Liganden, vorgestellt. Diese Strategie gewährleistet für die Erstellung einer Lebenden Prozessentwicklungsbibliothek die Untersuchung und Auswahl von passenden stationären Phasen. In dieser Fallstudie werden entwickelte Strategien an neuartigen MA behandelt, welche verschiedene chromatographische Effekte kombinieren (Mixed Mode, MiMo). Die Strategie beinhaltet theoretische Überlegungen sowie Untersuchungen der optimalen stationären Phasen hinsichtlich ihrer Selektivität und Bindungskapazität. Anhand der theoretischen Überlegungen lässt sich der experimentelle Raum, die möglichen Kombinationen aus stationären Phasen, deren Grundgerüst und Liganden reduzieren. Dafür wird jeder potenzielle MiMo MA Kandidat auf sein Potential zur Reduktion von Aggregaten in einer mAb Lösung untersucht und mit der Leistung der harzbasierten stationären Phase Capto™ Adhere verglichen. Die vorgestellte Strategie reduziert in einem frühem Untersuchungszeitpunkt die Reduktion von drei auf zwei mögliche stationäre Phasen reduzieren. Unter Berücksichtigung des untersuchten Einflusses der Ionenkapazität lässt sich ein finaler Kandidat ermitteln. Hierbei zeigt der Kandidat eine um 2 bis 3 Membranvolumen höhere Bindungskapazität als die Referenz Capto™ Adhere. Unter Verwendung der vorgestellten Strategie und Einbindung in eine Lebende Prozessbibliothek lassen sich zeiteffizient optimale stationäre Phasen identifizieren. Komplettiert wird die Arbeit in der letzten Fallstudie durch eine anwenderorientierte Maßstabsübertragung mittels mechanistischer Modellierung. Diese Arbeit beschreibt die typischen Modellierungsschritte mit Fokus auf der Maßstabsübertragung. Hierbei wird in der fluiddynamischen Beschreibung im Speziellen auf die Untersuchung und Optimierung von verschiedenen Modulen und deren Maßstabsübertragung eingegangen. Abweichend von der klassischen Isothermen-Parameterbestimmung werden historische HTS Daten verwendet, um die Isothermen-Parameter abzuschätzen. Dieses Vorgehen ermöglich in einem Lebenden Bibliotheksansatz die Inklusion von historischen Daten. Abgeschlossen wird die Fallstudie durch die Maßstabsübertrag eines axial durchströmten 0,46 mL HTS-Moduls zu einem 150 mL radial durchströmten Modul im Pilotmaßstab. Abschließend liefert diese Arbeit ein Verfahren zur Optimierung der Prozessentwicklung. Die verschiedenen Ansätze der Prozessentwicklung können in einem Lebenden Bibliothekansatz zusammengeführt werden. Dieser Bibliothekansatz umfasst Expertenwissen, Experimente sowie statistische und mechanistische Modellierung. In diesem Bestreben wurden zwischen harzbasierten und konvektiven stationären Phasen gleiche Wettbewerbsbedingungen geschaffen. Diese Vergleichbarkeit ermöglicht eine direkte Auswahl der stationären Phasen für eine bestimmte Trennaufgabe. Die anwenderorientierte Maßstabsübertragung bietet einen Leitfaden, wie durch mechanistische Modellierung die unterschiedlichen Prozessentwicklungsansätze zusammengeführt werden können. In dieser Arbeit zeigt die mechanistische Modellierung, wie der Prozessentwicklungsprozess abgebildet, transferiert, konserviert und standardisiert werden kann. Dadurch entsteht ein kohärentes und übertragbares Verfahren zur Verfügung, wodurch die anstehenden Herausforderungen in der Prozessentwicklung überwunden werden können

    LIPIcs, Volume 251, ITCS 2023, Complete Volume

    Get PDF
    LIPIcs, Volume 251, ITCS 2023, Complete Volum

    Supporting Safety Analysis of Deep Neural Networks with Automated Debugging and Repair

    Get PDF
    corecore