324 research outputs found

    Adaptive load balancing for HPC applications

    Get PDF
    One of the critical factors that affect the performance of many applications is load imbalance. Applications are increasingly becoming sophisticated and are using irregular structures and adaptive refinement techniques, resulting in load imbalance. Moreover, systems are becoming more complex. The number of cores per node is increasing substantially and nodes are becoming heterogeneous. High variability in the performance of the hardware components introduces further imbalance. Load imbalance leads to drop in system utilization and degrades the performance. To address the load imbalance problem, many HPC applications employ dynamic load balancing algorithms to redistribute the work and balance the load. Therefore, performing load balancing is necessary to achieve high performance. Different application characteristics warrant different load balancing strategies. We need a variety of high-quality, scalable load balancing algorithms to cater to different applications. However, using an appropriate load balancer is insufficient to achieve good performance because performing load balancing incurs a cost. Moreover, due to the dynamic nature of the application, it is hard to decide when to perform load balancing. Therefore, deciding when to load balance and which strategy to use for load balancing may not be possible a priori. With the ever increasing core counts on a node, there will be a vast amount of on-node parallelism. Due to the massive on-node parallelism, load imbalance occurring at the node level can be mitigated within the node instead of performing a global load balancing. However, having the application developer manage resources and handle dynamic imbalances is inefficient as well as is a burden on the programmer. The focus of this dissertation is on developing scalable and adaptive techniques for handling load imbalance. The dissertation presents different load balancing algorithms for handling inter and intra-node load imbalance. It also presents an introspective run-time system, which will monitor the application and system characteristics and make load balancing decisions automatically

    Advancing nanofabrication processes for the generation of multifunctional surfaces

    Get PDF
    Ubiquitous in the natural world, micro- and/or nano-structured surfaces can afford simultaneous control over a range of interfacial properties; providing an attractive solution for where the accumulation of fluids (fog/rain/oil) and bacteria, and the mismanaged interaction of photons, can impede the safety or efficiency of the surface. Although surfaces found in nature provide a wealth of inspiration, replicating the structures synthetically persists to be a challenge, particularly so when striving for scalability and simplicity to encourage industrial/commercial uptake. Furthermore, the fabrication challenges become amplified when aiming for sub-wavelength structures; often necessary to unlock or enhance additional functionality. In this thesis, I present novel fabrication routes based on lithography and reactive ion etching (RIE) to achieve a range of ordered structures at the nano-scale in glass and silicon, and further replicate the resultant structures into polymers. I explore scalable masking techniques including block copolymer (BCP) lithography, laser interference lithography (LIL) and nanoimprint lithography (NIL), to achieve a series of pitches from 50 – 600 nm. By coupling the masking with novel combinations of etching chemistries, and taking advantage of the etch resistivity of different materials, I fabricate high aspect ratio nanostructures through simplified processes and demonstrate their ability to target applications in wettability, photonics and anti-bacterial action. Specifically, for silicon and glass nanocones, I focus on their anti-fogging, superhydrophobic, anti-reflective and anti-bacterial properties. I also investigate the impact of the nanostructure morphology on a sub-class of water-repellent surfaces, namely, slippery liquid infused porous surfaces, and their ability to retain lubricant under dynamic conditions; continuing on the theme of smart nanostructure design and simplified fabrication to pave a route to multifunctional surfaces. It is anticipated that the surfaces and their properties will find use as car windscreens, coatings for solar panels, high-rise glass facades, and high-touch surfaces to name a few

    Plasmonic nanostructures for optical biosensing

    Get PDF
    In the last few decades, an increasing interest for nanotechnologies is spanning more and more fields of application thanks to the unique properties exhibited by metal nanomaterials if stimulated by external electromagnetic radiations. Indeed, a new research field called plasmonics is emerging and fast growing as a result of the recent technological progress and a deeper understanding of such phenomena. Recently, several types of plasmonic nanostructures are being conceived aiming at improving the performance of plasmon-based devices. For instance, sharp nanostructures exhibit higher field enhancement than smooth surfaces thereby representing a remarkable advantage in applications relying on signal amplification such as surface-enhanced Raman spectroscopy and plasmon-enhanced fluorescence. In addition, when nanostructures are ordered in periodic arrays, collective modes can arise as a result of the field coupling among the surface plasmons so as to promote the occurrence of impressive effects such as lattice resonances. Therefore, the possibility to tune the optical response of a nanostructure by tailoring the nanomaterial shape and size, as well as the structure arrangement, is spurring the researchers to explore new approaches, in terms of both nanofabrication and nano applications, in order to go beyond the current limits of many techniques. The aim of this work is to provide an understanding of this growing field of research and to convey the main features in biosensing applications. To date, several biosensor-based approaches including colorimetric and fluorescence analysis have been explored to effectively work alongside – or even replace – the gold standard methods in a wide variety of applications including environmental pollution monitoring and medical diagnostics. In this regard, optical biosensors offer a rapid, affordable, and practical approach in many fields of applications paving the way for point of care tests and high-throughput analysis. Fluorescence-based techniques are of growing interest since their potential high-throughput analysis, point of care applications, and improvable sensitivity through plasmon-enhanced fluorescence effect. On the other hand, when quickness, practicality, and easiness of use are preferred rather than extremely high sensitivity and accuracy, colorimetric biosensors relying on gold nanoparticles are the ideal candidates since their capability to produce a qualitative response in a few minutes visible by naked eye (a portable and handheld spectrophotometer can be employed if a quantitative measurement is required). The performance of colorimetric biosensors have been tested for detecting small molecules, such as 17β-estradiol in tap water down to picomolar level, and SARS-CoV-2 virions in naso-oropharyngeal swabs from hospital patients, whereas two-dimensional patterns of honeycomb-arranged and randomly positioned gold nanoparticles have been implemented in fluorescence-based malaria apta-immunoassays to effectively amplify the signal intensity through plasmon-enhanced fluorescence effect thereby attaining an ultrasensitive limit of detection at femtomolar level for detecting proteins in human whole blood

    Through A Glass, Darkly Technical, Policy, and Financial Actions to Avert the Coming Digital Dark Ages

    Get PDF
    Through A Glass, Darkly Technical, Policy, and Financial Actions to Avert the Coming Digital Dark Age

    Ocean Energy in Belgium - 2020

    Get PDF

    In Silico Design and Selection of CD44 Antagonists:implementation of computational methodologies in drug discovery and design

    Get PDF
    Drug discovery (DD) is a process that aims to identify drug candidates through a thorough evaluation of the biological activity of small molecules or biomolecules. Computational strategies (CS) are now necessary tools for speeding up DD. Chapter 1 describes the use of CS throughout the DD process, from the early stages of drug design to the use of artificial intelligence for the de novo design of therapeutic molecules. Chapter 2 describes an in-silico workflow for identifying potential high-affinity CD44 antagonists, ranging from structural analysis of the target to the analysis of ligand-protein interactions and molecular dynamics (MD). In Chapter 3, we tested the shape-guided algorithm on a dataset of macrocycles, identifying the characteristics that need to be improved for the development of new tools for macrocycle sampling and design. In Chapter 4, we describe a detailed reverse docking protocol for identifying potential 4-hydroxycoumarin (4-HC) targets. The strategy described in this chapter is easily transferable to other compounds and protein datasets for overcoming bottlenecks in molecular docking protocols, particularly reverse docking approaches. Finally, Chapter 5 shows how computational methods and experimental results can be used to repurpose compounds as potential COVID-19 treatments. According to our findings, the HCV drug boceprevir could be clinically tested or used as a lead molecule to develop compounds that target COVID-19 or other coronaviral infections. These chapters, in summary, demonstrate the importance, application, limitations, and future of computational methods in the state-of-the-art drug design process

    IST Austria Thesis

    Get PDF
    Social insect colonies tend to have numerous members which function together like a single organism in such harmony that the term ``super-organism'' is often used. In this analogy the reproductive caste is analogous to the primordial germ cells of a metazoan, while the sterile worker caste corresponds to somatic cells. The worker castes, like tissues, are in charge of all functions of a living being, besides reproduction. The establishment of new super-organismal units (i.e. new colonies) is accomplished by the co-dependent castes. The term oftentimes goes beyond a metaphor. We invoke it when we speak about the metabolic rate, thermoregulation, nutrient regulation and gas exchange of a social insect colony. Furthermore, we assert that the super-organism has an immune system, and benefits from ``social immunity''. Social immunity was first summoned by evolutionary biologists to resolve the apparent discrepancy between the expected high frequency of disease outbreak amongst numerous, closely related tightly-interacting hosts, living in stable and microbially-rich environments, against the exceptionally scarce epidemic accounts in natural populations. Social immunity comprises a multi-layer assembly of behaviours which have evolved to effectively keep the pathogenic enemies of a colony at bay. The field of social immunity has drawn interest, as it becomes increasingly urgent to stop the collapse of pollinator species and curb the growth of invasive pests. In the past decade, several mechanisms of social immune responses have been dissected, but many more questions remain open. I present my work in two experimental chapters. In the first, I use invasive garden ants (*Lasius neglectus*) to study how pathogen load and its distribution among nestmates affect the grooming response of the group. Any given group of ants will carry out the same total grooming work, but will direct their grooming effort towards individuals carrying a relatively higher spore load. Contrary to expectation, the highest risk of transmission does not stem from grooming highly contaminated ants, but instead, we suggest that the grooming response likely minimizes spore loss to the environment, reducing contamination from inadvertent pickup from the substrate. The second is a comparative developmental approach. I follow black garden ant queens (*Lasius niger*) and their colonies from mating flight, through hibernation for a year. Colonies which grow fast from the start, have a lower chance of survival through hibernation, and those which survive grow at a lower pace later. This is true for colonies of naive and challenged queens. Early pathogen exposure of the queens changes colony dynamics in an unexpected way: colonies from exposed queens are more likely to grow slowly and recover in numbers only after they survive hibernation. In addition to the two experimental chapters, this thesis includes a co-authored published review on organisational immunity, where we enlist the experimental evidence and theoretical framework on which this hypothesis is built, identify the caveats and underline how the field is ripe to overcome them. In a final chapter, I describe my part in two collaborative efforts, one to develop an image-based tracker, and the second to develop a classifier for ant behaviour

    Data-Driven Process Development for Virus-Like Particles - Implementation of Process Analytical Technology, Molecular Modeling, and Machine Learning

    Get PDF
    Im Laufe des 20. Jahrhunderts stieg die Lebenserwartung deutlich an. Aus medizinischer Sicht trugen vor allem die umfassende Verbesserung der Hygiene und die Einführung von Impfprogrammen zu diesem Erfolg bei. Impfstoffe waren die ersten biologischen Produkte, die systematisch als medizinische Präparate eingesetzt wurden, und ebneten damit den Weg zur modernen pharmazeutischen Biotechnologie. Nach Insulin und menschlichem Wachstumshormon war eines der frühesten biotechnologisch hergestellten pharmazeutischen Produkte ein rekombinanter Impfstoff, im Speziellen ein virusähnliches Partikel (virus-like particle, VLP) auf Basis von rekombinantem Hepatitis-B-Oberflächenantigen. VLPs beinhalten keine infektiösen viralen Nukleinsäuren und sie ähneln dem Virus, von dem sie abgeleitet sind, wodurch sie eine Immunantwort induzieren können. Obwohl dieser Hepatitis-B-Impfstoff gegenwärtig noch verwendet wird, ist die heutige Anwendung von VLPs sehr unterschiedlich, wie aus zahlreichen präklinischen und klinischen Studien hervorgeht. VLPs werden als mögliche Impfstoffe gegen Infektionskrankheiten, immunologische Erkrankungen oder Krebs untersucht. Ihre starke Immunogenität wird für die Präsentierung von fremdantigenen Epitopen auf den VLPs genutzt, was sie zu chimären VLPs (chimeric virus-like particles, cVLPs) macht. Als solche induzieren sie nachweislich Immunantworten gegen Krebszellen und überwinden die natürliche immunologische Selbsttoleranz gegenüber Krebsantigenen. Allerdings ist ihr hohes Potenzial mit Herausforderungen verbunden, beispielsweise im Zusammenhang mit ihrem molekularen Design und dem Produktionsprozess. Das Ziel des molekularen Designs ist die Entwicklung immunogener und stabiler VLP-Kandidaten. Der Prozess, um geeignete VLP-Kandidaten zu finden, ist jedoch typischerweise empirisch und bringt Herausforderungen wie eine geringe Löslichkeit nach der Expression in rekombinanten Wirten oder unzureichende VLP-Immunogenität mit sich. Dem VLP-Produktionsprozess mangelt es an maßgeschneiderten Aufreinigungsmethoden, was im Vergleich zu etablierten biopharmazeutischen Produkten, wie z.B. monoklonalen Antikörpern, zu einer geringeren Produktivität führt. Hinzu kommt, dass bei der VLP-Prozessierung VLP-spezifische Prozessschritte, wie z.B. die Zerlegung und Reassemblierung der Partikel, entworfen werden müssen. Die Bewältigung dieser Herausforderungen würde von datengestützten Ansätzen wie der prozessanalytischen Technologie (process analytical technology, PAT), der molekularen Modellierung und dem maschinellen Lernen profitieren. Diese würden das Prozess- und Produktverständnis verbessern, den experimentellen Aufwand reduzieren und eine effiziente Überwachung und Steuerung der Prozesse ermöglichen. Daher war es Ziel dieser Arbeit, Antworten auf mehrere dieser Herausforderungen zu finden, indem datengestützte Ansätze implementiert wurden, um die Entwicklung maßgeschneiderter Prozessschritte zu begleiten. Im ersten Teil dieser Arbeit werden VLPs und ihre Produktionsprozesse besprochen, die Vorteile der Implementierung von PAT beschreiben, die Herausforderungen im Zusammenhang mit ihrem molekularen Design beleuchtet und die Möglichkeiten der Anwendung des maschinellen Lernens bei der VLP-Entwicklung und -Prozessierung aufgezeigt. Der zweite Teil dieser Arbeit beschreibt fünf Studien, die darauf abzielen, Antworten auf einige der mit dem VLP-Design und der biotechnologischen Verfahrenstechnik verbundenen Herausforderungen zu finden. Die erste Studie (Kapitel 3) befasst sich mit einem besonderen VLP-spezifischen Prozessschritt. Für eine verbesserte Stabilität, Homogenität und Immunogenität müssen VLPs zerlegt und wieder reassembliert werden. Ausgehend von einer Hoch-pH-Lösung, die zerlegte VLPs enthält, wird die Reassemblierung durch die Erhöhung der Ionenstärke und die Senkung des pH-Wertes erreicht. Die meisten Prozesse im Labormaßstab nutzen die Dialyse für diesen Pufferaustausch, während die Querstromfiltration (cross-flow filtration, CFF) für den Pufferaustausch besser skalierbar ist, den Pufferverbrauch reduziert und die Ausbeute verbessert. Im Vergleich zur Dialyse erfordert die CFF mehr technisches Wissen und Kenntnisse über den VLP-Reassemblierungssfortschritt während des Prozesses. Eine umfassende Überwachungsstrategie wäre daher sehr vorteilhaft, um eine (Beinahe-) Echtzeit-Kontrolle des VLP-Reassemblierungsprozesses durch CFF zu implementieren. In dieser ersten Studie wird ein Aufbau zur Überwachung der VLP-Reassemblierung durch CFF mittels einer Online-Messschleife mit zwei verschiedenen spektroskopischen Sensoren beschrieben. Eine mögliche Kontrollstrategie für den VLP-Assemblierungsprozess wurde in der Überwachung der statischen und dynamischen Lichtstreuung gesehen. Das Maximum des statischen Streulichtsignals fiel mit der maximalen VLP-Konzentration zusammen. Diese Information ist sehr wertvoll, da nach diesem VLP-Konzentrationsmaximum eine Degradationsphase beobachtet wurde, die vermieden werden sollte, um Ausbeute und Reinheit der VLPs zu optimieren. Die Analyse der zweiten Ableitung der ultravioletten und sichtbaren (ultraviolet and visible, UV/Vis) Spektren erwies sich als praktikable orthogonale Methode zur Überwachung der VLP-Assemblierung, insbesondere mit dem sogenannten a/b-Verhältnis. Das a/b-Verhältnis, welches sich im Zeitverlauf der Prozesse änderte, beschreibt die Solvatisierung von Tyrosin. Die Beobachtung der Veränderung des a/b-Verhältnisses deckt sich mit der Tatsache, dass Tyrosin 132 nach der Assemblierung in einer hydrophoben Tasche eingebettet wird. Zusätzlich konnte ein Modell der Regression der partiellen kleinsten Quadrate (partial least squares), das auf den aufgezeichneten UV/Vis-Spektren basiert, die VLP-Konzentrationen abschätzen mit dem Potential, als (Beinahe-) Echtzeitmodell angewendet zu werden. Die etablierte Überwachungsstragie wurde genutzt um optimale Prozessbedingungen für drei chimäre hepatitis B core antigen (HBcAg)- Konstrukte zu ermitteln. Dies resultierte in unterschiedlichen Prozesszeiten, um die maximale VLP-Konzentration zu erreichen. Das cVLP mit dem stärksten negativen Zetapotential assemblierte am spätesten, wahrscheinlich aufgrund abstoßender elektrostatischer Kräfte. Es erfordert daher Puffer mit höheren Ionenstärken für die Reassemblierung. Die Bedeutung des Zetapotenzials für die VLP-Prozessierung war Teil der Motivation für die zweite Studie (Kapitel 4). Das Zetapotential und andere biophysikalische Parameter können nur gemessen werden, wenn Material experimentell in ausreichenden Mengen produziert wurde. Es wäre daher wünschenswert, diese Parameter vorherzusagen, um Ressourcen zu sparen. Es wurde bereits gezeigt, dass Oberflächeneigenschaften aus dreidimensionalen (3-D) Strukturen abgeleitet werden können. 3-D-Strukturen neuartiger Moleküle sind jedoch nicht verfügbar und ihre experimentelle Erzeugung ist langwierig und mühsam. Eine Alternative ist die rechnergestützte 3-D-Strukturerzeugung mit Template-Modellierung und Molekulardynamik-Simulationen (MD). Dieser in silico Arbeitsablauf erfordert üblicherweise signifikante Benutzerinteraktion, Expertenwissen, um die Simulationen zu designen und zu steuern, und viel Rechenleistung. Um diese Limitationen zu überwinden, wurde in dieser Studie ein robuster und automatisierter Arbeitsablauf zur Erzeugung von 3-D Strukturen etabliert. Der Arbeitsablauf ist datenabhängig, minimiert Benutzerinteraktion und reduziert die benötigte Rechenleistung. Die Eingabe in den entwickelten Arbeitsablauf war eine Aminosäuresequenz und eine Strukturvorlage. Die Vorlage wurde automatisch von einer Proteinstrukturdatenbank heruntergeladen, bereinigt und die Struktur wurde Homologie-modelliert, gefolgt von einer Energieminimierung. Eine datenabhängige dreistufige MD-Simulation verfeinerte die Struktur, wobei ein kontinuierlich zunehmender Bereich des Moleküls simuliert wurde, bis schließlich das gesamte Molekül frei simuliert wurde. Der dreistufige MD-Simulationsansatz lieferte hierbei einen großen Beitrag zur Reduktion der benötigten Rechenleistung, in dem strukturell besonders unsichere Bereiche des Moleküls zunächst gesondert simuliert wurden. Oft werden MD-Simulationen nach einer bestimmten Simulationszeit beendet. In dieser Studie beendete die entwickelte datenabhängige Simulationskontrolle die Simulationen, wenn ein Stabilitätsfenster (Window of Stability, WoS) von 2 ns erreicht wurde, definiert durch die Wurzel der mittleren quadratischen Abweichung (root mean square deviation, RMSD) der Atomkoordinaten. Dies stellte sicher, dass die Fluktuationen der MD-Simulation zwischen allen simulierten Konstrukten innerhalb des genannten WoS am Ende der Simulation vergleichbar waren. Der Arbeitsablauf führte zu angemessenen Simulationszeiten (6,6-37,5 h) und einer hohen Gesamtstrukturqualität für die drei chimären HBcAg-Dimere. Um die Anwendbarkeit der Methode zu demonstrieren, wurde eine Fallstudie durchgeführt, in der die in silico Oberflächenladung von HBcAg-Dimeren mit dem experimentellen Zeta-Potential ganzer Kapside korreliert wurde, was eine hohe lineare Korrelation zeigte. Die Extraktion der Oberflächenladung aus dem WoS war robuster als aus einem einzelnen Simulationsschnappschuss, was die Nützlichkeit des entwickelten Ansatzes unterstreicht. Die dritte Studie (Kapitel 5) befasst sich mit dem Problem, dass VLPs häufig mit Technologien prozessiert werden, die ursprünglich für kleinere Produkte entwickelt wurden. Dies führt oft zu Prozesslimitationen wie geringe Bindekapazitäten von Chromatographieharzen, die im downstream process verwendet werden. Daher wurde eine neue Aufreinigungsstrategie entwickelt, die drei verschiedene größenselektive Methoden integriert, da sie für die selektive Abtrennung von VLPs von Verunreinigungen vielversprechend erschienen. Die Methoden waren Fällung/Rücklösung, CFF und Größenausschlusschromatographie (size exclusion chromatography, SEC). Es wurden drei Verfahrensvarianten entwickelt und untersucht, wobei die beste aus Fällung, Waschen und Rücklösung auf einer CFF-Einheit, gefolgt von einer Reinigung durch eine multimodale SEC-Säule bestand. Dieses Verfahren zeigte die höchste Reinheit sowie eine hohe Ausbeute und Produktivität. Die entwickelten Verfahren waren den in der Literatur beschriebenen Verfahren vergleichbar oder überlegen. Die Überwachung und Fraktionierung des Permeatstroms ermöglichte es zudem, produkthaltige Fraktionen für das selektive Vereinigen zu identifizieren. Auf diese Weise können Produktkonzentration- und Reinheit eingestellt werden. Eines der Hauptprobleme beim Molekulardesign von cVLPs ist, dass die Kandidaten bei der Expression oft unlöslich sind. Der Prozess zur Identifizierung unlöslicher VLP-Konstrukte ist typischerweise empirisch und deshalb Zeit- und Ressourcenintensiv. Diese Herausforderung kann mit einem Modell bewältigt werden, welches die Löslichkeit von cVLPs vorhersagt. In Kapitel 6 wurde ein Soft Ensemble Vote Classifier (sEVC) als Werkzeug auf Basis von maschinellem Lernen zur Vorhersage der cVLP-Löslichkeit entwickelt, basierend auf 568 verschiedenen Aminosäuresequenzen und 91 verschiedenen Hydrophobizitäts-Skalen. Das Ensemble-Modell aggregiert die Vorhersage der einzelnen Klassifikatoren, bei denen es sich um einstufige Entscheidungsbäume handelt. Diese wurden jeweils mit einem Hydrophobizitäts-Merkmal auf der Grundlage einer Hydrophobizitäts-Skala trainiert. Stratifizierte Trainingssatzprobenahme und Merkmalsauswahl kamen der Modellbildung zugute. Die besten Modelle wiesen einen Matthew-Korrelationskoeffizienten (Matthew’s correlation coefficient, MCC) von >0,6 auf, der mit den statistischen Größen von Löslichkeitsmodellen aus der Literatur vergleichbar oder diesen überlegen ist. Zusätzlich ermöglichte die Merkmalsauswahl (feature selection) die Identifizierung charakteristischer Eigenschaften (features) des untersuchten cVLP-Löslichkeitsproblems, wobei die Bedeutung verschiedener Aminosäuren für die cVLP-Löslichkeit hervorgehoben wurde. Die Analyse legte nahe, dass Arginin eine wichtige Rolle bei der Rekrutierung von VLP-Untereinheiten während der Kapsidassemblierung spielen könnte. Die letzte Studie baute auf dem Modell und den Ergebnissen von Kapitel 6 auf, mit dem Ziel, die Vorhersageergebnisse zu optimieren und mehr versteckte Informationen aus den Daten zu extrahieren. In der vorherigen Studie wurde eine systematische Fehlklassifikation beobachtet. Dies wurde mit einem Optimierungsalgorithmus angegangen, der die Vorhersage des Modells anpasste, wenn diese systematischen Fehlklassifikationen im Trainingsdatensatz beobachtet wurden. Eine zweite Optimierungsstrategie synthetisierte und optimierte Hydrophobizitäts-Skalen spezifisch für das vorgestellte cVLP-Löslichkeitsproblem. Dabei wurde die Bedeutung von Tryptophan als möglicher Disruptor der Proteinfaltung anhand der Daten vorgeschlagen. Das beste Modell, das mit den entwickelten Optimierungsworkflows erstellt wurde, zeigte einen MCC von 0,77 (Korrektklassifikationsrate von 0,88) in Bezug auf das externe Test-Set. Schließlich wurde das sEVC-Framework in einer Fallstudie evaluiert, um Ammoniumsulfatkonzentrationen vorherzusagen, wie sie für die VLP-Fällung erforderlich sind (wie auch in Kapitel 5 angewandt). Daher wurde das Modell so umgestaltet, dass es als Regressionswerkzeug fungiert. Es wurde mit Daten der Ammoniumsulfat-induzierten Fällung von zehn cVLPs bewertet. Die lineare Regression zeigte eine vielversprechende Korrelation mit einem R² von 0,69. Zusammenfassend lässt sich sagen, dass sowohl von dem Standpunkt der Prozessentwicklung als auch von der computergestützen Entwicklung aus eine Reihe von Methoden entwickelt wurde, die den Weg zu einem VLP-Plattformprozess ebnen könnten. Die Integration von datengesteuerten Ansätzen wie PAT, 3-D-Strukturmodellierung und maschinelles Lernen kann sowohl der Effizienz als auch dem Verständnis der VLP-Prozessierung in der biopharmazeutischen Industrie zugutekommen

    Africa

    Get PDF
    Africa is one of the lowest contributors to greenhouse gas emissions causing climate change, yet key development sectors have already experienced widespread losses and damages attributable to human-induced climate change, including biodiversity loss, water shortages, reduced food production, loss of lives and reduced economic growth (high confidence1).// Between 1.5°C and 2°C global warming—assuming localised and incremental adaptation—negative impacts are projected to become widespread and severe with reduced food production, reduced economic growth, increased inequality and poverty, biodiversity loss, increased human morbidity and mortality (high confidence). Limiting global warming to 1.5°C is expected to substantially reduce damages to African economies, agriculture, human health, and ecosystems compared to higher levels of global warming (high confidence).// Exposure and vulnerability to climate change in Africa are multi-dimensional with socioeconomic, political and environmental factors intersecting (very high confidence). Africans are disproportionately employed in climate-exposed sectors: 55–62% of the sub-Saharan workforce is employed in agriculture and 95% of cropland is rainfed. In rural Africa, poor and female-headed households face greater livelihood risks from climate hazards. In urban areas, growing informal settlements without basic services increase the vulnerability of large populations to climate hazards, especially women, children and the elderly. // Adaptation in Africa has multiple benefits, and most assessed adaptation options have medium effectiveness at reducing risks for present-day global warming, but their efficacy at future warming levels is largely unknown (high confidence)./
    • …
    corecore