4,438 research outputs found

    Roles of the ubiquitin ligase complex CRL5Ozz and its substrate Alix in skeletal muscle

    Get PDF

    Exploring missing heritability in neurodevelopmental disorders:Learning from regulatory elements

    Get PDF
    In this thesis, I aimed to solve part of the missing heritability in neurodevelopmental disorders, using computational approaches. Next to the investigations of a novel epilepsy syndrome and investigations aiming to elucidate the regulation of the gene involved, I investigated and prioritized genomic sequences that have implications in gene regulation during the developmental stages of human brain, with the goal to create an atlas of high confidence non-coding regulatory elements that future studies can assess for genetic variants in genetically unexplained individuals suffering from neurodevelopmental disorders that are of suspected genetic origin

    Continuous flow synthesis of hypercrosslinked polymers (HCPs) and its environmental impact evaluation

    Get PDF
    Hypercrosslinked polymers(HCPs) are a class of microporous adsorbents with a wide range of applications, including dye adsorption, and gas storage. Traditionally, HCPs are synthesised through Friedel-Crafts alkylation, which involves a time-consuming synthesis process in batch reactors, posing challenges for scaling up production to meet global demand. The prolong reaction duration issue could be eliminated by means of a new synthetic method to substitute batch reactors. The ultimate aim of this study is to intensify the HCP synthesis process by transitioning from batch reactors to continuous reactors. This shift intents to enhance productivity while maintaining a high specific surface area, crucial for superior adsorption capacity. Additionally, this study aspired to reduce the environmental impact associated with this new method for HCP synthesis. To achieve these objectives, a continuous flow system had been adopted as a replacement for the conventional batch method in HCP synthesis. Three types of HCPs were successfully synthesised using well-established strategies (internally crosslinked, post-crosslinked, and externally crosslinked) in the continuous flow system, showcasing its versatility. The productivity, measured as space-time-yield (STY), of continuous flow synthesis showed an enhancement ranging from 32 – 117-fold when compared to batch synthesis. These improvements were attributed to reducing reaction duration during flow synthesis, from 1440 minutes (24 hours) to 5 – 15 minutes. The specific surface areas of flow-synthesised HCPs were, on average, lower than the batch-synthesised HCPs by 1.5 – 10 %. This meant that when compared to batch-synthesised HCPs, more quantities of flow-synthesised HCPs were needed for dye adsorption and CO2 capture. However, despite this requirement for larger quantities, the environmental assessment of continuous flow synthesis indicated a reduction in negative environmental impacts across most environmental impact indicators. This suggest an improvement in the environmental sustainability of continuous flow HCP synthesis compared to batch synthesis. Furthermore, this study also explored an alternative synthesis method using twin screw extraction (TSE) with deep eutectic solvents (DES), a benign solvent replacement for halogenated solvents, during HCP synthesis. Although this approach offers promising potential as the replacement of continuous flow synthesis using conventional halogenated solvents, further investigations are warranted for its optimisation. In conclusion, this thesis advocates for the adoption of continuous flow synthesis of HCPs, underlining its potential for productivity enhancement and reduced environmental impacts. This study lays the foundation for the potential industrial-scale implementation of continuous flow synthesis, bridging the gap between HCP supply and demand while contributing to lower environmental impacts in the production process

    “Big Tales of Indians Ahead:” The Reproduction of Settler Colonial Discourse in the American West

    Get PDF
    “Big Tales of Indians Ahead” traces the reproduction of settler colonial discourses—sentiments narrated by a settler society about themselves and about the Native American societies that predated them—from the period of colonial history of the seventeenth century to the present day in the twenty-first century. This study argues that the anti-Indian rhetoric that could be found in early colonial EuroAmerican writings, particularly Indian captivity narratives, were reproduced by subsequent settler societies throughout the eighteenth and nineteenth centuries in the form of settler narratives from the overland trail migrations and various forms of popular culture. In the twentieth century these discourses, heavily influenced by past settler discourses, reached wider audiences through new forms of popular culture—particularly Western genre films and mass-produced works of fiction aimed at younger audiences. Finally, this dissertation tracks the ways in which these discourses are still reproduced and present in contemporary popular culture media and political identities in the American West. From Mary Rowlandson’s Indian captivity narrative of the late-seventeenth century to the overland trail settler narratives of the Oregon Trail and the wildly-popular Western films of the mid-twentieth century, Native Americans had consistently been tied to reductive and derogatory depictions in American collective cultural discourses that has tied stereotypes of so-called “Indians” to inherently-racial traits such as savagery, depravity, and violence. This study not only shows that these assertions from a settler population, and their descendants, has been falsely (and thus unfairly) attributed to racialized notions of “Indianness,” but also provides a clear and consistent historical timeline that tracks these depictions across centuries and various forms of settler discourses

    Flood dynamics derived from video remote sensing

    Get PDF
    Flooding is by far the most pervasive natural hazard, with the human impacts of floods expected to worsen in the coming decades due to climate change. Hydraulic models are a key tool for understanding flood dynamics and play a pivotal role in unravelling the processes that occur during a flood event, including inundation flow patterns and velocities. In the realm of river basin dynamics, video remote sensing is emerging as a transformative tool that can offer insights into flow dynamics and thus, together with other remotely sensed data, has the potential to be deployed to estimate discharge. Moreover, the integration of video remote sensing data with hydraulic models offers a pivotal opportunity to enhance the predictive capacity of these models. Hydraulic models are traditionally built with accurate terrain, flow and bathymetric data and are often calibrated and validated using observed data to obtain meaningful and actionable model predictions. Data for accurately calibrating and validating hydraulic models are not always available, leaving the assessment of the predictive capabilities of some models deployed in flood risk management in question. Recent advances in remote sensing have heralded the availability of vast video datasets of high resolution. The parallel evolution of computing capabilities, coupled with advancements in artificial intelligence are enabling the processing of data at unprecedented scales and complexities, allowing us to glean meaningful insights into datasets that can be integrated with hydraulic models. The aims of the research presented in this thesis were twofold. The first aim was to evaluate and explore the potential applications of video from air- and space-borne platforms to comprehensively calibrate and validate two-dimensional hydraulic models. The second aim was to estimate river discharge using satellite video combined with high resolution topographic data. In the first of three empirical chapters, non-intrusive image velocimetry techniques were employed to estimate river surface velocities in a rural catchment. For the first time, a 2D hydraulicvmodel was fully calibrated and validated using velocities derived from Unpiloted Aerial Vehicle (UAV) image velocimetry approaches. This highlighted the value of these data in mitigating the limitations associated with traditional data sources used in parameterizing two-dimensional hydraulic models. This finding inspired the subsequent chapter where river surface velocities, derived using Large Scale Particle Image Velocimetry (LSPIV), and flood extents, derived using deep neural network-based segmentation, were extracted from satellite video and used to rigorously assess the skill of a two-dimensional hydraulic model. Harnessing the ability of deep neural networks to learn complex features and deliver accurate and contextually informed flood segmentation, the potential value of satellite video for validating two dimensional hydraulic model simulations is exhibited. In the final empirical chapter, the convergence of satellite video imagery and high-resolution topographical data bridges the gap between visual observations and quantitative measurements by enabling the direct extraction of velocities from video imagery, which is used to estimate river discharge. Overall, this thesis demonstrates the significant potential of emerging video-based remote sensing datasets and offers approaches for integrating these data into hydraulic modelling and discharge estimation practice. The incorporation of LSPIV techniques into flood modelling workflows signifies a methodological progression, especially in areas lacking robust data collection infrastructure. Satellite video remote sensing heralds a major step forward in our ability to observe river dynamics in real time, with potentially significant implications in the domain of flood modelling science

    Roles of the ubiquitin ligase complex CRL5Ozz and its substrate Alix in skeletal muscle

    Get PDF

    Exploring missing heritability in neurodevelopmental disorders:Learning from regulatory elements

    Get PDF

    Membrane chromatography - high throughput screening and simulative process develoopment

    Get PDF
    Die in dieser Dissertation durchgeführten Untersuchungen liefern einen Beitrag im Bereich der biopharmazeutischen Prozessentwicklung und Produktion, im Speziellen für die chromatographische Aufreinigung. Bedingt durch die weltweite SARS-CoV-2 Pandemie stand die biopharmazeutische Industrie im Mittelpunkt des Medieninteresses. Dies führte zu einer öffentlichen Diskussion der Entwicklung und Herstellung von biopharmazeutischen Produkten. Aufgrund des dringlich benötigten Impfstoffes sind auch die benötigten Prozessentwicklungszeiten dieses erörtert worden. Die schnelle Bereitstellung eines wirksamen Arzneimittels bzw. Impfstoffes unter Einhaltung der behördlichen Anforderungen erfordert eine modernisierte und effizientere Entwicklung. Hierbei birgt eine einseitige Fokussierung auf die reine Reduktion der Entwicklungszeit eines Prozesses jedoch Nachteile und Risiken. Die Effizienzsteigerungspotentiale ergeben sich vor allem aus Wissensmanagement bei der Übertragung von bekannten Prozessentwicklungen wodurch Neuentwicklungen durch vorhandenes Wissen beschleunigt werden können. Des Weiteren besteht das Risiko bei eine reinen Zeitfokussierung, dass neuer/alternativer Herstellungsverfahren vernachlässigt werden und die langfristige Wettbewerbsfähigkeit nicht gegeben ist. Im Allgemeinen ist der pharmazeutische Aufreinigungsprozess in den vorgelagerten Upstream- (USP) und den daran angeschlossenen Downstream Prozess (DSP) unterteilt. Der USP verfolgt den optimalen Zellklon bzw. die optimalen Zellproduktionsbedingungen, wodurch eine stabile und hohe Produktivität erreicht wird. Im Gegensatz konzentriert sich das DSP auf die Produkt- und die Verunreinigungsprofile mit dem Ziel, eine hohe Reinheit und Ausbeute des Produktes zu erhalten. Aufgrund des hohen Standardisierungsgrades und der verfügbaren Informationen eignet sich die Herstellung von monoklonalen Antikörpern als Beispiel für einen Plattformprozess. Dieser Prozess umfasst im UPS die Vorbereitung von Kulturen und Zellen sowie die Herstellung des Wirkstoffes in einem Fermenter. Anschließend erfolgt die Aufreinigung des Produktes im DSP durch die Zellabtrennung, zwei bis drei Chromatographieschritte, Virusinaktivierung und einen eventuellen Pufferaustausch. Dem angeschlossen folgt die Virus- und Sterilfiltration in Vorbereitung auf die Abfüllung. Das derzeitige Verfahren in der chromatographischen Prozessentwicklung ermöglicht den Maßstabstransfer vom Labor zur Produktion durch verschiedene Ansätze. Diese Ansätze beruhen auf experimentellen Informationen, Expertenwissen sowie mechanistischer und/oder statistischer Modellierung. Die Prozessentwicklung gliedert sich in eine erste statische Untersuchung, eine detailliertere dynamische Leistungsuntersuchung und Experimente. Das grundsätzliche Ziel ist eine erfolgreiche Ergebnisübertragung in den Produktionsmaßstab. In frühen Entwicklungsstadien stehen der Prozessentwicklung meist nur sehr geringe Mengen des potenziellen Wirkstoffes zur Verfügung. Dementsprechend werden die statischen Untersuchungen entweder manuell oder durch robotergestützte Pipettierschritte im Kleinstmaßstab durchgeführt. Dem angeschlossen werden in Performance-Untersuchungen die ersten dynamischen Effekte ermittelt, typischerweise in automatisierten Robotersäulen im Mikrolitermaßstab. Bei ausreichender Verfügbarkeit werden detaillierte Experimente im Milliliter-Maßstab mit Flüssigchromatographie-Systemen im Labormaßstab durchgeführt. Die Laborsysteme weisen bereits einen mit der Produktion vergleichbaren Automatisierungsgrad auf. Dementsprechend bieten die detaillierten Experimente in der Regel die Grundlage für den Transfer in den Pilot- oder Produktionsmaßstab. In aktuellen Studien wird der Entwicklungsprozess häufig durch mechanistische Modellierung (MM) unterstützt. Das Ziel dieser Arbeiten ist eine theoretische Repräsentation des betrachteten Schrittes unter Bildung eines digitalen Zwillings. MM bietet die Möglichkeit, zusätzliche Informationen über Eingangsstoffe, stationäre Phasen, Geräte und Prozessführungen zu generieren. Auf diese Weise könnte MM die heute bekannten Prozessentwicklungsansätze miteinander verbinden, zusammenfassen und eine lebende Prozessbibliothek schaffen. Eine solche Bibliothek könnte das Wissen aus verschiedenen Prozessen bündeln und auf neue Fragestellung übertragen. Durch eine solche Transferleistung würden sich Zeit- und Kostenaufwand reduzieren. Die Entwicklung einer lebendigen Prozessbibliothek erfordert gleiche Untersuchungsansätze für alle stationären Phasen. Aufgrund der historischen Entwicklung besteht ein Ungleichgewicht zwischen partikulären/harzbasierter basiert Chromatographie und anderen stationären Phasen. Diese zumeist relativ neuen stationären Phasen werden nur selten für neue experimentelle Aufbauten, Prozessführungen und mechanistischen Modellierungsansätzen diskutiert. In der vorliegenden Arbeit wird ein monoklonaler Antikörper-Aufreinigungsprozess zur Aggregatabtrennung untersucht. Hierbei wird zunächst die Angleichung der Prozessentwicklungsmethoden zwischen diffusiven harzbasierten- und konvektiven Membranadsorbern (MA) als stationäre Phasen angestrebt. Dafür wird zunächst ein Aufbau für ein Hochdurchsatz-Screening entwickelt und mittels mechanistischer Modellierung die Ausarbeitung eines digitalen Zwillings angestrebt. In vier maßgeblichen Fallstudien werden die unterschiedlichen Prozessentwicklungsansätze für konvektive stationäre Phasen an jene der partikulären Chromatographie angeglichen. Hierbei werden folgende Bereiche untersucht: Bestimmung des Prozessparameterbereichs, Einbeziehung neuer Prozessführungen, Vergleichbarkeit unterschiedlicher stationärer Phasen und Skalierbarkeit. Für die Untersuchung konvektiver stationärer Phasen wie MA, welche typischerweise einen hohen Stofftransport und geringen Druckverlust im Modul aufweisen, wurde ein HTS Modul im Kleinstmaßstab für eine skalierbare Prozessentwicklung entwickelt. Die Untersuchung fokussierte sich auf die Entfernung von Aggregaten aus einer fermentierten monoklonalen Antikörperlösung. Die erste Fallstudie untersucht die experimentelle Anwendung des entwickelten HTS-Aufbaus und -Moduls. Hierbei werden der klassische Bindungs- und Elutionsmodus unter Variation des pH-Wertes und der Salzkonzentration angewendet. Dadurch lassen sich die Prozessfenster für die untersuchten Ionenaustausch-MA Sartobind® S und Q ermitteln. Des Weiteren wird mit Hilfe mechanistischer Modellbildung ein digitaler Zwilling erarbeitet. Die erhaltenen Ergebnisse bestätigen den erfolgreichen HTS-Aufbau und den entwickelten digitalen Zwilling. Im Ergebnisvergleich mit einer flüssigchromatographiebasierten Systemauftrennung zeigte der digitale Zwilling eine Signalübereinstimmung von über 80%. Des Weiteren wird für eine Maßstabsübertragung eines 0.42 mL Moduls auf ein 800 mL Modul eine Vorhersagegenauigkeit der dynamischen Durchbruchskonzentration von 90 % erzielt. Im Rahmen der Angleichung von konvektiven zu harzbasierten stationären Phasen ist in der zweiten Fallstudie die Abbildbarkeit von neuen Prozessführungen untersucht worden. Unterstützt durch mechanistische Modellierung wurden zwei verschiedene Trennungen auf kompetitive Adsorption untersucht. Darauf aufbauend wurde ein neuartiges HTS-Screeningmethode entwickelt. Dieses Verfahren ermöglicht die Bestimmung von Verdrängungseffekten durch kompetitive Adsorption und liefert Schlüsselgrößen zur Identifizierung dieser. Die Untersuchungsmethode wird Überladungs- und Elutionsverfahren (overload and elute mode, OBE) genannt und ebenfalls in der Aggregatabtrennung mit Sartobind® S untersucht. Basierend auf der im HTS angewandten OBE-Methode lassen sich sowohl klassische als auch dynamische Effekte bestimmen. Die Einführung des Verdrängungsidentifikators (displacement identifier, DI) ermöglicht eine Visualisierung von Verdrängungseffekten in einer Prozessparameterkarte. Auf Grundlage dieser Ergebnisse werden die Verdrängungseffekte in einem Recyclingexperiment angewendet. Dieses Recyclingexperiment weist durch die Ausnutzung der Verdrängungseffekte eine 45 % Reduktion der IgG- und 88 % höher Aggregatbindungskapazität im Vergleich mit einem einfachen FT-Prozess auf. Die zuvor angeführten Arbeiten haben die Unterschiede zwischen harzbasierten und konvektiven stationären Phasen reduziert. Dementsprechend erfolgten in der dritten Fallstudie die Untersuchung und der Vergleich von unterschiedlichen stationären Phasen. Hierbei wird eine Strategie zur Bewertung verschiedener Kombinationen von stationären Phasen, deren Grundgerüsten und Liganden, vorgestellt. Diese Strategie gewährleistet für die Erstellung einer Lebenden Prozessentwicklungsbibliothek die Untersuchung und Auswahl von passenden stationären Phasen. In dieser Fallstudie werden entwickelte Strategien an neuartigen MA behandelt, welche verschiedene chromatographische Effekte kombinieren (Mixed Mode, MiMo). Die Strategie beinhaltet theoretische Überlegungen sowie Untersuchungen der optimalen stationären Phasen hinsichtlich ihrer Selektivität und Bindungskapazität. Anhand der theoretischen Überlegungen lässt sich der experimentelle Raum, die möglichen Kombinationen aus stationären Phasen, deren Grundgerüst und Liganden reduzieren. Dafür wird jeder potenzielle MiMo MA Kandidat auf sein Potential zur Reduktion von Aggregaten in einer mAb Lösung untersucht und mit der Leistung der harzbasierten stationären Phase Capto™ Adhere verglichen. Die vorgestellte Strategie reduziert in einem frühem Untersuchungszeitpunkt die Reduktion von drei auf zwei mögliche stationäre Phasen reduzieren. Unter Berücksichtigung des untersuchten Einflusses der Ionenkapazität lässt sich ein finaler Kandidat ermitteln. Hierbei zeigt der Kandidat eine um 2 bis 3 Membranvolumen höhere Bindungskapazität als die Referenz Capto™ Adhere. Unter Verwendung der vorgestellten Strategie und Einbindung in eine Lebende Prozessbibliothek lassen sich zeiteffizient optimale stationäre Phasen identifizieren. Komplettiert wird die Arbeit in der letzten Fallstudie durch eine anwenderorientierte Maßstabsübertragung mittels mechanistischer Modellierung. Diese Arbeit beschreibt die typischen Modellierungsschritte mit Fokus auf der Maßstabsübertragung. Hierbei wird in der fluiddynamischen Beschreibung im Speziellen auf die Untersuchung und Optimierung von verschiedenen Modulen und deren Maßstabsübertragung eingegangen. Abweichend von der klassischen Isothermen-Parameterbestimmung werden historische HTS Daten verwendet, um die Isothermen-Parameter abzuschätzen. Dieses Vorgehen ermöglich in einem Lebenden Bibliotheksansatz die Inklusion von historischen Daten. Abgeschlossen wird die Fallstudie durch die Maßstabsübertrag eines axial durchströmten 0,46 mL HTS-Moduls zu einem 150 mL radial durchströmten Modul im Pilotmaßstab. Abschließend liefert diese Arbeit ein Verfahren zur Optimierung der Prozessentwicklung. Die verschiedenen Ansätze der Prozessentwicklung können in einem Lebenden Bibliothekansatz zusammengeführt werden. Dieser Bibliothekansatz umfasst Expertenwissen, Experimente sowie statistische und mechanistische Modellierung. In diesem Bestreben wurden zwischen harzbasierten und konvektiven stationären Phasen gleiche Wettbewerbsbedingungen geschaffen. Diese Vergleichbarkeit ermöglicht eine direkte Auswahl der stationären Phasen für eine bestimmte Trennaufgabe. Die anwenderorientierte Maßstabsübertragung bietet einen Leitfaden, wie durch mechanistische Modellierung die unterschiedlichen Prozessentwicklungsansätze zusammengeführt werden können. In dieser Arbeit zeigt die mechanistische Modellierung, wie der Prozessentwicklungsprozess abgebildet, transferiert, konserviert und standardisiert werden kann. Dadurch entsteht ein kohärentes und übertragbares Verfahren zur Verfügung, wodurch die anstehenden Herausforderungen in der Prozessentwicklung überwunden werden können

    IMoG -- a methodology for modeling future microelectronic innovations

    Full text link
    [Context and motivation] The automotive industry is currently undergoing a fundamental transformation towards software defined vehicles. The automotive market of the future demands a higher level of automation, electrification of the power train, and individually configurable comfort functions. [Question/problem] These demands pose a challenge to the automotive development cycle, because they introduce complexity by larger and not yet well explored design spaces that are difficult to manage. [Principal ideas/results] To cope with these challenges, the main players along the value chain have an increased interest in collaborating and aligning their development efforts along joint roadmaps. Roadmap development can be viewed as a field of requirements engineering with the goal to capture product aspects on an appropriate level of abstraction to speed up investment decisions, reduce communication overhead and parallelize development activities, while complying with competition laws. [Contribution] In this paper, we present a refinement of the "Innovation Modeling Grid" (IMoG), which encompasses a methodology, a process and a proposed notation to support joint analysis of development roadmaps. IMoG is focused on the automotive domain, yet there are clear potentials for other applications.Comment: 15 pages, 7 figure

    Cryo-EM structure of the fully assembled elongator complex

    Get PDF
    Transfer RNA (tRNA) molecules are essential to decode messenger RNA codons during protein synthesis. All known tRNAs are heavily modified at multiple positions through post-transcriptional addition of chemical groups. Modifications in the tRNA anticodons are directly influencing ribosome decoding and dynamics during translation elongation and are crucial for maintaining proteome integrity. In eukaryotes, wobble uridines are modified by Elongator, a large and highly conserved macromolecular complex. Elongator consists of two subcomplexes, namely Elp123 containing the enzymatically active Elp3 subunit and the associated Elp456 hetero-hexamer. The structure of the fully assembled complex and the function of the Elp456 subcomplex have remained elusive. Here, we show the cryo-electron microscopy structure of yeast Elongator at an overall resolution of 4.3 Å. We validate the obtained structure by complementary mutational analyses in vitro and in vivo. In addition, we determined various structures of the murine Elongator complex, including the fully assembled mouse Elongator complex at 5.9 Å resolution. Our results confirm the structural conservation of Elongator and its intermediates among eukaryotes. Furthermore, we complement our analyses with the biochemical characterization of the assembled human Elongator. Our results provide the molecular basis for the assembly of Elongator and its tRNA modification activity in eukaryotes
    corecore