2,758 research outputs found

    Membrane chromatography - high throughput screening and simulative process develoopment

    Get PDF
    Die in dieser Dissertation durchgeführten Untersuchungen liefern einen Beitrag im Bereich der biopharmazeutischen Prozessentwicklung und Produktion, im Speziellen für die chromatographische Aufreinigung. Bedingt durch die weltweite SARS-CoV-2 Pandemie stand die biopharmazeutische Industrie im Mittelpunkt des Medieninteresses. Dies führte zu einer öffentlichen Diskussion der Entwicklung und Herstellung von biopharmazeutischen Produkten. Aufgrund des dringlich benötigten Impfstoffes sind auch die benötigten Prozessentwicklungszeiten dieses erörtert worden. Die schnelle Bereitstellung eines wirksamen Arzneimittels bzw. Impfstoffes unter Einhaltung der behördlichen Anforderungen erfordert eine modernisierte und effizientere Entwicklung. Hierbei birgt eine einseitige Fokussierung auf die reine Reduktion der Entwicklungszeit eines Prozesses jedoch Nachteile und Risiken. Die Effizienzsteigerungspotentiale ergeben sich vor allem aus Wissensmanagement bei der Übertragung von bekannten Prozessentwicklungen wodurch Neuentwicklungen durch vorhandenes Wissen beschleunigt werden können. Des Weiteren besteht das Risiko bei eine reinen Zeitfokussierung, dass neuer/alternativer Herstellungsverfahren vernachlässigt werden und die langfristige Wettbewerbsfähigkeit nicht gegeben ist. Im Allgemeinen ist der pharmazeutische Aufreinigungsprozess in den vorgelagerten Upstream- (USP) und den daran angeschlossenen Downstream Prozess (DSP) unterteilt. Der USP verfolgt den optimalen Zellklon bzw. die optimalen Zellproduktionsbedingungen, wodurch eine stabile und hohe Produktivität erreicht wird. Im Gegensatz konzentriert sich das DSP auf die Produkt- und die Verunreinigungsprofile mit dem Ziel, eine hohe Reinheit und Ausbeute des Produktes zu erhalten. Aufgrund des hohen Standardisierungsgrades und der verfügbaren Informationen eignet sich die Herstellung von monoklonalen Antikörpern als Beispiel für einen Plattformprozess. Dieser Prozess umfasst im UPS die Vorbereitung von Kulturen und Zellen sowie die Herstellung des Wirkstoffes in einem Fermenter. Anschließend erfolgt die Aufreinigung des Produktes im DSP durch die Zellabtrennung, zwei bis drei Chromatographieschritte, Virusinaktivierung und einen eventuellen Pufferaustausch. Dem angeschlossen folgt die Virus- und Sterilfiltration in Vorbereitung auf die Abfüllung. Das derzeitige Verfahren in der chromatographischen Prozessentwicklung ermöglicht den Maßstabstransfer vom Labor zur Produktion durch verschiedene Ansätze. Diese Ansätze beruhen auf experimentellen Informationen, Expertenwissen sowie mechanistischer und/oder statistischer Modellierung. Die Prozessentwicklung gliedert sich in eine erste statische Untersuchung, eine detailliertere dynamische Leistungsuntersuchung und Experimente. Das grundsätzliche Ziel ist eine erfolgreiche Ergebnisübertragung in den Produktionsmaßstab. In frühen Entwicklungsstadien stehen der Prozessentwicklung meist nur sehr geringe Mengen des potenziellen Wirkstoffes zur Verfügung. Dementsprechend werden die statischen Untersuchungen entweder manuell oder durch robotergestützte Pipettierschritte im Kleinstmaßstab durchgeführt. Dem angeschlossen werden in Performance-Untersuchungen die ersten dynamischen Effekte ermittelt, typischerweise in automatisierten Robotersäulen im Mikrolitermaßstab. Bei ausreichender Verfügbarkeit werden detaillierte Experimente im Milliliter-Maßstab mit Flüssigchromatographie-Systemen im Labormaßstab durchgeführt. Die Laborsysteme weisen bereits einen mit der Produktion vergleichbaren Automatisierungsgrad auf. Dementsprechend bieten die detaillierten Experimente in der Regel die Grundlage für den Transfer in den Pilot- oder Produktionsmaßstab. In aktuellen Studien wird der Entwicklungsprozess häufig durch mechanistische Modellierung (MM) unterstützt. Das Ziel dieser Arbeiten ist eine theoretische Repräsentation des betrachteten Schrittes unter Bildung eines digitalen Zwillings. MM bietet die Möglichkeit, zusätzliche Informationen über Eingangsstoffe, stationäre Phasen, Geräte und Prozessführungen zu generieren. Auf diese Weise könnte MM die heute bekannten Prozessentwicklungsansätze miteinander verbinden, zusammenfassen und eine lebende Prozessbibliothek schaffen. Eine solche Bibliothek könnte das Wissen aus verschiedenen Prozessen bündeln und auf neue Fragestellung übertragen. Durch eine solche Transferleistung würden sich Zeit- und Kostenaufwand reduzieren. Die Entwicklung einer lebendigen Prozessbibliothek erfordert gleiche Untersuchungsansätze für alle stationären Phasen. Aufgrund der historischen Entwicklung besteht ein Ungleichgewicht zwischen partikulären/harzbasierter basiert Chromatographie und anderen stationären Phasen. Diese zumeist relativ neuen stationären Phasen werden nur selten für neue experimentelle Aufbauten, Prozessführungen und mechanistischen Modellierungsansätzen diskutiert. In der vorliegenden Arbeit wird ein monoklonaler Antikörper-Aufreinigungsprozess zur Aggregatabtrennung untersucht. Hierbei wird zunächst die Angleichung der Prozessentwicklungsmethoden zwischen diffusiven harzbasierten- und konvektiven Membranadsorbern (MA) als stationäre Phasen angestrebt. Dafür wird zunächst ein Aufbau für ein Hochdurchsatz-Screening entwickelt und mittels mechanistischer Modellierung die Ausarbeitung eines digitalen Zwillings angestrebt. In vier maßgeblichen Fallstudien werden die unterschiedlichen Prozessentwicklungsansätze für konvektive stationäre Phasen an jene der partikulären Chromatographie angeglichen. Hierbei werden folgende Bereiche untersucht: Bestimmung des Prozessparameterbereichs, Einbeziehung neuer Prozessführungen, Vergleichbarkeit unterschiedlicher stationärer Phasen und Skalierbarkeit. Für die Untersuchung konvektiver stationärer Phasen wie MA, welche typischerweise einen hohen Stofftransport und geringen Druckverlust im Modul aufweisen, wurde ein HTS Modul im Kleinstmaßstab für eine skalierbare Prozessentwicklung entwickelt. Die Untersuchung fokussierte sich auf die Entfernung von Aggregaten aus einer fermentierten monoklonalen Antikörperlösung. Die erste Fallstudie untersucht die experimentelle Anwendung des entwickelten HTS-Aufbaus und -Moduls. Hierbei werden der klassische Bindungs- und Elutionsmodus unter Variation des pH-Wertes und der Salzkonzentration angewendet. Dadurch lassen sich die Prozessfenster für die untersuchten Ionenaustausch-MA Sartobind® S und Q ermitteln. Des Weiteren wird mit Hilfe mechanistischer Modellbildung ein digitaler Zwilling erarbeitet. Die erhaltenen Ergebnisse bestätigen den erfolgreichen HTS-Aufbau und den entwickelten digitalen Zwilling. Im Ergebnisvergleich mit einer flüssigchromatographiebasierten Systemauftrennung zeigte der digitale Zwilling eine Signalübereinstimmung von über 80%. Des Weiteren wird für eine Maßstabsübertragung eines 0.42 mL Moduls auf ein 800 mL Modul eine Vorhersagegenauigkeit der dynamischen Durchbruchskonzentration von 90 % erzielt. Im Rahmen der Angleichung von konvektiven zu harzbasierten stationären Phasen ist in der zweiten Fallstudie die Abbildbarkeit von neuen Prozessführungen untersucht worden. Unterstützt durch mechanistische Modellierung wurden zwei verschiedene Trennungen auf kompetitive Adsorption untersucht. Darauf aufbauend wurde ein neuartiges HTS-Screeningmethode entwickelt. Dieses Verfahren ermöglicht die Bestimmung von Verdrängungseffekten durch kompetitive Adsorption und liefert Schlüsselgrößen zur Identifizierung dieser. Die Untersuchungsmethode wird Überladungs- und Elutionsverfahren (overload and elute mode, OBE) genannt und ebenfalls in der Aggregatabtrennung mit Sartobind® S untersucht. Basierend auf der im HTS angewandten OBE-Methode lassen sich sowohl klassische als auch dynamische Effekte bestimmen. Die Einführung des Verdrängungsidentifikators (displacement identifier, DI) ermöglicht eine Visualisierung von Verdrängungseffekten in einer Prozessparameterkarte. Auf Grundlage dieser Ergebnisse werden die Verdrängungseffekte in einem Recyclingexperiment angewendet. Dieses Recyclingexperiment weist durch die Ausnutzung der Verdrängungseffekte eine 45 % Reduktion der IgG- und 88 % höher Aggregatbindungskapazität im Vergleich mit einem einfachen FT-Prozess auf. Die zuvor angeführten Arbeiten haben die Unterschiede zwischen harzbasierten und konvektiven stationären Phasen reduziert. Dementsprechend erfolgten in der dritten Fallstudie die Untersuchung und der Vergleich von unterschiedlichen stationären Phasen. Hierbei wird eine Strategie zur Bewertung verschiedener Kombinationen von stationären Phasen, deren Grundgerüsten und Liganden, vorgestellt. Diese Strategie gewährleistet für die Erstellung einer Lebenden Prozessentwicklungsbibliothek die Untersuchung und Auswahl von passenden stationären Phasen. In dieser Fallstudie werden entwickelte Strategien an neuartigen MA behandelt, welche verschiedene chromatographische Effekte kombinieren (Mixed Mode, MiMo). Die Strategie beinhaltet theoretische Überlegungen sowie Untersuchungen der optimalen stationären Phasen hinsichtlich ihrer Selektivität und Bindungskapazität. Anhand der theoretischen Überlegungen lässt sich der experimentelle Raum, die möglichen Kombinationen aus stationären Phasen, deren Grundgerüst und Liganden reduzieren. Dafür wird jeder potenzielle MiMo MA Kandidat auf sein Potential zur Reduktion von Aggregaten in einer mAb Lösung untersucht und mit der Leistung der harzbasierten stationären Phase Capto™ Adhere verglichen. Die vorgestellte Strategie reduziert in einem frühem Untersuchungszeitpunkt die Reduktion von drei auf zwei mögliche stationäre Phasen reduzieren. Unter Berücksichtigung des untersuchten Einflusses der Ionenkapazität lässt sich ein finaler Kandidat ermitteln. Hierbei zeigt der Kandidat eine um 2 bis 3 Membranvolumen höhere Bindungskapazität als die Referenz Capto™ Adhere. Unter Verwendung der vorgestellten Strategie und Einbindung in eine Lebende Prozessbibliothek lassen sich zeiteffizient optimale stationäre Phasen identifizieren. Komplettiert wird die Arbeit in der letzten Fallstudie durch eine anwenderorientierte Maßstabsübertragung mittels mechanistischer Modellierung. Diese Arbeit beschreibt die typischen Modellierungsschritte mit Fokus auf der Maßstabsübertragung. Hierbei wird in der fluiddynamischen Beschreibung im Speziellen auf die Untersuchung und Optimierung von verschiedenen Modulen und deren Maßstabsübertragung eingegangen. Abweichend von der klassischen Isothermen-Parameterbestimmung werden historische HTS Daten verwendet, um die Isothermen-Parameter abzuschätzen. Dieses Vorgehen ermöglich in einem Lebenden Bibliotheksansatz die Inklusion von historischen Daten. Abgeschlossen wird die Fallstudie durch die Maßstabsübertrag eines axial durchströmten 0,46 mL HTS-Moduls zu einem 150 mL radial durchströmten Modul im Pilotmaßstab. Abschließend liefert diese Arbeit ein Verfahren zur Optimierung der Prozessentwicklung. Die verschiedenen Ansätze der Prozessentwicklung können in einem Lebenden Bibliothekansatz zusammengeführt werden. Dieser Bibliothekansatz umfasst Expertenwissen, Experimente sowie statistische und mechanistische Modellierung. In diesem Bestreben wurden zwischen harzbasierten und konvektiven stationären Phasen gleiche Wettbewerbsbedingungen geschaffen. Diese Vergleichbarkeit ermöglicht eine direkte Auswahl der stationären Phasen für eine bestimmte Trennaufgabe. Die anwenderorientierte Maßstabsübertragung bietet einen Leitfaden, wie durch mechanistische Modellierung die unterschiedlichen Prozessentwicklungsansätze zusammengeführt werden können. In dieser Arbeit zeigt die mechanistische Modellierung, wie der Prozessentwicklungsprozess abgebildet, transferiert, konserviert und standardisiert werden kann. Dadurch entsteht ein kohärentes und übertragbares Verfahren zur Verfügung, wodurch die anstehenden Herausforderungen in der Prozessentwicklung überwunden werden können

    LIPIcs, Volume 251, ITCS 2023, Complete Volume

    Get PDF
    LIPIcs, Volume 251, ITCS 2023, Complete Volum

    Exploration autonome et efficiente de chantiers miniers souterrains inconnus avec un drone filaire

    Get PDF
    Abstract: Underground mining stopes are often mapped using a sensor located at the end of a pole that the operator introduces into the stope from a secure area. The sensor emits laser beams that provide the distance to a detected wall, thus creating a 3D map. This produces shadow zones and a low point density on the distant walls. To address these challenges, a research team from the Université de Sherbrooke is designing a tethered drone equipped with a rotating LiDAR for this mission, thus benefiting from several points of view. The wired transmission allows for unlimited flight time, shared computing, and real-time communication. For compatibility with the movement of the drone after tether entanglements, the excess length is integrated into an onboard spool, contributing to the drone payload. During manual piloting, the human factor causes problems in the perception and comprehension of a virtual 3D environment, as well as the execution of an optimal mission. This thesis focuses on autonomous navigation in two aspects: path planning and exploration. The system must compute a trajectory that maps the entire environment, minimizing the mission time and respecting the maximum onboard tether length. Path planning using a Rapidly-exploring Random Tree (RRT) quickly finds a feasible path, but the optimization is computationally expensive and the performance is variable and unpredictable. Exploration by the frontier method is representative of the space to be explored and the path can be optimized by solving a Traveling Salesman Problem (TSP) but existing techniques for a tethered drone only consider the 2D case and do not optimize the global path. To meet these challenges, this thesis presents two new algorithms. The first one, RRT-Rope, produces an equal or shorter path than existing algorithms in a significantly shorter computation time, up to 70% faster than the next best algorithm in a representative environment. A modified version of RRT-connect computes a feasible path, shortened with a deterministic technique that takes advantage of previously added intermediate nodes. The second algorithm, TAPE, is the first 3D cavity exploration method that focuses on minimizing mission time and unwound tether length. On average, the overall path is 4% longer than the method that solves the TSP, but the tether remains under the allowed length in 100% of the simulated cases, compared to 53% with the initial method. The approach uses a 2-level hierarchical architecture: global planning solves a TSP after frontier extraction, and local planning minimizes the path cost and tether length via a decision function. The integration of these two tools in the NetherDrone produces an intelligent system for autonomous exploration, with semi-autonomous features for operator interaction. This work opens the door to new navigation approaches in the field of inspection, mapping, and Search and Rescue missions.La cartographie des chantiers miniers souterrains est souvent réalisée à l’aide d’un capteur situé au bout d’une perche que l’opérateur introduit dans le chantier, depuis une zone sécurisée. Le capteur émet des faisceaux laser qui fournissent la distance à un mur détecté, créant ainsi une carte en 3D. Ceci produit des zones d’ombres et une faible densité de points sur les parois éloignées. Pour relever ces défis, une équipe de recherche de l’Université de Sherbrooke conçoit un drone filaire équipé d’un LiDAR rotatif pour cette mission, bénéficiant ainsi de plusieurs points de vue. La transmission filaire permet un temps de vol illimité, un partage de calcul et une communication en temps réel. Pour une compatibilité avec le mouvement du drone lors des coincements du fil, la longueur excédante est intégrée dans une bobine embarquée, qui contribue à la charge utile du drone. Lors d’un pilotage manuel, le facteur humain entraîne des problèmes de perception et compréhension d’un environnement 3D virtuel, et d’exécution d’une mission optimale. Cette thèse se concentre sur la navigation autonome sous deux aspects : la planification de trajectoire et l’exploration. Le système doit calculer une trajectoire qui cartographie l’environnement complet, en minimisant le temps de mission et en respectant la longueur maximale de fil embarquée. La planification de trajectoire à l’aide d’un Rapidly-exploring Random Tree (RRT) trouve rapidement un chemin réalisable, mais l’optimisation est coûteuse en calcul et la performance est variable et imprévisible. L’exploration par la méthode des frontières est représentative de l’espace à explorer et le chemin peut être optimisé en résolvant un Traveling Salesman Problem (TSP), mais les techniques existantes pour un drone filaire ne considèrent que le cas 2D et n’optimisent pas le chemin global. Pour relever ces défis, cette thèse présente deux nouveaux algorithmes. Le premier, RRT-Rope, produit un chemin égal ou plus court que les algorithmes existants en un temps de calcul jusqu’à 70% plus court que le deuxième meilleur algorithme dans un environnement représentatif. Une version modifiée de RRT-connect calcule un chemin réalisable, raccourci avec une technique déterministe qui tire profit des noeuds intermédiaires préalablement ajoutés. Le deuxième algorithme, TAPE, est la première méthode d’exploration de cavités en 3D qui minimise le temps de mission et la longueur du fil déroulé. En moyenne, le trajet global est 4% plus long que la méthode qui résout le TSP, mais le fil reste sous la longueur autorisée dans 100% des cas simulés, contre 53% avec la méthode initiale. L’approche utilise une architecture hiérarchique à 2 niveaux : la planification globale résout un TSP après extraction des frontières, et la planification locale minimise le coût du chemin et la longueur de fil via une fonction de décision. L’intégration de ces deux outils dans le NetherDrone produit un système intelligent pour l’exploration autonome, doté de fonctionnalités semi-autonomes pour une interaction avec l’opérateur. Les travaux réalisés ouvrent la porte à de nouvelles approches de navigation dans le domaine des missions d’inspection, de cartographie et de recherche et sauvetage

    Advances and Applications of DSmT for Information Fusion. Collected Works, Volume 5

    Get PDF
    This fifth volume on Advances and Applications of DSmT for Information Fusion collects theoretical and applied contributions of researchers working in different fields of applications and in mathematics, and is available in open-access. The collected contributions of this volume have either been published or presented after disseminating the fourth volume in 2015 in international conferences, seminars, workshops and journals, or they are new. The contributions of each part of this volume are chronologically ordered. First Part of this book presents some theoretical advances on DSmT, dealing mainly with modified Proportional Conflict Redistribution Rules (PCR) of combination with degree of intersection, coarsening techniques, interval calculus for PCR thanks to set inversion via interval analysis (SIVIA), rough set classifiers, canonical decomposition of dichotomous belief functions, fast PCR fusion, fast inter-criteria analysis with PCR, and improved PCR5 and PCR6 rules preserving the (quasi-)neutrality of (quasi-)vacuous belief assignment in the fusion of sources of evidence with their Matlab codes. Because more applications of DSmT have emerged in the past years since the apparition of the fourth book of DSmT in 2015, the second part of this volume is about selected applications of DSmT mainly in building change detection, object recognition, quality of data association in tracking, perception in robotics, risk assessment for torrent protection and multi-criteria decision-making, multi-modal image fusion, coarsening techniques, recommender system, levee characterization and assessment, human heading perception, trust assessment, robotics, biometrics, failure detection, GPS systems, inter-criteria analysis, group decision, human activity recognition, storm prediction, data association for autonomous vehicles, identification of maritime vessels, fusion of support vector machines (SVM), Silx-Furtif RUST code library for information fusion including PCR rules, and network for ship classification. Finally, the third part presents interesting contributions related to belief functions in general published or presented along the years since 2015. These contributions are related with decision-making under uncertainty, belief approximations, probability transformations, new distances between belief functions, non-classical multi-criteria decision-making problems with belief functions, generalization of Bayes theorem, image processing, data association, entropy and cross-entropy measures, fuzzy evidence numbers, negator of belief mass, human activity recognition, information fusion for breast cancer therapy, imbalanced data classification, and hybrid techniques mixing deep learning with belief functions as well

    Optimising inertial focusing for high concentration processing : application to microalgal dewatering

    Get PDF
    This project focuses on addressing some of the key challenges currently found within the field of inertial focusing microfluidics. A specific goal was to determine the potential of inertial focusing for use as an alternative to existing harvesting technology for the dewatering of microalgal cultures. This application was investigated to address the challenges faced by existing dewatering technology, due to the dilute nature of the cultures and the challenges faced specifically in the separation of the small diameter cells. Inertial focusing microfluidics has shown success relating to the high efficiency concentration of small diameter particles but requires further improvement in its application to cell suspensions in place of rigid particles and over higher concentration samples, where performance is seen to degrade. These factors would act to inhibit potential application to microalgal harvest and it is these challenges that are the focus of this project. The work within the project has achieved successful separation, >95% recovery efficiency, of small microalgal cells (<10 µm) for standard, dilute, culture concentrations using a spiral inertial focusing microfluidic device. This result shows that inertial focusing technology can be used for the low concentration separation of small cell diameter microalgal cultures, where existing harvesting technologies incur challenges, while maintaining the high efficiencies seen when using uniform and rigid particles. A new method for operation of the inertial focusing microfluidic devices was developed, enabling application of the devices to the concentration of microalgal culture from dilute to high concentrations (0.5% to >48.8% v/v). This work achieved concentration factors and power consumption values similar to existing harvesting methods, 130 and 1.1 kWh/m3 respectively. It was also determined that any processing in the inertial focusing microfluidic devices tested resulted in reduced cell propagation, indicating cell damage, with the resulting cell damage being amplified by recirculation within the devices. This shows that further investigation into the effect of processing using these inertial focusing microfluidic devices on cell health is required to investigate the potential scope for application within microalgal processing. In addition to these results, current limitations in the manufacturing methods for inertial focusing devices were identified and an improved method for the in-house, low-cost rapid prototyping of spiral inertial focusing microfluidic device developed and tested within this project. This method was shown to produce spiral inertial focusing devices able to survive the required operational back pressures of >25 bar. Subsequent testing of these manufactured devices showed successful separation of microalgal cultures, achieving >95% recovery efficiency. This result showed successful application of the developed method. However, it was also shown that this method requires further development for successful application to small, <10 µm, microalgae through reduction of channel height

    Evaluation Methodologies in Software Protection Research

    Full text link
    Man-at-the-end (MATE) attackers have full control over the system on which the attacked software runs, and try to break the confidentiality or integrity of assets embedded in the software. Both companies and malware authors want to prevent such attacks. This has driven an arms race between attackers and defenders, resulting in a plethora of different protection and analysis methods. However, it remains difficult to measure the strength of protections because MATE attackers can reach their goals in many different ways and a universally accepted evaluation methodology does not exist. This survey systematically reviews the evaluation methodologies of papers on obfuscation, a major class of protections against MATE attacks. For 572 papers, we collected 113 aspects of their evaluation methodologies, ranging from sample set types and sizes, over sample treatment, to performed measurements. We provide detailed insights into how the academic state of the art evaluates both the protections and analyses thereon. In summary, there is a clear need for better evaluation methodologies. We identify nine challenges for software protection evaluations, which represent threats to the validity, reproducibility, and interpretation of research results in the context of MATE attacks

    Synthetic Aperture Radar (SAR) Meets Deep Learning

    Get PDF
    This reprint focuses on the application of the combination of synthetic aperture radars and depth learning technology. It aims to further promote the development of SAR image intelligent interpretation technology. A synthetic aperture radar (SAR) is an important active microwave imaging sensor, whose all-day and all-weather working capacity give it an important place in the remote sensing community. Since the United States launched the first SAR satellite, SAR has received much attention in the remote sensing community, e.g., in geological exploration, topographic mapping, disaster forecast, and traffic monitoring. It is valuable and meaningful, therefore, to study SAR-based remote sensing applications. In recent years, deep learning represented by convolution neural networks has promoted significant progress in the computer vision community, e.g., in face recognition, the driverless field and Internet of things (IoT). Deep learning can enable computational models with multiple processing layers to learn data representations with multiple-level abstractions. This can greatly improve the performance of various applications. This reprint provides a platform for researchers to handle the above significant challenges and present their innovative and cutting-edge research results when applying deep learning to SAR in various manuscript types, e.g., articles, letters, reviews and technical reports

    Modern meat: the next generation of meat from cells

    Get PDF
    Modern Meat is the first textbook on cultivated meat, with contributions from over 100 experts within the cultivated meat community. The Sections of Modern Meat comprise 5 broad categories of cultivated meat: Context, Impact, Science, Society, and World. The 19 chapters of Modern Meat, spread across these 5 sections, provide detailed entries on cultivated meat. They extensively tour a range of topics including the impact of cultivated meat on humans and animals, the bioprocess of cultivated meat production, how cultivated meat may become a food option in Space and on Mars, and how cultivated meat may impact the economy, culture, and tradition of Asia

    Chromosome rearrangements and population genomics

    Get PDF
    Chromosome rearrangements result in changes to the physical linkage and order of sequences in the genome. Although we have known about these mutations for more than a century, we still lack a detailed understanding of how they become fixed and what their effect is on other evolutionary processes. Analysing genome sequences provides a way to address this knowledge gap. In this thesis I compare genome assemblies and use population genomic inference to gain a better understanding of the role that chromosome rearrangements play in evolution. I focus on butterflies in the genus Brenthis, where chromosome numbers are known to vary between species. In chapter 2, I present a genome assembly of Brenthis ino and show that its genome has been shaped by many chromosome rearrangements, including a Z-autosome fusion that is still segregating. In chapter 3, I investigate how synteny information in genome sequences can be used to infer ancestral linkage groups and inter-chromosomal rearrangements, implementing the methods in a command-line tool. In chapter 4, I test whether chromosome fissions and fusions have acted as barriers to gene flow between B. ino and its sister species B. daphne. I find that chromosomes involved in rearrangements have experienced less post-divergence gene flow than the rest of the genome, suggesting that rearrangements have promoted speciation. Finally, in chapter 5, I investigate how chromosome rearrangements have become fixed in B. ino, B. daphne, and a third species, B. hecate. I show that genetic drift is unlikely to be a strong enough force to have fixed very underdominant rearrangements, and that there is only weak evidence that chromosome fusions have become fixed through positive natural selection. In summary, this work provides methods for researching chromosome evolution as well as new results about how rearrangements evolve and impact the speciation process
    corecore