6,601 research outputs found

    Machine Learning Approaches for Natural Resource Data

    Get PDF
    Abstract Real life applications involving efficient management of natural resources are dependent on accurate geographical information. This information is usually obtained by manual on-site data collection, via automatic remote sensing methods, or by the mixture of the two. Natural resource management, besides accurate data collection, also requires detailed analysis of this data, which in the era of data flood can be a cumbersome process. With the rising trend in both computational power and storage capacity, together with lowering hardware prices, data-driven decision analysis has an ever greater role. In this thesis, we examine the predictability of terrain trafficability conditions and forest attributes by using a machine learning approach with geographic information system data. Quantitative measures on the prediction performance of terrain conditions using natural resource data sets are given through five distinct research areas located around Finland. Furthermore, the estimation capability of key forest attributes is inspected with a multitude of modeling and feature selection techniques. The research results provide empirical evidence on whether the used natural resource data is sufficiently accurate enough for practical applications, or if further refinement on the data is needed. The results are important especially to forest industry since even slight improvements to the natural resource data sets utilized in practice can result in high saves in terms of operation time and costs. Model evaluation is also addressed in this thesis by proposing a novel method for estimating the prediction performance of spatial models. Classical model goodness of fit measures usually rely on the assumption of independently and identically distributed data samples, a characteristic which normally is not true in the case of spatial data sets. Spatio-temporal data sets contain an intrinsic property called spatial autocorrelation, which is partly responsible for breaking these assumptions. The proposed cross validation based evaluation method provides model performance estimation where optimistic bias due to spatial autocorrelation is decreased by partitioning the data sets in a suitable way. Keywords: Open natural resource data, machine learning, model evaluationTiivistelmä Käytännön sovellukset, joihin sisältyy luonnonvarojen hallintaa ovat riippuvaisia tarkasta paikkatietoaineistosta. Tämä paikkatietoaineisto kerätään usein manuaalisesti paikan päällä, automaattisilla kaukokartoitusmenetelmillä tai kahden edellisen yhdistelmällä. Luonnonvarojen hallinta vaatii tarkan aineiston keräämisen lisäksi myös sen yksityiskohtaisen analysoinnin, joka tietotulvan aikakautena voi olla vaativa prosessi. Nousevan laskentatehon, tallennustilan sekä alenevien laitteistohintojen myötä datapohjainen päätöksenteko on yhä suuremmassa roolissa. Tämä väitöskirja tutkii maaston kuljettavuuden ja metsäpiirteiden ennustettavuutta käyttäen koneoppimismenetelmiä paikkatietoaineistojen kanssa. Maaston kuljettavuuden ennustamista mitataan kvantitatiivisesti käyttäen kaukokartoitusaineistoa viideltä eri tutkimusalueelta ympäri Suomea. Tarkastelemme lisäksi tärkeimpien metsäpiirteiden ennustettavuutta monilla eri mallintamistekniikoilla ja piirteiden valinnalla. Väitöstyön tulokset tarjoavat empiiristä todistusaineistoa siitä, onko käytetty luonnonvaraaineisto riittävän laadukas käytettäväksi käytännön sovelluksissa vai ei. Tutkimustulokset ovat tärkeitä erityisesti metsäteollisuudelle, koska pienetkin parannukset luonnonvara-aineistoihin käytännön sovelluksissa voivat johtaa suuriin säästöihin niin operaatioiden ajankäyttöön kuin kuluihin. Tässä työssä otetaan kantaa myös mallin evaluointiin esittämällä uuden menetelmän spatiaalisten mallien ennustuskyvyn estimointiin. Klassiset mallinvalintakriteerit nojaavat yleensä riippumattomien ja identtisesti jakautuneiden datanäytteiden oletukseen, joka ei useimmiten pidä paikkaansa spatiaalisilla datajoukoilla. Spatio-temporaaliset datajoukot sisältävät luontaisen ominaisuuden, jota kutsutaan spatiaaliseksi autokorrelaatioksi. Tämä ominaisuus on osittain vastuussa näiden oletusten rikkomisesta. Esitetty ristiinvalidointiin perustuva evaluointimenetelmä tarjoaa mallin ennustuskyvyn mitan, missä spatiaalisen autokorrelaation vaikutusta vähennetään jakamalla datajoukot sopivalla tavalla. Avainsanat: Avoin luonnonvara-aineisto, koneoppiminen, mallin evaluoint

    Predicting Human Intestinal Absorption Using Chromatography and Spectroscopy

    Get PDF
    New drug entities (NDE) are constantly being developed with most of them intended for oral administration. For this reason, there is a need to estimate their absorption in order to save time and money that would be lost if the drug enters the clinical stage and is then found to exhibit poor absorption. For many years, the use of animals was the most abundant method for studying pharmacokinetics to predict parameters such as intestinal absorption. However, these methods are time consuming, and expensive as well as being ethically unfavourable. As a result, developing other methods to evaluate a drug’s pharmacokinetics is crucial. The aim of this work was to develop in vitro methods for estimation of human intestinal absorption (%HIA) to replace the use of the aforementioned, less favourable methods involving the use of animals. Among the developed methods in this thesis is a unique type of chromatography known as micellar liquid chromatography (MLC) using biosurfactants such as bile salts as a mobile phase. Furthermore, studies investigated the effect of a change in the stationary phase in addition to investigating the effect of the change in temperature on the elution of the analysed compounds. It was found that R2PRED for the developed MLC methods was in the range of 43.3 % - 91.12 %. Another developed method was a spectrophotometric method based on the use of the solubilising effects of bile salts, as well as their binding to compounds. Therefore, two spectrophotometric methods were developed, a solubilisation method and a double reciprocal method, and used in the prediction of %HIA. It was found that the solubilisation method had a better predictability for %HIA than that of the double reciprocal method where R2PRED was found to be 82.32 % and 61.90 % respectively. Finally, a permeation method was developed using the ability of NaDC to form a hydrogel under specific conditions and applying the investigated drugs in an infinite dose to the prepared hydrogels. This facilitated the determination of permeability coefficients (Kp) that were then used in the prediction of %HIA using the obtained model. The two developed permeation methods were found to have close values of R2PRED for % HIA where R2PRED of the permeation method using flow through cells was found to be 79.8 % while that of the permeation method using Franz cells was found to be 79.67 %. In summary, this work reports several unique models for the in vitro prediction of human intestinal absorption, potentially removing the need for animal testing to predict %HIA

    Application of neural networks to model double tube heat exchangers

    Full text link
    Treballs Finals de Grau d'Enginyeria Química, Facultat de Química, Universitat de Barcelona, Curs: 2022-2023, Tutor: David Curcó CantarellArtificial Intelligence is experiencing dramatic growth in recent times. AI models such as ChatGPT have become controversial topics as they continously transform our world. Nevertheless, the true nature of AI is still widely not yet understood by society. Nowadays, Artificial Intelligence is still seen by many as an obscure and foreign concept, even mysterious and threatening. However, this couldn’t be further from the truth. At their essence, they are just mathematical tools which rely on centuries-old knowledge: algebra and calculus. In this project, a neural network model has been created to solve a chemical engineering problem, the predictive model of a double tube heat exchanger. This model is a neural network that predicts future system outputs (inner stream output temperature) from the past values of the input variables of the system (inner and outer streams input temperatures and outer stream flow rate). The data used to train the model was obtained in a simulation written in the Python programming language. Afterwards, the optimal design parameters of the neural network were found experimentally by training different models and testing their performance. This was done in three stages: a proof of concept, a general design stage and a detailed design stage. The model has been successful in predicting the future state of the system with high exactitude while being circa. 3000 times faster than a conventional simulation

    Process Development Tools for Cross-Flow Filtration in Biopharmaceutical Downstream Processing

    Get PDF
    In der modernen Medizin sind biopharmazeutische Proteine wichtige Substanzen für die Behandlung und Vorbeugung von Krankheiten wie Lymphomen bzw. Hepatitis B. Diese Proteine haben eine komplexe Struktur, die eine biologische Synthese in Zellen erfordert, und ihre parenterale Verabreichung bedarf einer anschließenden Reinigung. Abschließend muss das Protein in einer Flüssigkeit formuliert werden, die eine gewisse Haltbarkeit und physiologische Verträglichkeit gewährleistet. Die Gewinnung des Proteins aus der Zellbrühe, die Reinigung und die Formulierung werden als downstream processing (DSP) bezeichnet. Jeder Prozessschritt im DSP wird mit einer Grundoperation durchgeführt, eine davon ist die Querstromfiltration (cross-flow filtration, CFF), auch bekannt als Tangentialflussfiltration (TFF). Bei der CFF werden die Proteine durch Größenausschluss von Verunreinigungen oder der umgebenden flüssigen Phase getrennt, wobei der Trennmechanismus im Idealfall von anderen Proteineigenschaften wie Ladung oder Hydrophobizität entkoppelt ist. Der Größenausschluss wird durch poröse Membranen realisiert. Im DSP biopharmazeutischer Proteine kann die CFF für die Zellseparation, die Reinigung und die finale Formulierung eingesetzt werden. Letztere besteht in der Regel aus einer Kombination von Pufferaustausch und Konzentrationserhöhung, die als Ultrafiltration/Diafiltration (UF/DF) bezeichnet wird. Im Vergleich zur herkömmlichen Normalstromfiltration wird der Zulaufstrom bei der CFF parallel zur Membranoberfläche gerichtet und das Filtrat dringt durch die Poren der Membran. Daher führt die CFF zu einer geringeren Anreicherung der zurückgehaltenen Spezies an der Membranoberfläche und somit zu schnelleren Prozessen und weniger konzentrationsabhängiger Aggregation. Trotz dieser Vorteile ist die Prozessentwicklung für die CFF mit einigen Herausforderungen verbunden: Diese sind zeit- und materialaufwändige Experimente, begrenzte Reinigungsleistung und Abweichungen der Ionenkonzentrationen vom Zielwert bei hohen Proteinkonzentrationen. Im DSP stehen mehrere Werkzeuge für die Prozessentwicklung und -optimierung zur Verfügung, zum Beispiel Prozessintegration, Hochdurchsatz-Screenings (high-throughput screenings, HTS), prozessanalytische Technologie (process analytical technology, PAT) und mechanistische Modellierung. Im Vergleich zu anderen Grundoperationen, wie zum Beispiel der Chromatographie, werden diese Werkzeuge jedoch nur selten für die CFF eingesetzt. Das Ziel dieser Arbeit war es, Lösungen für die genannten Herausforderungen zu finden, indem diese Werkzeuge in speziellen Fallstudien eingesetzt werden. Zudem war es Ziel dieser Arbeit, Erkenntnisse aus diesen Fallstudien zu gewinnen, um die Auswahl der Werkzeuge zur Entwicklung von CFF-Prozessen im biopharmazeutischen DSP zu erweitern. In Kapitel 1 dieser Arbeit wird einen Überblick über DSP-Ansätze für die beiden in dieser Arbeit exemplarisch verwendeten Biopharmazeutika, virusähnliche Partikel (virus-like particles, VLPs) und monoklonale Antikörper (monoclonal antibodies, mAbs), gegeben. VLPs sind nicht-infektiöse virale Partikel, denen das virale Genom fehlt. Nicht-umhüllte VLPs bestehen aus Proteinuntereinheiten, die sich in der produzierenden Zelle spontan zu Kapsiden zusammensetzen. VLPs werden meist während des DSP zerlegt und neu zusammengesetzt, um ihre Homogenität, Stabilität und Immunogenität zu verbessern. Biopharmazeutische Anwendungen von VLPs sind Impfstoffe und potenzielle therapeutische Impfstoffe oder Vektoren für die Ein-schleusung anderer Moleküle. MAbs sind Immunglobuline, die aus vier kovalent gebundenen Proteinketten bestehen. Im Vergleich zu mAbs sind die meisten VLPs um mehr als eine Größenordnung größer in Durchmesser und Molekulargewicht. MAbs gehören zu den am häufigsten zugelassenen Biopharmazeutika für den menschlichen Gebrauch und finden unter anderem bei der Behandlung von Krebs- und Entzündungskrankheiten Anwendung. Außerdem werden in Kapitel 1 Grundlagen und Anwendungen der CFF erläutert. Abschließend werden Hintergrundwissen und aktuelle Forschung zu den angewandten Werkzeugen der Prozessentwicklung dargestellt. Alternative Trennverfahren zur chromatographischen Reinigung weisen häufig eine geringere Trennleistung auf und sind schlecht skalierbar. Die wichtigsten Messgrößen für die Prozessleitung im DSP sind Reinheit und Produktivität. Beide können durch Prozessintegration verbessert werden, die durch die Kombination von Grundoperationen in einem gemeinsamen Arbeitsraum oder deren nahtlose Verbindung erreicht wird. In Kapitel 3 wird die Anwendung der Prozessintegration zur Verbesserung der Prozessleistung und der Skalierbarkeit des DSP von nicht-umhüllten VLPs vorgestellt. Dazu wurden die VLP-Fällung, -Wäsche und -Rücklösung mit CFF kombiniert. Es wurde eine Steuerung der Permeatflussrate implementiert, die die Verdichtung des Präzipitats an der Membranoberfläche reduzierte. Im Vergleich zur Abtrennung des Präzipitats mittels Zentrifugation, führte dieser Ansatz zu einer verbesserten Reinheit und Produktivität sowie zu einem höheren Automatisierungsgrad. Die Steuerung der Permeatflussrate ermöglichte auch die zusätzliche Integration von multimodaler Größenausschlusschromatographie (size exclusion chromatography, SEC) in den Rücklösungsstrom und damit eine weitere Verbesserung der Reinheit. Die in-line-Überwachung der Absorbanz von ultraviolettem Licht (UV) und die Produktfraktionierung wurden implementiert, um die Reinheit auf der Grundlage von datengesteuerten Entscheidungen während des Prozesses zu verbessern. Die vorgestellten Maßnahmen führten zu einem integrierten Abtrennungs- und Reinigungsschritt mit flexibler Skalierbarkeit und großem Potenzial für eine vollständige Automatisierung. Die Trennleistung war außerdem vergleichbar mit kompletten DSP-Ansätzen in der Literatur. Durch die Integration mehrerer Trenntechniken wurden Synergien geschaffen, die die Leistungsgrenzen der einzelnen Techniken überwinden. Der resultierende DSP-Ansatz basiert ausschließlich auf größenselektiven Trenntechniken, die den Größenunterschied von VLPs zu üblichen Verunreinigungen ausnutzen. Dieser Größenunterschied gilt für die meisten VLPs und verspricht somit eine breite Anwendbarkeit des vorgestellten DSP-Ansatzes. In der biopharmazeutischen Entwicklung ist die Verfügbarkeit von Proteinmaterial oft begrenzt, während die CFF vergleichsweise große Mengen für experimentelle Studien benötigt. In Kapitel 4 werden diese Herausforderungen adressiert, indem ein Ansatz zur Prozessentwicklung für Proteinreaktionen, die durch eine Änderung der Flüssigphase angetrieben werden, vorgestellt wird. Als Fallstudie wurde die Zerlegung von nicht-umhüllten VLPs untersucht. Sie kann durch eine Änderung der Flüssigphase ausgelöst werden, zum Beispiel durch eine Erhöhung des pH-Werts und der Harnstoffkonzentration. Um die optimalen Flüssigphasenbedingungen für die Zerlegung von VLPs zu finden, wurden HTS in kleinen Volumina durchgeführt. Dazu wurden VLP-Lösungen mit Stammlösungen gemischt, um den Prozessbedingungen zu entsprechen, und unter Reaktionsbedingungen automatisch mittels SEC analysiert. Die daraus resultierenden hochauflösenden Daten ermöglichten die Charakterisierung der Zerlegung der VLPs im Hinblick auf die CFF-basierte Prozessierung. Die optimalen Bedingungen wurden dann in einem DF-Prozessschritt im Labormaßstab angewendet. Die nach der DF-basierten Prozessierung beobachtete höhere Ausbeute und Reinheit wurde auf eine kontrollierte Änderung der Flüssigphase, eine intensivere Durchmischung und die gleichzeitige Abreicherung von Verunreinigungen zurückgeführt. Darüber hinaus wurde der VLP-Zerlegungsschritt in eine Sequenz von filtrationsbasierten Prozess-schritten eingebettet, wodurch unerwünschte Spezies mit höherem Mole-kulargewicht deutlich reduziert wurden. Die ausschließliche Verwendung der Filtration als größenselektiver Trenntechnik macht den entwickelten Prozess unabhängig von anderen molekularen Proteineigenschaften und bietet daher das Potenzial für eine Plattformprozessierung von nicht-umhüllten VLPs im Allgemeinen. Der vorgestellte Ansatz zur Prozessentwicklung reduziert den Zeit- und Proteinbedarf durch die Entkopplung des Screenings der Bedingungen von der CFF-Entwicklung und bietet das Potenzial für eine umfassende Charakterisierung. Die in Kapitel 5 vorgestellte Studie zielte darauf ab, die Herausforderung der Materialbeschränkungen zu überwinden, indem das aus CFF-Experimenten gewonnene Wissen maximiert wird. Dazu wurde ein PAT-Konzept für denselben Prozessschritt der Zerlegung von VLPs entwickelt, der in Kapitel 4 vorgestellt wird. Eine Reihe von PAT-Sensoren wurde unter verschiedenen Prozessbedingungen evaluiert. Parameter der Filtration wie Drücke, Durchflussraten und Pufferaustausch wurden in-line überwacht. Der Fortschritt der Zerlegung der VLPs wurde on-line mittels UV-Absorbanz und statischer Lichtstreuung qualitativ überwacht. Die Analyse der zweiten Ableitung der UV-Spektren zeigte außerdem Veränderungen in der Tertiärstruktur der Proteinuntereinheiten während der VLP-Zerlegung. Die on-line Überwachung der dynamischen Lichtstreuung zeigte Potenzial als qualitativer Indikator für unerwünschte Proteinaggregation. Regressionsmodelle, die UV-Daten als Eingangsgröße und die Konzentration der VLP-Untereinheiten als Ausgangsgröße verwenden, wurden kalibriert und anhand von at-line SEC-Daten als Referenz validiert. Mit Hilfe der Modelle wurden die Konzentrationen der Untereinheiten und damit der Fortschritt der VLP-Zerlegung präzise vorausgesagt. Die Vorhersagen wurden erfolgreich zur Erkennung von Prozessendpunkten eingesetzt. Darüber hinaus wurde nachgewiesen, dass unverarbeitete univariate Signale von UV und statischer Lichtstreuung den Prozessendpunkt erfolgreich erkennen, was einen einfachen Ansatz für die großtechnische Herstellung darstellt. Insgesamt liefert das entwickelte PAT-Konzept prozess- und produktbezogene Daten in (nahezu) Echtzeit, was eine umfassende Überwachung, Charakterisierung und Endpunktdetektion ermöglicht. Der vorgestellte Ansatz hat großes Potenzial zur Charakterisierung der Zerlegung anderer VLPs oder von Reaktionen, die eine Veränderung der Partikelgröße oder der tertiären Proteinstruktur mit sich bringen. Die Formulierung biopharmazeutischer Proteine mittels UF/DF wird mit steigender Proteinkonzentration anspruchsvoller. Die Anreicherung von geladenen Proteinen führt zu einer ungleichmäßigen Verteilung von geladenen Hilfsstoffen durch die Membran, was als Gibbs-Donnan-Effekt bezeichnet wird. Dieser Effekt führt zu Abweichungen des pH-Werts und der Konzentration der Hilfsstoffe von den Zielbedingungen. Diese Abweichungen können durch den Volumenausschlusseffekt oder die Abhängigkeit der pK-Werte von der Ionenstärke noch verstärkt oder verringert werden. Das komplexe Geflecht dieser voneinander abhängigen Phänomene erschwert einfache oder generische Abschätzungen der endgültigen Zusammensetzung. In Kapitel 6 wird die Entwicklung und Validierung eines mechanistischen Modells vorgestellt, das die genannten Phänomene und Wechselwirkungen beschreibt. Ziel der Studie war es, ein besseres Verständnis der Modellvariablen zu erlangen und die Zusammensetzung während UF/DF-Prozessen mit hohen Konzentrationen vorherzusagen. Derzeit verfügbare Modelle beschreiben und validieren den Bereich hoher Proteinkonzentrationen über 100 gL^{-1} nur unzureichend oder erfordern eine experimentelle Kalibrierung. Es wurde ein mechanistisches Modell entwickelt, das auf der Poisson-Boltzmann-Theorie und einem grundlegenden Stern-Modell basiert, um die elektrostatischen Wechselwirkungen von Proteinen und geladenen gelösten Stoffen zu beschreiben. Ein besonderer Fokus bei der Entwicklung lag auf hohen Proteinkonzentrationen. Das Modell wurde außerdem so konzipiert, dass als Eingangsvariablen lediglich üblicherweise bekannte theoretische Informationen über das Protein und die Pufferzusammensetzung benötigt werden. Das Modell wurde anhand umfassender experimenteller Daten kompletter UF/DF/UF-Sequenzen von mAbs und verschiedenen Flüssigphasenbedingungen sorgfältig validiert. Die Vorhersagen des Modells zeigten im Vergleich zu bestehenden Ansätzen eine bessere Genauigkeit im Bereich hoher Konzentrationen. Zusammenfassend lässt sich sagen, dass das entwickelte Modell und die angewandte Validierungsstrategie ein tieferes Verständnis von UF/DF-Modellen, die auf der Poisson-Boltzmann Theorie basieren, ermöglichen. Das rein prädiktive Modell ermöglicht ein systematisches in silico Design von hochkonzentrierten UF/DF-Schritten, ohne dass Proteinmaterial benötigt wird. Abschließend kann gesagt werden, dass Prozessintegration, HTS, PAT und mechanistische Modellierung erfolgreich für die Entwicklung von CFF-Prozessen implementiert und zur Verbesserung der Prozessleistung, des Proteinbedarfs und der Entwicklungszeiten eingesetzt wurden. Diese Arbeit liefert somit potenzielle Lösungen für die Herausforderungen in der biopharmazeutischen CFF-Prozessentwicklung auf der Grundlage von konkreten Fallstudien. Zusätzlich zu diesen Lösungen bieten die entwickelten CFF-Prozesse neue Ansätze für die größenselektive Aufreinigung von nicht-umhüllten VLPs und damit Bausteine für ein Plattform-DSP. Für die Modellierung der Zusammensetzung während der UF/DF von hochkonzentrierten mAb-Formulierungen wird ein umfassendes Verständnis der Modellvariablen und der Gültigkeit der Annahmen erarbeitet. Diese Arbeit zur Erweiterung des Forschungsstandes zur CFF-Prozessentwicklung durch fortschrittliche Entwicklungsansätze und Prozessdesigns bei

    Data-Driven Process Development for Virus-Like Particles - Implementation of Process Analytical Technology, Molecular Modeling, and Machine Learning

    Get PDF
    Im Laufe des 20. Jahrhunderts stieg die Lebenserwartung deutlich an. Aus medizinischer Sicht trugen vor allem die umfassende Verbesserung der Hygiene und die Einführung von Impfprogrammen zu diesem Erfolg bei. Impfstoffe waren die ersten biologischen Produkte, die systematisch als medizinische Präparate eingesetzt wurden, und ebneten damit den Weg zur modernen pharmazeutischen Biotechnologie. Nach Insulin und menschlichem Wachstumshormon war eines der frühesten biotechnologisch hergestellten pharmazeutischen Produkte ein rekombinanter Impfstoff, im Speziellen ein virusähnliches Partikel (virus-like particle, VLP) auf Basis von rekombinantem Hepatitis-B-Oberflächenantigen. VLPs beinhalten keine infektiösen viralen Nukleinsäuren und sie ähneln dem Virus, von dem sie abgeleitet sind, wodurch sie eine Immunantwort induzieren können. Obwohl dieser Hepatitis-B-Impfstoff gegenwärtig noch verwendet wird, ist die heutige Anwendung von VLPs sehr unterschiedlich, wie aus zahlreichen präklinischen und klinischen Studien hervorgeht. VLPs werden als mögliche Impfstoffe gegen Infektionskrankheiten, immunologische Erkrankungen oder Krebs untersucht. Ihre starke Immunogenität wird für die Präsentierung von fremdantigenen Epitopen auf den VLPs genutzt, was sie zu chimären VLPs (chimeric virus-like particles, cVLPs) macht. Als solche induzieren sie nachweislich Immunantworten gegen Krebszellen und überwinden die natürliche immunologische Selbsttoleranz gegenüber Krebsantigenen. Allerdings ist ihr hohes Potenzial mit Herausforderungen verbunden, beispielsweise im Zusammenhang mit ihrem molekularen Design und dem Produktionsprozess. Das Ziel des molekularen Designs ist die Entwicklung immunogener und stabiler VLP-Kandidaten. Der Prozess, um geeignete VLP-Kandidaten zu finden, ist jedoch typischerweise empirisch und bringt Herausforderungen wie eine geringe Löslichkeit nach der Expression in rekombinanten Wirten oder unzureichende VLP-Immunogenität mit sich. Dem VLP-Produktionsprozess mangelt es an maßgeschneiderten Aufreinigungsmethoden, was im Vergleich zu etablierten biopharmazeutischen Produkten, wie z.B. monoklonalen Antikörpern, zu einer geringeren Produktivität führt. Hinzu kommt, dass bei der VLP-Prozessierung VLP-spezifische Prozessschritte, wie z.B. die Zerlegung und Reassemblierung der Partikel, entworfen werden müssen. Die Bewältigung dieser Herausforderungen würde von datengestützten Ansätzen wie der prozessanalytischen Technologie (process analytical technology, PAT), der molekularen Modellierung und dem maschinellen Lernen profitieren. Diese würden das Prozess- und Produktverständnis verbessern, den experimentellen Aufwand reduzieren und eine effiziente Überwachung und Steuerung der Prozesse ermöglichen. Daher war es Ziel dieser Arbeit, Antworten auf mehrere dieser Herausforderungen zu finden, indem datengestützte Ansätze implementiert wurden, um die Entwicklung maßgeschneiderter Prozessschritte zu begleiten. Im ersten Teil dieser Arbeit werden VLPs und ihre Produktionsprozesse besprochen, die Vorteile der Implementierung von PAT beschreiben, die Herausforderungen im Zusammenhang mit ihrem molekularen Design beleuchtet und die Möglichkeiten der Anwendung des maschinellen Lernens bei der VLP-Entwicklung und -Prozessierung aufgezeigt. Der zweite Teil dieser Arbeit beschreibt fünf Studien, die darauf abzielen, Antworten auf einige der mit dem VLP-Design und der biotechnologischen Verfahrenstechnik verbundenen Herausforderungen zu finden. Die erste Studie (Kapitel 3) befasst sich mit einem besonderen VLP-spezifischen Prozessschritt. Für eine verbesserte Stabilität, Homogenität und Immunogenität müssen VLPs zerlegt und wieder reassembliert werden. Ausgehend von einer Hoch-pH-Lösung, die zerlegte VLPs enthält, wird die Reassemblierung durch die Erhöhung der Ionenstärke und die Senkung des pH-Wertes erreicht. Die meisten Prozesse im Labormaßstab nutzen die Dialyse für diesen Pufferaustausch, während die Querstromfiltration (cross-flow filtration, CFF) für den Pufferaustausch besser skalierbar ist, den Pufferverbrauch reduziert und die Ausbeute verbessert. Im Vergleich zur Dialyse erfordert die CFF mehr technisches Wissen und Kenntnisse über den VLP-Reassemblierungssfortschritt während des Prozesses. Eine umfassende Überwachungsstrategie wäre daher sehr vorteilhaft, um eine (Beinahe-) Echtzeit-Kontrolle des VLP-Reassemblierungsprozesses durch CFF zu implementieren. In dieser ersten Studie wird ein Aufbau zur Überwachung der VLP-Reassemblierung durch CFF mittels einer Online-Messschleife mit zwei verschiedenen spektroskopischen Sensoren beschrieben. Eine mögliche Kontrollstrategie für den VLP-Assemblierungsprozess wurde in der Überwachung der statischen und dynamischen Lichtstreuung gesehen. Das Maximum des statischen Streulichtsignals fiel mit der maximalen VLP-Konzentration zusammen. Diese Information ist sehr wertvoll, da nach diesem VLP-Konzentrationsmaximum eine Degradationsphase beobachtet wurde, die vermieden werden sollte, um Ausbeute und Reinheit der VLPs zu optimieren. Die Analyse der zweiten Ableitung der ultravioletten und sichtbaren (ultraviolet and visible, UV/Vis) Spektren erwies sich als praktikable orthogonale Methode zur Überwachung der VLP-Assemblierung, insbesondere mit dem sogenannten a/b-Verhältnis. Das a/b-Verhältnis, welches sich im Zeitverlauf der Prozesse änderte, beschreibt die Solvatisierung von Tyrosin. Die Beobachtung der Veränderung des a/b-Verhältnisses deckt sich mit der Tatsache, dass Tyrosin 132 nach der Assemblierung in einer hydrophoben Tasche eingebettet wird. Zusätzlich konnte ein Modell der Regression der partiellen kleinsten Quadrate (partial least squares), das auf den aufgezeichneten UV/Vis-Spektren basiert, die VLP-Konzentrationen abschätzen mit dem Potential, als (Beinahe-) Echtzeitmodell angewendet zu werden. Die etablierte Überwachungsstragie wurde genutzt um optimale Prozessbedingungen für drei chimäre hepatitis B core antigen (HBcAg)- Konstrukte zu ermitteln. Dies resultierte in unterschiedlichen Prozesszeiten, um die maximale VLP-Konzentration zu erreichen. Das cVLP mit dem stärksten negativen Zetapotential assemblierte am spätesten, wahrscheinlich aufgrund abstoßender elektrostatischer Kräfte. Es erfordert daher Puffer mit höheren Ionenstärken für die Reassemblierung. Die Bedeutung des Zetapotenzials für die VLP-Prozessierung war Teil der Motivation für die zweite Studie (Kapitel 4). Das Zetapotential und andere biophysikalische Parameter können nur gemessen werden, wenn Material experimentell in ausreichenden Mengen produziert wurde. Es wäre daher wünschenswert, diese Parameter vorherzusagen, um Ressourcen zu sparen. Es wurde bereits gezeigt, dass Oberflächeneigenschaften aus dreidimensionalen (3-D) Strukturen abgeleitet werden können. 3-D-Strukturen neuartiger Moleküle sind jedoch nicht verfügbar und ihre experimentelle Erzeugung ist langwierig und mühsam. Eine Alternative ist die rechnergestützte 3-D-Strukturerzeugung mit Template-Modellierung und Molekulardynamik-Simulationen (MD). Dieser in silico Arbeitsablauf erfordert üblicherweise signifikante Benutzerinteraktion, Expertenwissen, um die Simulationen zu designen und zu steuern, und viel Rechenleistung. Um diese Limitationen zu überwinden, wurde in dieser Studie ein robuster und automatisierter Arbeitsablauf zur Erzeugung von 3-D Strukturen etabliert. Der Arbeitsablauf ist datenabhängig, minimiert Benutzerinteraktion und reduziert die benötigte Rechenleistung. Die Eingabe in den entwickelten Arbeitsablauf war eine Aminosäuresequenz und eine Strukturvorlage. Die Vorlage wurde automatisch von einer Proteinstrukturdatenbank heruntergeladen, bereinigt und die Struktur wurde Homologie-modelliert, gefolgt von einer Energieminimierung. Eine datenabhängige dreistufige MD-Simulation verfeinerte die Struktur, wobei ein kontinuierlich zunehmender Bereich des Moleküls simuliert wurde, bis schließlich das gesamte Molekül frei simuliert wurde. Der dreistufige MD-Simulationsansatz lieferte hierbei einen großen Beitrag zur Reduktion der benötigten Rechenleistung, in dem strukturell besonders unsichere Bereiche des Moleküls zunächst gesondert simuliert wurden. Oft werden MD-Simulationen nach einer bestimmten Simulationszeit beendet. In dieser Studie beendete die entwickelte datenabhängige Simulationskontrolle die Simulationen, wenn ein Stabilitätsfenster (Window of Stability, WoS) von 2 ns erreicht wurde, definiert durch die Wurzel der mittleren quadratischen Abweichung (root mean square deviation, RMSD) der Atomkoordinaten. Dies stellte sicher, dass die Fluktuationen der MD-Simulation zwischen allen simulierten Konstrukten innerhalb des genannten WoS am Ende der Simulation vergleichbar waren. Der Arbeitsablauf führte zu angemessenen Simulationszeiten (6,6-37,5 h) und einer hohen Gesamtstrukturqualität für die drei chimären HBcAg-Dimere. Um die Anwendbarkeit der Methode zu demonstrieren, wurde eine Fallstudie durchgeführt, in der die in silico Oberflächenladung von HBcAg-Dimeren mit dem experimentellen Zeta-Potential ganzer Kapside korreliert wurde, was eine hohe lineare Korrelation zeigte. Die Extraktion der Oberflächenladung aus dem WoS war robuster als aus einem einzelnen Simulationsschnappschuss, was die Nützlichkeit des entwickelten Ansatzes unterstreicht. Die dritte Studie (Kapitel 5) befasst sich mit dem Problem, dass VLPs häufig mit Technologien prozessiert werden, die ursprünglich für kleinere Produkte entwickelt wurden. Dies führt oft zu Prozesslimitationen wie geringe Bindekapazitäten von Chromatographieharzen, die im downstream process verwendet werden. Daher wurde eine neue Aufreinigungsstrategie entwickelt, die drei verschiedene größenselektive Methoden integriert, da sie für die selektive Abtrennung von VLPs von Verunreinigungen vielversprechend erschienen. Die Methoden waren Fällung/Rücklösung, CFF und Größenausschlusschromatographie (size exclusion chromatography, SEC). Es wurden drei Verfahrensvarianten entwickelt und untersucht, wobei die beste aus Fällung, Waschen und Rücklösung auf einer CFF-Einheit, gefolgt von einer Reinigung durch eine multimodale SEC-Säule bestand. Dieses Verfahren zeigte die höchste Reinheit sowie eine hohe Ausbeute und Produktivität. Die entwickelten Verfahren waren den in der Literatur beschriebenen Verfahren vergleichbar oder überlegen. Die Überwachung und Fraktionierung des Permeatstroms ermöglichte es zudem, produkthaltige Fraktionen für das selektive Vereinigen zu identifizieren. Auf diese Weise können Produktkonzentration- und Reinheit eingestellt werden. Eines der Hauptprobleme beim Molekulardesign von cVLPs ist, dass die Kandidaten bei der Expression oft unlöslich sind. Der Prozess zur Identifizierung unlöslicher VLP-Konstrukte ist typischerweise empirisch und deshalb Zeit- und Ressourcenintensiv. Diese Herausforderung kann mit einem Modell bewältigt werden, welches die Löslichkeit von cVLPs vorhersagt. In Kapitel 6 wurde ein Soft Ensemble Vote Classifier (sEVC) als Werkzeug auf Basis von maschinellem Lernen zur Vorhersage der cVLP-Löslichkeit entwickelt, basierend auf 568 verschiedenen Aminosäuresequenzen und 91 verschiedenen Hydrophobizitäts-Skalen. Das Ensemble-Modell aggregiert die Vorhersage der einzelnen Klassifikatoren, bei denen es sich um einstufige Entscheidungsbäume handelt. Diese wurden jeweils mit einem Hydrophobizitäts-Merkmal auf der Grundlage einer Hydrophobizitäts-Skala trainiert. Stratifizierte Trainingssatzprobenahme und Merkmalsauswahl kamen der Modellbildung zugute. Die besten Modelle wiesen einen Matthew-Korrelationskoeffizienten (Matthew’s correlation coefficient, MCC) von >0,6 auf, der mit den statistischen Größen von Löslichkeitsmodellen aus der Literatur vergleichbar oder diesen überlegen ist. Zusätzlich ermöglichte die Merkmalsauswahl (feature selection) die Identifizierung charakteristischer Eigenschaften (features) des untersuchten cVLP-Löslichkeitsproblems, wobei die Bedeutung verschiedener Aminosäuren für die cVLP-Löslichkeit hervorgehoben wurde. Die Analyse legte nahe, dass Arginin eine wichtige Rolle bei der Rekrutierung von VLP-Untereinheiten während der Kapsidassemblierung spielen könnte. Die letzte Studie baute auf dem Modell und den Ergebnissen von Kapitel 6 auf, mit dem Ziel, die Vorhersageergebnisse zu optimieren und mehr versteckte Informationen aus den Daten zu extrahieren. In der vorherigen Studie wurde eine systematische Fehlklassifikation beobachtet. Dies wurde mit einem Optimierungsalgorithmus angegangen, der die Vorhersage des Modells anpasste, wenn diese systematischen Fehlklassifikationen im Trainingsdatensatz beobachtet wurden. Eine zweite Optimierungsstrategie synthetisierte und optimierte Hydrophobizitäts-Skalen spezifisch für das vorgestellte cVLP-Löslichkeitsproblem. Dabei wurde die Bedeutung von Tryptophan als möglicher Disruptor der Proteinfaltung anhand der Daten vorgeschlagen. Das beste Modell, das mit den entwickelten Optimierungsworkflows erstellt wurde, zeigte einen MCC von 0,77 (Korrektklassifikationsrate von 0,88) in Bezug auf das externe Test-Set. Schließlich wurde das sEVC-Framework in einer Fallstudie evaluiert, um Ammoniumsulfatkonzentrationen vorherzusagen, wie sie für die VLP-Fällung erforderlich sind (wie auch in Kapitel 5 angewandt). Daher wurde das Modell so umgestaltet, dass es als Regressionswerkzeug fungiert. Es wurde mit Daten der Ammoniumsulfat-induzierten Fällung von zehn cVLPs bewertet. Die lineare Regression zeigte eine vielversprechende Korrelation mit einem R² von 0,69. Zusammenfassend lässt sich sagen, dass sowohl von dem Standpunkt der Prozessentwicklung als auch von der computergestützen Entwicklung aus eine Reihe von Methoden entwickelt wurde, die den Weg zu einem VLP-Plattformprozess ebnen könnten. Die Integration von datengesteuerten Ansätzen wie PAT, 3-D-Strukturmodellierung und maschinelles Lernen kann sowohl der Effizienz als auch dem Verständnis der VLP-Prozessierung in der biopharmazeutischen Industrie zugutekommen

    Solute Partitioning in Elastin-Like Polypeptides: a Foundation for Drug Delivery Applications

    Get PDF

    Process Modeling in Pyrometallurgical Engineering

    Get PDF
    The Special Issue presents almost 40 papers on recent research in modeling of pyrometallurgical systems, including physical models, first-principles models, detailed CFD and DEM models as well as statistical models or models based on machine learning. The models cover the whole production chain from raw materials processing through the reduction and conversion unit processes to ladle treatment, casting, and rolling. The papers illustrate how models can be used for shedding light on complex and inaccessible processes characterized by high temperatures and hostile environment, in order to improve process performance, product quality, or yield and to reduce the requirements of virgin raw materials and to suppress harmful emissions
    corecore