311 research outputs found

    cepip: context-dependent epigenomic weighting for prioritization of regulatory variants and disease-associated genes

    Get PDF
    abstract: It remains challenging to predict regulatory variants in particular tissues or cell types due to highly context-specific gene regulation. By connecting large-scale epigenomic profiles to expression quantitative trait loci (eQTLs) in a wide range of human tissues/cell types, we identify critical chromatin features that predict variant regulatory potential. We present cepip, a joint likelihood framework, for estimating a variant’s regulatory probability in a context-dependent manner. Our method exhibits significant GWAS signal enrichment and is superior to existing cell type-specific methods. Furthermore, using phenotypically relevant epigenomes to weight the GWAS single-nucleotide polymorphisms, we improve the statistical power of the gene-based association test.The electronic version of this article is the complete one and can be found online at: https://genomebiology.biomedcentral.com/articles/10.1186/s13059-017-1177-

    Sex-Differences in the Early Detection of Dementia Risk Using a Cognitive-motor Integration Task

    Get PDF
    Cognitive-motor integration (CMI) involves concurrent thought and action which requires the interaction of large brain networks. Our research objectives were to examine the effect that dementia risk has on the ability to integrate rules into action and to investigate sex-related differences in this rule-based motor performance. Given that early-stage dementia involves neural network dysfunction, problems with CMI may prove useful for early dementia detection. Males and females at high- and low-dementia risk were tested on increasingly spatially-dissociated visuomotor tasks. We observed significantly greater endpoint error scores and corrective path lengths in females compared to males in the most complex CMI condition. These data suggest that underlying brain networks controlling simultaneous thought and action differ between the sexes, and that dementia risk may affect female CMI performance to a greater extent. Thus, sex-related differences must be taken into account when assessing CMI performance as a means to examine dementia risk-related functional abilities

    Selected Works in Bioinformatics

    Get PDF
    This book consists of nine chapters covering a variety of bioinformatics subjects, ranging from database resources for protein allergens, unravelling genetic determinants of complex disorders, characterization and prediction of regulatory motifs, computational methods for identifying the best classifiers and key disease genes in large-scale transcriptomic and proteomic experiments, functional characterization of inherently unfolded proteins/regions, protein interaction networks and flexible protein-protein docking. The computational algorithms are in general presented in a way that is accessible to advanced undergraduate students, graduate students and researchers in molecular biology and genetics. The book should also serve as stepping stones for mathematicians, biostatisticians, and computational scientists to cross their academic boundaries into the dynamic and ever-expanding field of bioinformatics

    Predicting breast cancer risk, recurrence and survivability

    Full text link
    This thesis focuses on predicting breast cancer at early stages by using machine learning algorithms based on biological datasets. The accuracy of those algorithms has been improved to enable the physicians to enhance the success of treatment, thus saving lives and avoiding several further medical tests

    A Theoretical Foundation for the Development of Process Capability Indices and Process Parameters Optimization under Truncated and Censoring Schemes

    Get PDF
    Process capability indices (PCIs) provide a measure of the output of an in-control process that conforms to a set of specification limits. These measures, which assume that process output is approximately normally distributed, are intended for measuring process capability for manufacturing systems. After implementing inspections, however, non-conforming products are typically scrapped when units fail to meet the specification limits; hence, after inspections, the actual resulting distribution of shipped products that customers perceive is truncated. In this research, a set of customer-perceived PCIs is developed focused on the truncated normal distribution, as an extension of traditional manufacturer-based indices. Comparative studies and numerical examples reveal considerable differences among the traditional PCIs and the proposed PCIs. The comparison results suggest using the proposed PCIs for capability analyses when non-conforming products are scrapped prior to shipping to customers. The confidence interval approximations for the proposed PCIs are also developed. A simulation technique is implemented to compare the proposed PCIs with its traditional counterparts across multiple performance scenarios. The robust parameter design (RPD), as a systematic method for determining the optimum operating conditions that achieve the quality improvement goals, is also studied within the realm of censored data. Data censoring occurs in time-oriented observations when some data is unmeasurable outside a predetermined study period. The underlying conceptual basis of the current RPD studies is the random sampling from a normal distribution, assuming that all the data points are uncensored. However, censoring schemes are widely implemented in lifetime testing, survival analysis, and reliability studies. As such, this study develops the detailed guidelines for a new RPD method with the consideration of type I-right censoring concepts. The response functions are developed using nonparametric methods, including the Kaplan-Meier estimator, Greenwood\u27s formula, and the Cox proportional hazards regression method. Various response-surface-based robust parameter design optimization models are proposed and are demonstrated through a numerical example. Further, the process capability index for type I-right censored data using the nonparametric methods is also developed for assessing the performance of a product based on its lifetime

    Preserving privacy in edge computing

    Get PDF
    Edge computing or fog computing enables realtime services to smart application users by storing data and services at the edge of the networks. Edge devices in the edge computing handle data storage and service provisioning. Therefore, edge computing has become a  new norm for several delay-sensitive smart applications such as automated vehicles, ambient-assisted living, emergency response services, precision agriculture, and smart electricity grids. Despite having great potential, privacy threats are the main barriers to the success of edge computing. Attackers can leak private or sensitive information of data owners and modify service-related data for hampering service provisioning in edge computing-based smart applications. This research takes privacy issues of heterogeneous smart application data into account that are stored in edge data centers. From there, this study focuses on the development of privacy-preserving models for user-generated smart application data in edge computing and edge service-related data, such as Quality-of-Service (QoS) data, for ensuring unbiased service provisioning. We begin with developing privacy-preserving techniques for user data generated by smart applications using steganography that is one of the data hiding techniques. In steganography, user sensitive information is hidden within nonsensitive information of data before outsourcing smart application data, and stego data are produced for storing in the edge data center. A steganography approach must be reversible or lossless to be useful in privacy-preserving techniques. In this research, we focus on numerical (sensor data) and textual (DNA sequence and text) data steganography. Existing steganography approaches for numerical data are irreversible. Hence, we introduce a lossless or reversible numerical data steganography approach using Error Correcting Codes (ECC). Modern lossless steganography approaches for text data steganography are mainly application-specific and lacks imperceptibility, and DNA steganography requires reference DNA sequence for the reconstruction of the original DNA sequence. Therefore, we present the first blind and lossless DNA sequence steganography approach based on the nucleotide substitution method in this study. In addition, a text steganography method is proposed that using invisible character and compression based encoding for ensuring reversibility and higher imperceptibility.  Different experiments are conducted to demonstrate the justification of our proposed methods in these studies. The searching capability of the stored stego data is challenged in the edge data center without disclosing sensitive information. We present a privacy-preserving search framework for stego data on the edge data center that includes two methods. In the first method, we present a keyword-based privacy-preserving search method that allows a user to send a search query as a hash string. However, this method does not support the range query. Therefore, we develop a range search method on stego data using an order-preserving encryption (OPE) scheme. In both cases, the search service provider retrieves corresponding stego data without revealing any sensitive information. Several experiments are conducted for evaluating the performance of the framework. Finally, we present a privacy-preserving service computation framework using Fully Homomorphic Encryption (FHE) based cryptosystem for ensuring the service provider's privacy during service selection and composition. Our contributions are two folds. First, we introduce a privacy-preserving service selection model based on encrypted Quality-of-Service (QoS) values of edge services for ensuring privacy. QoS values are encrypted using FHE. A distributed computation model for service selection using MapReduce is designed for improving efficiency. Second, we develop a composition model for edge services based on the functional relationship among edge services for optimizing the service selection process. Various experiments are performed in both centralized and distributed computing environments to evaluate the performance of the proposed framework using a synthetic QoS dataset

    Towards a uniform definition for the centralisation phenomenon

    Get PDF
    The focus of this PhD project is on symptom centralisation. Its primary objectives were to establish a standard operational definition of centralisation and evaluate its inter-rater reliability in neck pain. Two systematic reviews on the reliability and prognostic value of clinically induced symptom responses in spinal pain (Chapters 2 and 3) showed that although the potential usefulness of centralisation has been demonstrated in low back pain, concern has been expressed about the observed inconsistency in reported definitions, and the scarcity of studies in neck pain. A Delphi survey of experts (Chapter 4) assisted in the development of a uniform operational definition for centralisation and the identification of future research questions. Centralisation was generally defined as the progressive and stable reduction of the most distal presenting pain towards the spine midline in response to standardised spinal loading strategies. The support by the Delphi panel of a broader definition allowed for a multitude of different ways of testing to be included in the assessment procedure which may offer some flexibility to clinicians assessing, classifying and managing different spinal pain presentations across different countries. Although the reliability of identifying centralisation was acceptable, high levels of reliability were not demonstrated (Chapter 5). However, reliability was greater for the pair of physiotherapists with prior experience and formal extensive training in symptom response assessment. Therefore, the optimal type and amount of training for eliciting and interpreting centralisation and the effect of procedural variations on testing the outcomes of individuals who centralise require urgent investigation. The prognostic and management value of centralisation are also unknown. This investigation may pave the way for the standardisation of centralisation as a physical sign and stimulate interest for further study of potential sub-groups and classification of spinal syndromes

    A method for identifying genetic heterogeneity within phenotypically defined disease subgroups.

    Get PDF
    Many common diseases show wide phenotypic variation. We present a statistical method for determining whether phenotypically defined subgroups of disease cases represent different genetic architectures, in which disease-associated variants have different effect sizes in two subgroups. Our method models the genome-wide distributions of genetic association statistics with mixture Gaussians. We apply a global test without requiring explicit identification of disease-associated variants, thus maximizing power in comparison to standard variant-by-variant subgroup analysis. Where evidence for genetic subgrouping is found, we present methods for post hoc identification of the contributing genetic variants. We demonstrate the method on a range of simulated and test data sets, for which expected results are already known. We investigate subgroups of individuals with type 1 diabetes (T1D) defined by autoantibody positivity, establishing evidence for differential genetic architecture with positivity for thyroid-peroxidase-specific antibody, driven generally by variants in known T1D-associated genomic regions.We acknowledge the help of the Diabetes and Inflammation Laboratory Data Service for access and quality control procedures on the data sets used in this study. The JDRF/Wellcome Trust Diabetes and Inflammation Laboratory is in receipt of a Wellcome Trust Strategic Award (107212; J.A.T.) and receives funding from the NIHR Cambridge Biomedical Research Centre. J.L. is funded by the NIHR Cambridge Biomedical Research Centre and is on the Wellcome Trust PhD program in Mathematical Genomics and Medicine at the University of Cambridge. C.W. is funded by the MRC (grant MC_UP_1302/5). We thank M. Simmonds, S. Gough, J. Franklyn, and O. Brand for sharing their AITD genetic association data set and all patients with AITD and control subjects for participating in this study. The AITD UK national collection was funded by the Wellcome Trust. The funders had no role in study design, data collection and analysis, decision to publish, or preparation of the manuscript

    Computational Labeling, Partitioning, and Balancing of Molecular Networks

    Get PDF
    Recent advances in high throughput techniques enable large-scale molecular quantification with high accuracy, including mRNAs, proteins and metabolites. Differential expression of these molecules in case and control samples provides a way to select phenotype-associated molecules with statistically significant changes. However, given the significance ranking list of molecular changes, how those molecules work together to drive phenotype formation is still unclear. In particular, the changes in molecular quantities are insufficient to interpret the changes in their functional behavior. My study is aimed at answering this question by integrating molecular network data to systematically model and estimate the changes of molecular functional behaviors. We build three computational models to label, partition, and balance molecular networks using modern machine learning techniques. (1) Due to the incompleteness of protein functional annotation, we develop AptRank, an adaptive PageRank model for protein function prediction on bilayer networks. By integrating Gene Ontology (GO) hierarchy with protein-protein interaction network, our AptRank outperforms four state-of-the-art methods in a comprehensive evaluation using benchmark datasets. (2) We next extend our AptRank into a network partitioning method, BioSweeper, to identify functional network modules in which molecules share similar functions and also densely connect to each other. Compared to traditional network partitioning methods using only network connections, BioSweeper, which integrates the GO hierarchy, can automatically identify functionally enriched network modules. (3) Finally, we conduct a differential interaction analysis, namely difFBA, on protein-protein interaction networks by simulating protein fluxes using flux balance analysis (FBA). We test difFBA using quantitative proteomic data from colon cancer, and demonstrate that difFBA offers more insights into functional changes in molecular behavior than does protein quantity changes alone. We conclude that our integrative network model increases the observational dimensions of complex biological systems, and enables us to more deeply understand the causal relationships between genotypes and phenotypes

    Digitalization of industrial downstream processing : Mechanistic and structure-based modeling

    Get PDF
    Monoklonale Antikörper (mAbs) und andere biologische Therapien kommen Millionen von Patienten zugute, die unter schwerwiegenden Krankheiten leiden. Das Spektrum der therapeutischen Bereiche, in denen Biologika eingesetzt werden, umfasst die Onkologie, die Hämatologie, Entzündungskrankheiten und neuerdings auch Infektionskrankheiten wie die Coronavirus-Disease 2019 (COVID-19). Die Herstellung und Materialbereitstellung für präklinische und klinische Studien ist ein wichtiger Baustein in der Entwicklung eines therapeutischen Antikörpers. MAbs und komplexe Antikörperformate werden in Zellkulturprozessen, dem sogenannten Upstream Processing (USP), hergestellt. Das anschließende Downstream Processing (DSP) zielt darauf ab, das Zielprotein aus der heterogenen Zellkulturflüssigkeit abzutrennen und zu reinigen. Das DSP von mAbs basiert auf dem Plattformkonzept. Aufgrund der strukturellen Ähnlichkeiten der verschiedenen mAb-Produkte erfolgt deren Aufreinigung in einer standardisierten Abfolge von Prozessschritten mit antikörperspezifischer Anpassung von Prozessparametern. Hier wird häufig die Kationenaustauschchromatographie (CEX) als Polishing-Schritt eingesetzt, da sie in der Lage ist, produktbezogene Verunreinigungen, wie Größen- und Ladungsvarianten des mAb-Produkts, zu entfernen. Die Adsorption von Proteinen an chromatographischen Medien hängt von der Zusammensetzung der mobilen Phase, der Ligandenstruktur und der Struktur des Zielproteins ab. Während die präparative Chromatographie eine einzigartige Selektivität bei der Abreicherung von produkt- und prozessbedingten Verunreinigungen bietet, widerspricht die komplexe und zeitaufwändige Prozessentwicklung der ursprünglichen Idee des Plattformkonzepts. Das Streben nach einer standardisierten Aufreinigung verschiedener Antikörperprodukte wird zusätzlich durch bispezifische und multispezifische Antikörperformate erschwert, die die strukturelle Heterogenität der biopharmazeutischen Entwicklungspipelines erhöhen. Aufgrund der unbekannten Beziehungen zwischen Proteinstruktur und Adsorptionsverhalten stützen sich aktuelle Entwicklungsstrategien für die präparative Chromatographie auf Hochdurchsatz-Experimente (HTE) und statistische Versuchsplanung (DoE). Miniaturisierte HTE-Methoden ermöglichen die Untersuchung eines großen Parameterraums innerhalb eines kurzen Zeitrahmens, aber ihre Vergleichbarkeit mit dem Produktionsmaßstab ist begrenzt. In den frühen Phasen der DSP-Entwicklung schränkt der ständige Mangel an Zeit und Proteinmaterial den Einsatz experimenteller Methoden weiter ein. In vielen Fällen sind DoE-Studien in Verbindung mit empirischer Response-Surface-Modellierung nicht in der Lage, die hochgradig nichtlinearen Beziehungen in der präparativen Chromatographie zu erfassen. Aufgrund der Vielzahl von Parametern, die sich potenziell auf die Produktqualität auswirken können, werden die in DoE-Studien untersuchten Prozessparameter häufig auf der Grundlage von Expertenwissen und einer unzureichenden Datenmenge ausgewählt. Eine falsche Auswahl von Prozessparametern kann zu unnötigen Experimenten führen, die die Prozessentwicklung verzögern, oder schlimmer, zu einem schlecht kontrollierten Herstellungsprozess, der nicht in der Lage ist, eine konstante Produktqualität zu gewährleisten. Mit der Quality by Design (QbD) Initiative fordern die Zulassungsbehörden ein klares Verständnis der Zusammenhänge zwischen Prozessparametern und Produktqualität. Die U.S. Food and Drug Administration (FDA) und andere Aufsichtsbehörden unterstützen ausdrücklich die Verwendung mathematischer Modelle zur Entwicklung gut verstandener Herstellungsprozesse, die eine robuste Produktqualität und eine effiziente Marktversorgung ermöglichen. In den letzten Jahren wurden computergestützte Methoden auf der Grundlage von Homologiemodellierung, quantitativen Struktur-Eigenschafts-Beziehungen (QSPR), maschinellem Lernen und mechanistischer Chromatographiemodellierung entwickelt, um vielseitige Aufgaben in der biopharmazeutischen Forschung und Entwicklung zu unterstützen. Mechanistische Chromatographiemodelle sind in der Lage, nichtlineare Beziehungen zwischen Prozessparametern und kritischen Qualitätsattributen (CQAs) vorherzu-sagen. Die Proteinstruktur ist jedoch die eigentliche Ursache für die Funktionalität eines biologischen Arzneimittels. Diese Arbeit zielt darauf ab die Zusammenhänge zwischen der Proteinstruktur und dem makroskopischen Prozessverhalten zu verstehen, um die strukturbasierte Vorhersage von CQAs für eine verbesserte Herstellung von biologischen Arzneimitteln zu ermöglichen. Die vorliegende Arbeit besteht aus fünf Manuskripten, die sich mit der Erstellung von strukturbasierten und mechanistischen Modellen für die rationalisierte DSP Entwicklung von therapeutischen Antikörpern befassen. Dies erfordert ein verbessertes Verständnis der Beziehungen zwischen der Proteinstruktur und den makroskopischen Parametern der Adsorptionsisotherme. Lernalgorithmen sollen mit einem umfassenden Datensatz trainiert und validiert werden, der strukturelle Deskriptoren und Isothermenparameter von therapeutischen Antikörpern enthält, die für biopharmazeutische Entwicklungspipelines re-präsentativ sind. Es sollen effiziente Methoden zur Modellkalibrierung, -validierung und \textit{in silico} Prozesscharakterisierung entwickelt werden, die den QbD-Richtlinien gerecht werden. Die Kombination von Homologiemodellierung, QSPR-Modellierung und mechanistischer Chromatographiemodellierung in einem holistischen \textit{in silico}-Werkzeug soll den Weg von der Aminosäuresequenz des Antikörperkandidaten zu einem robusten Produktionsprozess weisen. Das erste Manuskript dieser Arbeit untersuchte den Einfluss von Aminosäuresubstitutionen in der Complementary Determining Region (CDR) eines IgG1 mAb auf sein Elutionsverhalten in der präparativen CEX Chromatographie. Die Aminosäuresubstitutionen wurden eingeführt, um die biophysikalischen Eigenschaften des mAb zu beeinflussen, indem oberflächenexponierte hydrophobe und geladene Bereiche verändert wurden. Zusätzliche positiv geladene Gruppen in den CDR der leichten Kette (L) und der schweren Kette (H) der mAb-Varianten führten zu einem erhöhten Retentionsvolumen bei der linearen Salzgradientenelution im Vergleich zum ursprünglichen Antikörper. Die Substitution von Tryptophan durch Lysin in der H-CDR3 erhöhte die Ladungsheterogenität des Produkts und führte zu einer signifikanten Erhöhung des Elutionspoolvolumens. Eine multiskalige \textit{in silico}-Analyse, bestehend aus Homologiemodellierung, Proteinoberflächenanalyse und mechanistischer Chromatographiemodellierung, entschlüsselte die qualitativen Zusammenhänge zwischen Struktureigenschaften und Parametern der Steric Mass Action Isotherme (SMA). Die gewonnenen Erkenntnisse über die Bindungsorientierung und die Proteinadsorption an starke CEX-Medien bilden das theoretische Fundament für QSPR-Modelle, die Isothermenparameter auf der Grundlage von Antikörperstrukturinformationen vorhersagen. Im zweiten Manuskript wurde eine QSPR Modellierungsmethode zur Vorhersage von Stoichiometric Displacement Model (SDM) Parametern von therapeutischen mAbs vorgestellt. Das Modell nutzt Proteindeskriptoren, die aus Homologiemodellen abgeleitet wurden und experimentelle Daten mehrerer Antikörperformate, einschließlich IgG1 mAbs, IgG4 mAbs, Fabs sowie bispezifische Antikörper, um Chromatogramme von zwei mAbs vorherzusagen, die aus dem Trainingsdatensatz entfernt wurden. Die Berücksichtigung von zwei diskreten Konformationen bei der Homologiemodellierung von IgG4 mAbs lieferte eine mögliche Erklärung für Split-Peak-Chromatogramme. Mit Hilfe der Gaußprozess-Regression wurde eine quantitative Beziehung zwischen den Proteindeskriptoren und den makroskopischen Parametern der SDM-Isotherme hergestellt. Durch rekursive Feature-Eliminierung wurden Proteindeskriptoren innerhalb der variablen Region von mAbs identifiziert, die für die Vorhersage der thermodynamischen Gleichgewichtskonstante relevant sind. Im Gegensatz dazu, war der charakteristische Ladungsparameter der SDM-Isotherme hauptsächlich von der Gesamtnettoladung der untersuchten Antikörper abhängig. Die ersten beiden Manuskripte zeigten, wie Homologiemodellierung, QSPRs und mechanistische Modellierung die Frühphasen-Entwicklung für ein neues Biopharmazeutikum unterstützen können, auch ohne anfängliches Prozesswissen und Proteinmaterial für Laborversuche. Die Manuskripte drei, vier und fünf bilden eine Publikationsreihe, die darauf abzielt, die Verwendung der mechanistischen Chromatographiemodellierung als QbD-Werkzeug in der Spätphasen-Entwicklung zu fördern. Daher werden in den folgenden Manuskripten optimierte Methoden zur Modellkalibrierung, -validierung und -anwendung vorgestellt. Im dritten Manuskript wurde eine Methode für die Kalibrierung von multikomponenten SMA Chromatographiemodellen entwickelt. Die mechanistische Modellierung ist eine vielversprechende Technologie für die digitale Bioprozessentwicklung, aber die komplexe und zeitaufwändige Modellkalibrierung hemmt noch immer ihre Anwendung in der biopharmazeutischen Industrie. Für die \textit{in silico}-Prozesscharakterisierung und andere komplexe DSP-Anwendungen müssen Kalibrierungs- und Validierungstechniken zu einer Modellsicherheit führen, die den Anforderungen des QbD-Konzepts gerecht wird. In dieser Studie wurde eine pH-abhängige, multikomponenten SMA-Isotherme verwendet, um einen CEX-Chromatographieprozess zu modellieren, der drei mAb-Ladungsvarianten sowie eine Aggregatspezies beinhaltet. Die Modellkalibrierungsmethode basierte auf der systematischen Reduktion unbekannter Modellparameter durch Anwendung grundlegender Kenntnisse über präparative Chromatographie in Kombination mit der inversen Schätzung von Modellparametern unter Verwendung repräsentativer Experimente. Die Parameter, die den linearen Bereich der SMA-Isotherme definieren, wurden anhand einer Reihe von linearen Gradientenelutionsversuchen ohne Fraktionssammlung bestimmt, was den analytischen Aufwand für die Quantifizierung der Ladungs- und Größenvarianten drastisch reduzierte. Außerdem konnten mit dieser Methode lokale Minima bei der heuristischen Schätzung der übrigen Modellparameter vermieden werden. Die Anreicherung der Aggregatspezies im Ausgangsmaterial reduzierte die Modellunsicherheit für diese niedrig konzentrierte Verunreinigung. Die Modellvalidierung wurde unter Prozessbedingungen durchgeführt, die außerhalb der vorgesehenen Parameterbereiche des CEX-Prozesses lagen. Mit dieser Arbeit wurde eine standardisierte Methode zur Kalibrierung von mechanistischen Chromatographiemodellen eingeführt, die in einem industriellen Umfeld eingesetzt werden kann. Als Alternative zu experimentellen Scale-Down Modellen (ScDM) wurde im vierten Manu-skript das zuvor vorgestellte mechanistische Chromatographiemodell als digitale Repräsentation des Prozesses im Produktionsmaßstab validiert. Experimentelle ScDMs von Chromatographieprozessen ermöglichen eine wirtschaftliche Prozesscharakterisierung und Ursachenforschung im Labormaßstab. Die Vergleichbarkeit zwischen ScDM Säulen und größeren Maßstäben hängt jedoch von systemspezifischen Dispersionseffekten, der Variabilität der Ligandendichte sowie der Variabilität in der Zusammensetzung des Feed-Materials und der Beladungsdichte ab. Darüber hinaus verlangen die Aufsichtsbehörden, dass mathematische Modelle die Auswirkungen der Prozessvariabilität erfassen, die bei der Herstellung im Großmaßstab zu erwarten sind, wenn das Modell zur Festlegung einer Kontrollstrategie für den kommerziellen Herstellungsprozess verwendet wird. Der Vergleich zwischen simulierten und gemessenen Chromatogrammen und Elutionspooldaten vom Labor- bis zum Produktionsmaßstab ermöglichte die frühzeitige Identifizierung von Unterschieden zwischen den Maßstäben, z.~B. Systemdispersionseffekte oder Variabilität der Ionenkapazität. Es wurde eine mehrstufige Modellvalidierungsmethode eingeführt, um die Modellqualität zu messen und die Grenzen des Modells in verschiedenen Maßstäben zu verstehen. Das experimentelle ScDM und das \textit{in silico}-Modell wurden mit Hilfe des identischen statistischen Äquivalenztestverfahrens als repräsentative Darstellung des Produktionsmaßstabs validiert. Das mechanistische Chromatographiemodell umging die Limitierungen des experimentellen ScDM, indem es die Auswirkungen von Betthöhe, Beladungsdichte, Feed-Zusammensetzung und Eigenschaften der mobilen Phase erfasste. Die Ergebnisse zeigen die Anwendbarkeit mechanistischer Chromatographiemodelle als mögliche Alternative zu konventionellen ScDM-Ansätzen und ermöglichen ihre Verwendung für komplexe Aufgaben in der Spätphasen-Entwicklung. Das fünfte und letzte Manuskript demonstriert die Anwendung des zuvor veröffentlichten mechanistischen Chromatographiemodells auf die Prozesscharakterisierung (PCS) eines Aufreinigungsschritts. Studien zur Prozesscharakterisierung stellen die umfangreichsten und zeitaufwändigsten Arbeitspakete während der DSP-Entwicklung eines mAbs dar. Im Allgemeinen besteht das Ziel der PCS in der Identifizierung von Korrelationen zwischen Prozessparametern und CQAs, was die Etablierung einer robusten Prozesskontrollstrategie ermöglichen soll. Aufgrund der Komplexität der präparativen Chromatographie und einer Vielzahl von potenziell kritischen Prozessparametern erfordert eine traditionelle PCS auf der Grundlage statistischer DoEs Dutzende von Laborexperimenten sowie zeitintensive Offline-Messungen. Die in dieser Arbeit vorgestellte Modellierungsmethode deckt die Hauptaufgaben traditioneller PCS-Studien nach den QbD-Prinzipien ab, einschließlich der Bewertung der Kritikalität von 11 Prozessparametern und der Festlegung ihrer Kontrollbereiche. Die Analyse der Auswirkungen eines multivariaten Samplings von Prozessparametern auf das Aufreinigungsergebnis ermöglichte die Identifizierung der Edge-of-Failure. Die experimentelle Validierung der \textit{in silico}-Ergebnisse erforderte etwa 75\% weniger Experimente im Vergleich zu einer rein auf Laborexperimenten basierenden PCS. Monte-Carlo-Simulationen wurden unter Berücksichtigung der gemessenen Varianzen der Prozessparameter und der Zusammensetzung des Feed-Materials im Produktionsmaßstab eingesetzt, um die Fähigkeit des Prozesses abzuschätzen, die Akzeptanzkriterien für CQAs und Prozessausbeute zu erfüllen. Der hier vorgestellte Arbeitsablauf ermöglicht die Implementierung digitaler Zwillinge als QbD-Werkzeug für eine verbesserte Entwicklung biopharmazeutischer Herstellungsprozesse. In der vorliegenden Arbeit wurden mehrere Hindernisse auf dem Weg von der Primärstruktur zur Etablierung eines robusten Downstream-Prozesses beseitigt. Die multiskalige Modellierung mehrerer Biologika in der CEX-Chromatographie führte zu einem tiefen Verständnis der zugrundeliegenden Adsorptionsmechanismen. Die vorgestellten QSPR-Modelle zur Vorhersage von SDM-Isothermen Parametern ermöglichten einen frühen Start der Prozessentwicklung, bevor Proteinmaterial für Laborexperimente zur Verfügung steht. Um die Lücke zwischen der Frühphasen- und Spätphasen-Entwicklung zu schließen, können erste Chromatographiemodelle, die auf Proteinstrukturinformationen aufbauen, mit Hilfe experimenteller Daten weiter verfeinert werden. Im Kontext der QbD-Richtlinien tragen standardisierte und wissenschaftlich fundierte Methoden zur Modellkalibrierung, Validierung und \textit{in silico}-Prozesscharakterisierung zu einer effizienteren und wirtschaftlicheren DSP-Entwicklung bei und erhöhen gleichzeitig die Prozessrobustheit und Produktqualität. Die in dieser Arbeit vorgestellten Werkzeuge haben das Potenzial, die Akzeptanz gegenüber der mechanistischen Modellierung in der Industrie und bei den Aufsichtsbehörden zu erhöhen
    corecore