166 research outputs found

    A critical review of recent trends, and a future perspective of optical spectroscopy as PAT in biopharmaceutical downstream processing

    Get PDF
    As competition in the biopharmaceutical market gets keener due to the market entry of biosimilars, process analytical technologies (PATs) play an important role for process automation and cost reduction. This article will give a general overview and address the recent innovations and applications of spectroscopic methods as PAT tools in the downstream processing of biologics. As data analysis strategies are a crucial part of PAT, the review discusses frequently used data analysis techniques and addresses data fusion methodologies as the combination of several sensors is moving forward in the field. The last chapter will give an outlook on the application of spectroscopic methods in combination with chemometrics and model predictive control (MPC) for downstream processes

    Multivariate statistical data analysis of cell-free protein synthesis toward monitoring and control

    Get PDF
    The optimization and control of cell free protein synthesis (CFPS) presents an ongoing challenge due to the complex synergies and nonlinearities that cannot be fully explained in first principle models. This article explores the use of multivariate statistical tools for analyzing data sets collected from the CFPS of Cereulide monoclonal antibodies. During the collection of these data sets, several of the process parameters were modified to investigate their effect on the end‐point product (yield). Through the application of principal component analysis and partial least squares (PLS), important correlations in the process could be identified. For example, yield had a positive correlation with pH and NH3 and a negative correlation with CO2 and dissolved oxygen. It was also found that PLS was able to provide a long‐term prediction of product yield. The presented work illustrates that multivariate statistical techniques provide important insights that can help support the operation and control of CFPS processes

    Expanding the Horizons of Manufacturing: Towards Wide Integration, Smart Systems and Tools

    Get PDF
    This research topic aims at enterprise-wide modeling and optimization (EWMO) through the development and application of integrated modeling, simulation and optimization methodologies, and computer-aided tools for reliable and sustainable improvement opportunities within the entire manufacturing network (raw materials, production plants, distribution, retailers, and customers) and its components. This integrated approach incorporates information from the local primary control and supervisory modules into the scheduling/planning formulation. That makes it possible to dynamically react to incidents that occur in the network components at the appropriate decision-making level, requiring fewer resources, emitting less waste, and allowing for better responsiveness in changing market requirements and operational variations, reducing cost, waste, energy consumption and environmental impact, and increasing the benefits. More recently, the exploitation of new technology integration, such as through semantic models in formal knowledge models, allows for the capture and utilization of domain knowledge, human knowledge, and expert knowledge toward comprehensive intelligent management. Otherwise, the development of advanced technologies and tools, such as cyber-physical systems, the Internet of Things, the Industrial Internet of Things, Artificial Intelligence, Big Data, Cloud Computing, Blockchain, etc., have captured the attention of manufacturing enterprises toward intelligent manufacturing systems

    Process Development Tools for Cross-Flow Filtration in Biopharmaceutical Downstream Processing

    Get PDF
    In der modernen Medizin sind biopharmazeutische Proteine wichtige Substanzen für die Behandlung und Vorbeugung von Krankheiten wie Lymphomen bzw. Hepatitis B. Diese Proteine haben eine komplexe Struktur, die eine biologische Synthese in Zellen erfordert, und ihre parenterale Verabreichung bedarf einer anschließenden Reinigung. Abschließend muss das Protein in einer Flüssigkeit formuliert werden, die eine gewisse Haltbarkeit und physiologische Verträglichkeit gewährleistet. Die Gewinnung des Proteins aus der Zellbrühe, die Reinigung und die Formulierung werden als downstream processing (DSP) bezeichnet. Jeder Prozessschritt im DSP wird mit einer Grundoperation durchgeführt, eine davon ist die Querstromfiltration (cross-flow filtration, CFF), auch bekannt als Tangentialflussfiltration (TFF). Bei der CFF werden die Proteine durch Größenausschluss von Verunreinigungen oder der umgebenden flüssigen Phase getrennt, wobei der Trennmechanismus im Idealfall von anderen Proteineigenschaften wie Ladung oder Hydrophobizität entkoppelt ist. Der Größenausschluss wird durch poröse Membranen realisiert. Im DSP biopharmazeutischer Proteine kann die CFF für die Zellseparation, die Reinigung und die finale Formulierung eingesetzt werden. Letztere besteht in der Regel aus einer Kombination von Pufferaustausch und Konzentrationserhöhung, die als Ultrafiltration/Diafiltration (UF/DF) bezeichnet wird. Im Vergleich zur herkömmlichen Normalstromfiltration wird der Zulaufstrom bei der CFF parallel zur Membranoberfläche gerichtet und das Filtrat dringt durch die Poren der Membran. Daher führt die CFF zu einer geringeren Anreicherung der zurückgehaltenen Spezies an der Membranoberfläche und somit zu schnelleren Prozessen und weniger konzentrationsabhängiger Aggregation. Trotz dieser Vorteile ist die Prozessentwicklung für die CFF mit einigen Herausforderungen verbunden: Diese sind zeit- und materialaufwändige Experimente, begrenzte Reinigungsleistung und Abweichungen der Ionenkonzentrationen vom Zielwert bei hohen Proteinkonzentrationen. Im DSP stehen mehrere Werkzeuge für die Prozessentwicklung und -optimierung zur Verfügung, zum Beispiel Prozessintegration, Hochdurchsatz-Screenings (high-throughput screenings, HTS), prozessanalytische Technologie (process analytical technology, PAT) und mechanistische Modellierung. Im Vergleich zu anderen Grundoperationen, wie zum Beispiel der Chromatographie, werden diese Werkzeuge jedoch nur selten für die CFF eingesetzt. Das Ziel dieser Arbeit war es, Lösungen für die genannten Herausforderungen zu finden, indem diese Werkzeuge in speziellen Fallstudien eingesetzt werden. Zudem war es Ziel dieser Arbeit, Erkenntnisse aus diesen Fallstudien zu gewinnen, um die Auswahl der Werkzeuge zur Entwicklung von CFF-Prozessen im biopharmazeutischen DSP zu erweitern. In Kapitel 1 dieser Arbeit wird einen Überblick über DSP-Ansätze für die beiden in dieser Arbeit exemplarisch verwendeten Biopharmazeutika, virusähnliche Partikel (virus-like particles, VLPs) und monoklonale Antikörper (monoclonal antibodies, mAbs), gegeben. VLPs sind nicht-infektiöse virale Partikel, denen das virale Genom fehlt. Nicht-umhüllte VLPs bestehen aus Proteinuntereinheiten, die sich in der produzierenden Zelle spontan zu Kapsiden zusammensetzen. VLPs werden meist während des DSP zerlegt und neu zusammengesetzt, um ihre Homogenität, Stabilität und Immunogenität zu verbessern. Biopharmazeutische Anwendungen von VLPs sind Impfstoffe und potenzielle therapeutische Impfstoffe oder Vektoren für die Ein-schleusung anderer Moleküle. MAbs sind Immunglobuline, die aus vier kovalent gebundenen Proteinketten bestehen. Im Vergleich zu mAbs sind die meisten VLPs um mehr als eine Größenordnung größer in Durchmesser und Molekulargewicht. MAbs gehören zu den am häufigsten zugelassenen Biopharmazeutika für den menschlichen Gebrauch und finden unter anderem bei der Behandlung von Krebs- und Entzündungskrankheiten Anwendung. Außerdem werden in Kapitel 1 Grundlagen und Anwendungen der CFF erläutert. Abschließend werden Hintergrundwissen und aktuelle Forschung zu den angewandten Werkzeugen der Prozessentwicklung dargestellt. Alternative Trennverfahren zur chromatographischen Reinigung weisen häufig eine geringere Trennleistung auf und sind schlecht skalierbar. Die wichtigsten Messgrößen für die Prozessleitung im DSP sind Reinheit und Produktivität. Beide können durch Prozessintegration verbessert werden, die durch die Kombination von Grundoperationen in einem gemeinsamen Arbeitsraum oder deren nahtlose Verbindung erreicht wird. In Kapitel 3 wird die Anwendung der Prozessintegration zur Verbesserung der Prozessleistung und der Skalierbarkeit des DSP von nicht-umhüllten VLPs vorgestellt. Dazu wurden die VLP-Fällung, -Wäsche und -Rücklösung mit CFF kombiniert. Es wurde eine Steuerung der Permeatflussrate implementiert, die die Verdichtung des Präzipitats an der Membranoberfläche reduzierte. Im Vergleich zur Abtrennung des Präzipitats mittels Zentrifugation, führte dieser Ansatz zu einer verbesserten Reinheit und Produktivität sowie zu einem höheren Automatisierungsgrad. Die Steuerung der Permeatflussrate ermöglichte auch die zusätzliche Integration von multimodaler Größenausschlusschromatographie (size exclusion chromatography, SEC) in den Rücklösungsstrom und damit eine weitere Verbesserung der Reinheit. Die in-line-Überwachung der Absorbanz von ultraviolettem Licht (UV) und die Produktfraktionierung wurden implementiert, um die Reinheit auf der Grundlage von datengesteuerten Entscheidungen während des Prozesses zu verbessern. Die vorgestellten Maßnahmen führten zu einem integrierten Abtrennungs- und Reinigungsschritt mit flexibler Skalierbarkeit und großem Potenzial für eine vollständige Automatisierung. Die Trennleistung war außerdem vergleichbar mit kompletten DSP-Ansätzen in der Literatur. Durch die Integration mehrerer Trenntechniken wurden Synergien geschaffen, die die Leistungsgrenzen der einzelnen Techniken überwinden. Der resultierende DSP-Ansatz basiert ausschließlich auf größenselektiven Trenntechniken, die den Größenunterschied von VLPs zu üblichen Verunreinigungen ausnutzen. Dieser Größenunterschied gilt für die meisten VLPs und verspricht somit eine breite Anwendbarkeit des vorgestellten DSP-Ansatzes. In der biopharmazeutischen Entwicklung ist die Verfügbarkeit von Proteinmaterial oft begrenzt, während die CFF vergleichsweise große Mengen für experimentelle Studien benötigt. In Kapitel 4 werden diese Herausforderungen adressiert, indem ein Ansatz zur Prozessentwicklung für Proteinreaktionen, die durch eine Änderung der Flüssigphase angetrieben werden, vorgestellt wird. Als Fallstudie wurde die Zerlegung von nicht-umhüllten VLPs untersucht. Sie kann durch eine Änderung der Flüssigphase ausgelöst werden, zum Beispiel durch eine Erhöhung des pH-Werts und der Harnstoffkonzentration. Um die optimalen Flüssigphasenbedingungen für die Zerlegung von VLPs zu finden, wurden HTS in kleinen Volumina durchgeführt. Dazu wurden VLP-Lösungen mit Stammlösungen gemischt, um den Prozessbedingungen zu entsprechen, und unter Reaktionsbedingungen automatisch mittels SEC analysiert. Die daraus resultierenden hochauflösenden Daten ermöglichten die Charakterisierung der Zerlegung der VLPs im Hinblick auf die CFF-basierte Prozessierung. Die optimalen Bedingungen wurden dann in einem DF-Prozessschritt im Labormaßstab angewendet. Die nach der DF-basierten Prozessierung beobachtete höhere Ausbeute und Reinheit wurde auf eine kontrollierte Änderung der Flüssigphase, eine intensivere Durchmischung und die gleichzeitige Abreicherung von Verunreinigungen zurückgeführt. Darüber hinaus wurde der VLP-Zerlegungsschritt in eine Sequenz von filtrationsbasierten Prozess-schritten eingebettet, wodurch unerwünschte Spezies mit höherem Mole-kulargewicht deutlich reduziert wurden. Die ausschließliche Verwendung der Filtration als größenselektiver Trenntechnik macht den entwickelten Prozess unabhängig von anderen molekularen Proteineigenschaften und bietet daher das Potenzial für eine Plattformprozessierung von nicht-umhüllten VLPs im Allgemeinen. Der vorgestellte Ansatz zur Prozessentwicklung reduziert den Zeit- und Proteinbedarf durch die Entkopplung des Screenings der Bedingungen von der CFF-Entwicklung und bietet das Potenzial für eine umfassende Charakterisierung. Die in Kapitel 5 vorgestellte Studie zielte darauf ab, die Herausforderung der Materialbeschränkungen zu überwinden, indem das aus CFF-Experimenten gewonnene Wissen maximiert wird. Dazu wurde ein PAT-Konzept für denselben Prozessschritt der Zerlegung von VLPs entwickelt, der in Kapitel 4 vorgestellt wird. Eine Reihe von PAT-Sensoren wurde unter verschiedenen Prozessbedingungen evaluiert. Parameter der Filtration wie Drücke, Durchflussraten und Pufferaustausch wurden in-line überwacht. Der Fortschritt der Zerlegung der VLPs wurde on-line mittels UV-Absorbanz und statischer Lichtstreuung qualitativ überwacht. Die Analyse der zweiten Ableitung der UV-Spektren zeigte außerdem Veränderungen in der Tertiärstruktur der Proteinuntereinheiten während der VLP-Zerlegung. Die on-line Überwachung der dynamischen Lichtstreuung zeigte Potenzial als qualitativer Indikator für unerwünschte Proteinaggregation. Regressionsmodelle, die UV-Daten als Eingangsgröße und die Konzentration der VLP-Untereinheiten als Ausgangsgröße verwenden, wurden kalibriert und anhand von at-line SEC-Daten als Referenz validiert. Mit Hilfe der Modelle wurden die Konzentrationen der Untereinheiten und damit der Fortschritt der VLP-Zerlegung präzise vorausgesagt. Die Vorhersagen wurden erfolgreich zur Erkennung von Prozessendpunkten eingesetzt. Darüber hinaus wurde nachgewiesen, dass unverarbeitete univariate Signale von UV und statischer Lichtstreuung den Prozessendpunkt erfolgreich erkennen, was einen einfachen Ansatz für die großtechnische Herstellung darstellt. Insgesamt liefert das entwickelte PAT-Konzept prozess- und produktbezogene Daten in (nahezu) Echtzeit, was eine umfassende Überwachung, Charakterisierung und Endpunktdetektion ermöglicht. Der vorgestellte Ansatz hat großes Potenzial zur Charakterisierung der Zerlegung anderer VLPs oder von Reaktionen, die eine Veränderung der Partikelgröße oder der tertiären Proteinstruktur mit sich bringen. Die Formulierung biopharmazeutischer Proteine mittels UF/DF wird mit steigender Proteinkonzentration anspruchsvoller. Die Anreicherung von geladenen Proteinen führt zu einer ungleichmäßigen Verteilung von geladenen Hilfsstoffen durch die Membran, was als Gibbs-Donnan-Effekt bezeichnet wird. Dieser Effekt führt zu Abweichungen des pH-Werts und der Konzentration der Hilfsstoffe von den Zielbedingungen. Diese Abweichungen können durch den Volumenausschlusseffekt oder die Abhängigkeit der pK-Werte von der Ionenstärke noch verstärkt oder verringert werden. Das komplexe Geflecht dieser voneinander abhängigen Phänomene erschwert einfache oder generische Abschätzungen der endgültigen Zusammensetzung. In Kapitel 6 wird die Entwicklung und Validierung eines mechanistischen Modells vorgestellt, das die genannten Phänomene und Wechselwirkungen beschreibt. Ziel der Studie war es, ein besseres Verständnis der Modellvariablen zu erlangen und die Zusammensetzung während UF/DF-Prozessen mit hohen Konzentrationen vorherzusagen. Derzeit verfügbare Modelle beschreiben und validieren den Bereich hoher Proteinkonzentrationen über 100 gL^{-1} nur unzureichend oder erfordern eine experimentelle Kalibrierung. Es wurde ein mechanistisches Modell entwickelt, das auf der Poisson-Boltzmann-Theorie und einem grundlegenden Stern-Modell basiert, um die elektrostatischen Wechselwirkungen von Proteinen und geladenen gelösten Stoffen zu beschreiben. Ein besonderer Fokus bei der Entwicklung lag auf hohen Proteinkonzentrationen. Das Modell wurde außerdem so konzipiert, dass als Eingangsvariablen lediglich üblicherweise bekannte theoretische Informationen über das Protein und die Pufferzusammensetzung benötigt werden. Das Modell wurde anhand umfassender experimenteller Daten kompletter UF/DF/UF-Sequenzen von mAbs und verschiedenen Flüssigphasenbedingungen sorgfältig validiert. Die Vorhersagen des Modells zeigten im Vergleich zu bestehenden Ansätzen eine bessere Genauigkeit im Bereich hoher Konzentrationen. Zusammenfassend lässt sich sagen, dass das entwickelte Modell und die angewandte Validierungsstrategie ein tieferes Verständnis von UF/DF-Modellen, die auf der Poisson-Boltzmann Theorie basieren, ermöglichen. Das rein prädiktive Modell ermöglicht ein systematisches in silico Design von hochkonzentrierten UF/DF-Schritten, ohne dass Proteinmaterial benötigt wird. Abschließend kann gesagt werden, dass Prozessintegration, HTS, PAT und mechanistische Modellierung erfolgreich für die Entwicklung von CFF-Prozessen implementiert und zur Verbesserung der Prozessleistung, des Proteinbedarfs und der Entwicklungszeiten eingesetzt wurden. Diese Arbeit liefert somit potenzielle Lösungen für die Herausforderungen in der biopharmazeutischen CFF-Prozessentwicklung auf der Grundlage von konkreten Fallstudien. Zusätzlich zu diesen Lösungen bieten die entwickelten CFF-Prozesse neue Ansätze für die größenselektive Aufreinigung von nicht-umhüllten VLPs und damit Bausteine für ein Plattform-DSP. Für die Modellierung der Zusammensetzung während der UF/DF von hochkonzentrierten mAb-Formulierungen wird ein umfassendes Verständnis der Modellvariablen und der Gültigkeit der Annahmen erarbeitet. Diese Arbeit zur Erweiterung des Forschungsstandes zur CFF-Prozessentwicklung durch fortschrittliche Entwicklungsansätze und Prozessdesigns bei

    Multivariate statistical data analysis of cell‐free protein synthesis toward monitoring and control

    Get PDF
    From Wiley via Jisc Publications RouterHistory: received 2020-09-14, rev-recd 2021-01-28, accepted 2021-03-06, pub-electronic 2021-03-23, pub-print 2021-06Article version: VoRPublication status: PublishedFunder: UK Engineering and Physical Sciences Research Council (EPSRC); Id: http://dx.doi.org/10.13039/501100000266; Grant(s): EP/P006485/1Abstract: The optimization and control of cell free protein synthesis (CFPS) presents an ongoing challenge due to the complex synergies and nonlinearities that cannot be fully explained in first principle models. This article explores the use of multivariate statistical tools for analyzing data sets collected from the CFPS of Cereulide monoclonal antibodies. During the collection of these data sets, several of the process parameters were modified to investigate their effect on the end‐point product (yield). Through the application of principal component analysis and partial least squares (PLS), important correlations in the process could be identified. For example, yield had a positive correlation with pH and NH3 and a negative correlation with CO2 and dissolved oxygen. It was also found that PLS was able to provide a long‐term prediction of product yield. The presented work illustrates that multivariate statistical techniques provide important insights that can help support the operation and control of CFPS processes

    Optimization of Fluid Bed Dryer Energy Consumption for Pharmaceutical Drug Processes through Machine Learning and Cloud Computing Technologies

    Full text link
    [ES] Los altos costes energéticos, las constantes medidas regulatorias aplicadas por las administraciones para mantener bajos los costes sanitarios, así como los cambios en la normativa sanitaria que se han introducido en los últimos años, han tenido un impacto significativo en la industria farmacéutica y sanitaria. El paradigma Industria 4.0 engloba cambios en el modelo productivo tradicional de la industria farmacéutica con la inclusión de tecnologías que van más allá de la automatización tradicional. El objetivo principal es lograr medicamentos más rentables mediante la incorporación óptima de tecnologías como la analítica avanzada. El proceso de fabricación de las industrias farmacéuticas tiene diferentes etapas (mezclado, secado, compactado, recubrimiento, envasado, etc.) donde una de las etapas más costosas energéticamente es el proceso de secado. El objetivo durante este proceso es extraer el contenido de líquidos como el agua mediante la inyección de aire caliente y seco en el sistema. Este tiempo de secado normalmente está predeterminado y depende del volumen y el tipo de unidades de producto farmacéutico que se deben deshidratar. Por otro lado, la fase de precalentamiento puede variar dependiendo de varios parámetros como la experiencia del operador. Por lo tanto, es posible asumir que una optimización de este proceso a través de analítica avanzada es posible y puede tener un efecto significativo en la reducción de costes en todo el proceso de fabricación. Debido al alto coste de la maquinaria involucrada en el proceso de producción de medicamentos, es una práctica común en la industria farmacéutica tratar de maximizar la vida útil de estas máquinas que no están equipados con los últimos sensores. Así pues, es posible implementar un modelo de aprendizaje automático que utilice plataformas de analítica avanzada, como la computación en la nube, para analizar los posibles ahorros en el consumo de energía. Esta tesis está enfocada en mejorar el consumo de energía en el proceso de precalentamiento de un secador de lecho fluido, mediante la definición e implementación de una plataforma de computación en la nube IIOT (Industrial Internet of Things)-Cloud, para alojar y ejecutar un algoritmo de aprendizaje automático basado en el modelo Catboost, para predecir cuándo es el momento óptimo para detener el proceso y reducir su duración y, en consecuencia, su consumo energético. Los resultados experimentales muestran que es posible reducir el proceso de precalentamiento en un 45% de su duración en tiempo y, en consecuencia, reducir el consumo de energía hasta 2.8 MWh por año.[CAT] Els elevats costos energètics, les constants mesures reguladores aplicades per les administracions per mantenir uns costos assistencials baixos, així com els canvis en la normativa sanitària que s'han introduït en els darrers anys, han tingut un impacte important en el sector farmacèutic i sanitari. El paradigma de la indústria 4.0 engloba els canvis en el model de producció tradicional de la indústria farmacèutica amb la inclusió de tecnologies que van més enllà de l'automatització tradicional. L'objectiu principal és aconseguir fàrmacs més rendibles mitjançant la incorporació òptima de tecnologies com l'analítica avançada. El procés de fabricació de les indústries farmacèutiques té diferents etapes (mescla, assecat, compactació, recobriment, envasat, etc.) on una de les etapes més costoses energèticament és el procés d'assecat. L'objectiu d'aquest procés és extreure el contingut de líquids com l'aigua injectant aire calent i sec al sistema. Aquest temps de procediment d'assecat normalment està predeterminat i depèn del volum i del tipus d'unitats de producte farmacèutic que cal deshidratar. D'altra banda, la fase de preescalfament pot variar en funció de diversos paràmetres com l'experiència de l'operador. Per tant, podem assumir que una optimització d'aquest procés mitjançant analítiques avançades és possible i pot tenir un efecte significatiu de reducció de costos en tot el procés de fabricació. A causa de l'elevat cost de la maquinària implicada en el procés de producció de fàrmacs, és una pràctica habitual a la indústria farmacèutica intentar maximitzar la vida útil d'aquestes màquines que no estan equipats amb els darrers sensors. Així, es pot implementar un model d'aprenentatge automàtic que utilitza plataformes de analítiques avançades com la computació en núvol, per analitzar l'estalvi potencial del consum d'energia. Aquesta tesis està enfocada a millorar el consum d'energia en el procés de preescalfament d'un assecador de llit fluid, mitjançant la definició i implementació d'una plataforma IIOT (Industrial Internet of Things)-Cloud computing, per allotjar i executar un algorisme d'aprenentatge automàtic basat en el modelatge Catboost, per predir quan és el moment òptim per aturar el procés i reduir-ne la durada, i en conseqüència el seu consum energètic. Els resultats de l'experiment mostren que és possible reduir el procés de preescalfament en un 45% de la seva durada en temps i, en conseqüència, reduir el consum d'energia fins a 2.8 MWh anuals.[EN] High energy costs, the constant regulatory measures applied by administrations to maintain low healthcare costs, and the changes in healthcare regulations introduced in recent years have all significantly impacted the pharmaceutical and healthcare industry. The industry 4.0 paradigm encompasses changes in the traditional production model of the pharmaceutical industry with the inclusion of technologies beyond traditional automation. The primary goal is to achieve more cost-efficient drugs through the optimal incorporation of technologies such as advanced analytics. The manufacturing process of the pharmaceutical industry has different stages (mixing, drying, compacting, coating, packaging, etc..), and one of the most energy-expensive stages is the drying process. This process aims to extract the liquid content, such as water, by injecting warm and dry air into the system. This drying procedure time usually is predetermined and depends on the volume and the kind of units of a pharmaceutical product that must be dehydrated. On the other hand, the preheating phase can vary depending on various parameters, such as the operator's experience. It is, therefore, safe to assume that optimization of this process through advanced analytics is possible and can have a significant cost-reducing effect on the whole manufacturing process. Due to the high cost of the machinery involved in the drug production process, it is common practice in the pharmaceutical industry to try to maximize the useful life of these machines, which are not equipped with the latest sensors. Thus, a machine learning model using advanced analytics platforms, such as cloud computing, can be implemented to analyze potential energy consumption savings. This thesis is focused on improving the energy consumption in the preheating process of a fluid bed dryer by defining and implementing an IIOT (Industrial Internet of Things) Cloud computing platform. This architecture will host and run a machine learning algorithm based on Catboost modeling to predict when the optimum time is reached to stop the process, reduce its duration, and consequently its energy consumption. Experimental results show that it is possible to reduce the preheating process by 45% of its time duration, consequently reducing energy consumption by up to 2.8 MWh per year.Barriga Rodríguez, R. (2023). Optimization of Fluid Bed Dryer Energy Consumption for Pharmaceutical Drug Processes through Machine Learning and Cloud Computing Technologies [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/19584

    3rd International Conference on Advanced Research Methods and Analytics (CARMA 2020)

    Full text link
    Research methods in economics and social sciences are evolving with the increasing availability of Internet and Big Data sources of information.As these sources, methods, and applications become more interdisciplinary, the 3rd International Conference on Advanced Research Methods and Analytics (CARMA) is an excellent forum for researchers and practitioners to exchange ideas and advances on how emerging research methods and sources are applied to different fields of social sciences as well as to discuss current and future challenges.Doménech I De Soria, J.; Vicente Cuervo, MR. (2020). 3rd International Conference on Advanced Research Methods and Analytics (CARMA 2020). Editorial Universitat Politècnica de València. http://hdl.handle.net/10251/149510EDITORIA

    Economic Analysis of the Link between Advances in Biopharmaceutical Manufacturing and Healthcare Delivery Costs

    Get PDF
    Concerns about increasing expenditures on new biologic medicines has speared interests in finding solutions to contain healthcare delivery costs whilst, at least, maintaining population health indicators at the same levels. Often overlooked are investments in pharmaceutical manufacturing research, which perhaps is because manufacturing costs are thought to only make a small fraction of drug prices, and hence any impact on healthcare delivery costs is small enough to be ignored. This thesis provides evidence, to the contrary, that the impact on healthcare delivery costs cannot be trivialized. Starting with a systematic review of literature, this thesis finds that there are inconsistencies in what items are included or excluded from estimates of drug administration costs. On the back of this finding, this thesis evaluated drug administration costs for a sample of biologic drugs to identify manufacturing choices that explain most the observed variation in administration costs. It presents an algorithm pharmaceutical manufacturers could use to predict the expected administration-cost savings from reformulating biologic drug candidates still in development and/or existing medicines already on the market. This thesis goes further to argue that a primary focus on the monetary costs of drug administration ignores intangible benefits from satisfying end-user preferences for different modes of drug administration. The monetary value of these intangible benefits could be in the same order of magnitude as savings on the direct monetary costs of drug administration. In addition, this thesis shows that using cost-reducing process innovations in drug manufacturing, as opposed to cost-increasing ones, is associated with a higher number of products available for clinical use and lower prices over time; whilst the likelihood that a drug product is no longer available is seemingly unrelated to the process innovation deployed in manufacturing. The evidence put together indicate significant societal benefits from developing and implementing innovations in pharmaceutical manufacturing

    Applications of Artificial Intelligence in Battling Against Covid-19: A Literature Review

    Get PDF
    © 2020 Elsevier Ltd. All rights reserved.Colloquially known as coronavirus, the Severe Acute Respiratory Syndrome CoronaVirus 2 (SARS-CoV-2), that causes CoronaVirus Disease 2019 (COVID-19), has become a matter of grave concern for every country around the world. The rapid growth of the pandemic has wreaked havoc and prompted the need for immediate reactions to curb the effects. To manage the problems, many research in a variety of area of science have started studying the issue. Artificial Intelligence is among the area of science that has found great applications in tackling the problem in many aspects. Here, we perform an overview on the applications of AI in a variety of fields including diagnosis of the disease via different types of tests and symptoms, monitoring patients, identifying severity of a patient, processing covid-19 related imaging tests, epidemiology, pharmaceutical studies, etc. The aim of this paper is to perform a comprehensive survey on the applications of AI in battling against the difficulties the outbreak has caused. Thus we cover every way that AI approaches have been employed and to cover all the research until the writing of this paper. We try organize the works in a way that overall picture is comprehensible. Such a picture, although full of details, is very helpful in understand where AI sits in current pandemonium. We also tried to conclude the paper with ideas on how the problems can be tackled in a better way and provide some suggestions for future works.Peer reviewe
    corecore