3,980 research outputs found

    Ultrafast Electronic Coupling Estimators: Neural Networks versus Physics-Based Approaches

    Get PDF
    Fast and accurate estimation of electronic coupling matrix elements between molecules is essential for the simulation of charge transfer phenomena in chemistry, materials science, and biology. Here we investigate neural-network-based coupling estimators combined with different protocols for sampling reference data (random, farthest point, and query by committee) and compare their performance to the physics-based analytic overlap method (AOM), introduced previously. We find that neural network approaches can give smaller errors than AOM, in particular smaller maximum errors, while they require an order of magnitude more reference data than AOM, typically one hundred to several hundred training points, down from several thousand required in previous ML works. A Δ-ML approach taking AOM as a baseline is found to give the best overall performance at a relatively small computational overhead of about a factor of 2. Highly flexible π-conjugated organic molecules like non-fullerene acceptors are found to be a particularly challenging case for ML because of the varying (de)localization of the frontier orbitals for different intramolecular geometries sampled along molecular dynamics trajectories. Here the local symmetry functions used in ML are insufficient, and long-range descriptors are expected to give improved performance

    Optimal experimental designs for the exploration of reaction kinetic phase diagrams

    Get PDF

    Biological investigation and predictive modelling of foaming in anaerobic digester

    Get PDF
    Anaerobic digestion (AD) of waste has been identified as a leading technology for greener renewable energy generation as an alternative to fossil fuel. AD will reduce waste through biochemical processes, converting it to biogas which could be used as a source of renewable energy and the residue bio-solids utilised in enriching the soil. A problem with AD though is with its foaming and the associated biogas loss. Tackling this problem effectively requires identifying and effectively controlling factors that trigger and promote foaming. In this research, laboratory experiments were initially carried out to differentiate foaming causal and exacerbating factors. Then the impact of the identified causal factors (organic loading rate-OLR and volatile fatty acid-VFA) on foaming occurrence were monitored and recorded. Further analysis of foaming and nonfoaming sludge samples by metabolomics techniques confirmed that the OLR and VFA are the prime causes of foaming occurrence in AD. In addition, the metagenomics analysis showed that the phylum bacteroidetes and proteobacteria were found to be predominant with a higher relative abundance of 30% and 29% respectively while the phylum actinobacteria representing the most prominent filamentous foam causing bacteria such as Norcadia amarae and Microthrix Parvicella had a very low and consistent relative abundance of 0.9% indicating that the foaming occurrence in the AD studied was not triggered by the presence of filamentous bacteria. Consequently, data driven models to predict foam formation were developed based on experimental data with inputs (OLR and VFA in the feed) and output (foaming occurrence). The models were extensively validated and assessed based on the mean squared error (MSE), root mean squared error (RMSE), R2 and mean absolute error (MAE). Levenberg Marquadt neural network model proved to be the best model for foaming prediction in AD, with RMSE = 5.49, MSE = 30.19 and R2 = 0.9435. The significance of this study is the development of a parsimonious and effective modelling tool that enable AD operators to proactively avert foaming occurrence, as the two model input variables (OLR and VFA) can be easily adjustable through simple programmable logic controller

    The Fuzziness in Molecular, Supramolecular, and Systems Chemistry

    Get PDF
    Fuzzy Logic is a good model for the human ability to compute words. It is based on the theory of fuzzy set. A fuzzy set is different from a classical set because it breaks the Law of the Excluded Middle. In fact, an item may belong to a fuzzy set and its complement at the same time and with the same or different degree of membership. The degree of membership of an item in a fuzzy set can be any real number included between 0 and 1. This property enables us to deal with all those statements of which truths are a matter of degree. Fuzzy logic plays a relevant role in the field of Artificial Intelligence because it enables decision-making in complex situations, where there are many intertwined variables involved. Traditionally, fuzzy logic is implemented through software on a computer or, even better, through analog electronic circuits. Recently, the idea of using molecules and chemical reactions to process fuzzy logic has been promoted. In fact, the molecular word is fuzzy in its essence. The overlapping of quantum states, on the one hand, and the conformational heterogeneity of large molecules, on the other, enable context-specific functions to emerge in response to changing environmental conditions. Moreover, analog input–output relationships, involving not only electrical but also other physical and chemical variables can be exploited to build fuzzy logic systems. The development of “fuzzy chemical systems” is tracing a new path in the field of artificial intelligence. This new path shows that artificially intelligent systems can be implemented not only through software and electronic circuits but also through solutions of properly chosen chemical compounds. The design of chemical artificial intelligent systems and chemical robots promises to have a significant impact on science, medicine, economy, security, and wellbeing. Therefore, it is my great pleasure to announce a Special Issue of Molecules entitled “The Fuzziness in Molecular, Supramolecular, and Systems Chemistry.” All researchers who experience the Fuzziness of the molecular world or use Fuzzy logic to understand Chemical Complex Systems will be interested in this book

    Integrated hydrogeological and geochemical processes in swelling clay-sulfate rocks

    Get PDF
    Quellende Ton-Sulfatgesteine fĂŒhren immer wieder zu unvorhergesehenen Problemen im Tunnelbau oder bei oberflĂ€chennahen Geothermiebohrungen und machen dort langwierige Sanierungsmaßnahmen erforderlich. Die Prozesse, die dem Quellen zugrunde liegen, sind komplex. Im Allgemeinen wird davon ausgegangen, dass der Quellvorgang hauptsĂ€chlich auf die Umwandlung von Anhydrit zu Gips zurĂŒckzufĂŒhren ist. Auslöser ist in der Regel eine Änderung der hydraulischen Bedingungen, gefolgt von einem Wasserzutritt in die quellfĂ€higen Gesteinsschichten, was wiederum die vorherrschenden geochemischen Bedingungen verĂ€ndert. In der Folge kommt es zu einer Zunahme des Gesteinsvolumens im Untergrund. Dies fĂŒhrte in der sĂŒddeutschen Stadt Staufen, dem Untersuchungsstandort dieser Arbeit, zu großrĂ€umigen Hebungen an der GelĂ€ndeoberflĂ€che und, damit verbunden, zu großen SchĂ€den an HĂ€usern und Infrastruktur. Gerade diese hydrogeologischen und geochemischen Prozesse, sowie der Einfluss menschlicher AktivitĂ€ten (z.B. Geothermiebohrungen), lassen sich jedoch nur sehr schwer nachvollziehen oder gar vorhersagen, da die genauen ZusammenhĂ€nge bisher unzureichend erforscht sind. Im ersten Teil dieser Arbeit wird zunĂ€chst ein 3D geologisches Modell entwickelt, um die komplexen geologischen VerhĂ€ltnisse im Untersuchungsgebiet zu rekonstruieren. Dieses Modell stellt die geometrische Grundlage fĂŒr die im weiteren Verlauf durchgefĂŒhrten numerischen Untersuchungen der hydrogeologischen und geochemischen Prozesse des QuellphĂ€nomens dar. In diesem Zusammenhang wird außerdem eine Unsicherheitenanalyse der 3D geologischen Modellierung basierend auf der Theorie der Informationsentropie durchgefĂŒhrt. Die Analyse veranschaulicht wie sich verschiedene geologische Erkundungsdaten unterschiedlich auf die vorhandenen Modellunsicherheiten und die Modellgeometrie auswirken. Der erstmals auf ein komplexes Standortmodell angewendete Ansatz ermöglicht dabei eine detaillierte, Voxel-basierte Visualisierung und Quantifizierung der Unterschiede und Änderungen der Unsicherheit zwischen mehreren Modellinterpretationen. ZusĂ€tzlich können mit Hilfe der verwendeten Jaccard- und der City-block-Distanzen UnĂ€hnlichkeiten zwischen den Modellen direkt identifiziert werden. Damit ermöglicht die Methodik unter anderem eine effizientere DurchfĂŒhrung von geologischen Erkundungskampagnen und bietet außerdem eine fundierte Grundlage fĂŒr Kosten-Nutzen-Analysen. FĂŒr die komplexen geologischen VerhĂ€ltnisse des Untersuchungsstandorts Staufen zeigt sich, dass mit zunehmender Datendichte mehr geologische Strukturen identifiziert werden, gleichzeitig aber auch vermehrt lokal hohe strukturelle Unsicherheiten auftreten. Im zweiten Teil der Arbeit wird ein neuartiger Modellansatz entwickelt und numerisch als radialsymmetrisches, reaktives Transportmodell umgesetzt. Das Model kann genutzt werden, um den Quellprozess abzubilden und berĂŒcksichtigt folgende EinflĂŒsse: 1) die verĂ€nderten hydraulischen Randbedingungen auf Grund menschlicher AktivitĂ€ten (Geothermiebohrungen), 2) die WasserverfĂŒgbarkeit in der Quellzone, und 3) die Geochemie. Dazu wird die Quellhebung an der GelĂ€ndeoberflĂ€che in AbhĂ€ngigkeit der geochemischen Umwandlung von Anhydrit in Gips und einer daraus abgeleiteten Volumenzunahme im Untergrund simuliert und quantifiziert. Der Modellansatz trennt dabei zwischen advektivem Stofftransport entlang von KlĂŒften im Gestein und der Umwandlung von Anhydrit zu Gips in der Gesteinsmatrix. Um den beiden Wirkungsbereichen (DomĂ€nen) spezifische PorositĂ€ten zuordnen zu können, wird ein Zwei-DomĂ€nen Modellierungsansatz (``dual domain approach\u27\u27) verwendet, der diese gleichzeitig ĂŒber eine Transferrate fĂŒr den diffusiven Wassertransport koppelt. Mit diesem Modellansatz können prozessspezifische hydraulische, geochemische und mechanische Modellparameter basierend auf geodĂ€tischen Hebungsdaten in einer inversen Modellierung abgeschĂ€tzt werden. Die hierbei ermittelten Reaktionskonstanten fĂŒr Anhydritlösung (\SI{2.4e-5}{\mole\per\square\metre\per\second}) und GipsfĂ€llung (\SI{3.2e-6}{\mole\per\square\metre\per\second}) sind vergleichbar mit Literaturwerten aus Laborversuchen. Es zeigt sich jedoch, dass der diffuse Stofftransport in die Gesteinsmatrix wesentlich die Geschwindigkeit des Quellprozesses beeinflusst, was insbesondere bei niedrigen GesteinsporositĂ€ten (z. B. kompakte Anhydritlagen) ein limitierender Faktor sein kann. Insgesamt ist das Modell in der Lage, den am Untersuchungsstandort beobachteten Hebungsverlauf abzubilden. Im dritten Teil der Arbeit wird das zuvor entwickelte Quellhebungsmodell auf die komplexe geologische Situation am Untersuchungsstandort Staufen angewendet. Dadurch können, im Vergleich zum radialsymmetrischen Ansatz, sowohl lokale Grundwasserströmungen, als auch die örtlichen geologischen Gegebenheiten explizit und umfassend bei der Simulation des Quellprozesses berĂŒcksichtigt werden. Das Modell kann genutzt werden, um eine Prognose ĂŒber die weitere Entwicklung der Hebungsprozesse in AbhĂ€ngigkeit der Sanierungsmaßnahmen vorzunehmen und bietet damit die wissenschaftliche Grundlage fĂŒr eine Bewertung verschiedener Strategien, um den Quellprozess zu stoppen. Die Methode ermöglicht eine Bilanzierung der WasserzuflĂŒsse in die Quellzone, sowie eine AbschĂ€tzung des zukĂŒnftige Quellpotentials fĂŒr individuelle Sanierungsszenarien. FĂŒr den Untersuchungsstandort Staufen zeigen die Ergebnisse, dass auch bei einer unvollstĂ€ndigen, nachtrĂ€glichen Abdichtung der ErdwĂ€rmesonden der Wasserfluss in die Quellzone und damit der Quellprozess durch entsprechende hydraulische Gegenmaßnahmen gestoppt werden kann. Außerdem wird ersichtlich, dass umfassende geologische, hydraulische und geochemische Informationen fĂŒr eine stichhaltige Simulation der Quellprozesse und eine Beurteilung geeigneter standortspezifischer Sanierungsmaßnahmen erforderlich sind

    Modelling and recognition of protein contact networks by multiple kernel learning and dissimilarity representations

    Get PDF
    Multiple kernel learning is a paradigm which employs a properly constructed chain of kernel functions able to simultaneously analyse different data or different representations of the same data. In this paper, we propose an hybrid classification system based on a linear combination of multiple kernels defined over multiple dissimilarity spaces. The core of the training procedure is the joint optimisation of kernel weights and representatives selection in the dissimilarity spaces. This equips the system with a two-fold knowledge discovery phase: by analysing the weights, it is possible to check which representations are more suitable for solving the classification problem, whereas the pivotal patterns selected as representatives can give further insights on the modelled system, possibly with the help of field-experts. The proposed classification system is tested on real proteomic data in order to predict proteins' functional role starting from their folded structure: specifically, a set of eight representations are drawn from the graph-based protein folded description. The proposed multiple kernel-based system has also been benchmarked against a clustering-based classification system also able to exploit multiple dissimilarities simultaneously. Computational results show remarkable classification capabilities and the knowledge discovery analysis is in line with current biological knowledge, suggesting the reliability of the proposed system
    • 

    corecore