1,439 research outputs found

    Graduate Catalog of Studies, 2023-2024

    Get PDF

    A neuroimaging investigation of bipolar disorder and the neurocognitive effects of 5-HT7 antagonists

    Get PDF
    Bipolar disorder is a psychiatric disorder characterised by pathological mood states, but there is growing recognition of the role of cognitive impairment and dysfunction of emotional processes, which has a profound impact on quality of life. Many people with bipolar disorders exhibit brain volume impairment associated with cognitive dysfunction and an increased risk of dementia. In this thesis, I conducted a systematic review to understand the relationships between mood disorders and the 5-HT7 receptor. The 5-HT7 receptor is related to depression and anxiety, but the relationship between 5-HT7 and mania remains unclear; in addition, sleep and memory were also related to the 5-HT7 receptor. Followed by these findings, in the next two chapters, I examined the effects of 5-HT7 antagonists, using JNJ-18038683, on emotional and cognitive functioning, as well as their neural substrates. I then reported on neuroimaging investigations examining the effects of 5-HT7 antagonists on emotional processing and cognitive function in healthy volunteers to gain insight into their potential mode of action and utility for bipolar disorder. In fMRI analyses, the drug acted on 5-HT7 receptors potentially improving cognitive performance by modulating the function of the Cognitive Control Network in healthy controls. In the above-mentioned chapters, I gained a better understanding of the 5-HT7 antagonist, JNJ-18038683, and the putative promising effects for pharmacological treatments. However, the approach taken has some limitations, including a small sample size, potential participant bias, and a lack of systematic control of medication dose and duration of administration. In addition, in Chapter 5, I explored the brain basis of bipolar disorder and its links to cognitive and emotional dysfunction using a new ‘brain age’ approach. Individuals with bipolar disorder were found to have increased brain age compared to healthy controls. I hope that these findings can be applied to pharmacological treatment for individuals with bipolar disorder, ultimately allowing patients to benefit from the drug in the future

    Graduate Catalog of Studies, 2023-2024

    Get PDF

    Subgroup discovery for structured target concepts

    Get PDF
    The main object of study in this thesis is subgroup discovery, a theoretical framework for finding subgroups in data—i.e., named sub-populations— whose behaviour with respect to a specified target concept is exceptional when compared to the rest of the dataset. This is a powerful tool that conveys crucial information to a human audience, but despite past advances has been limited to simple target concepts. In this work we propose algorithms that bring this framework to novel application domains. We introduce the concept of representative subgroups, which we use not only to ensure the fairness of a sub-population with regard to a sensitive trait, such as race or gender, but also to go beyond known trends in the data. For entities with additional relational information that can be encoded as a graph, we introduce a novel measure of robust connectedness which improves on established alternative measures of density; we then provide a method that uses this measure to discover which named sub-populations are more well-connected. Our contributions within subgroup discovery crescent with the introduction of kernelised subgroup discovery: a novel framework that enables the discovery of subgroups on i.i.d. target concepts with virtually any kind of structure. Importantly, our framework additionally provides a concrete and efficient tool that works out-of-the-box without any modification, apart from specifying the Gramian of a positive definite kernel. To use within kernelised subgroup discovery, but also on any other kind of kernel method, we additionally introduce a novel random walk graph kernel. Our kernel allows the fine tuning of the alignment between the vertices of the two compared graphs, during the count of the random walks, while we also propose meaningful structure-aware vertex labels to utilise this new capability. With these contributions we thoroughly extend the applicability of subgroup discovery and ultimately re-define it as a kernel method.Der Hauptgegenstand dieser Arbeit ist die Subgruppenentdeckung (Subgroup Discovery), ein theoretischer Rahmen für das Auffinden von Subgruppen in Daten—d. h. benannte Teilpopulationen—deren Verhalten in Bezug auf ein bestimmtes Targetkonzept im Vergleich zum Rest des Datensatzes außergewöhnlich ist. Es handelt sich hierbei um ein leistungsfähiges Instrument, das einem menschlichen Publikum wichtige Informationen vermittelt. Allerdings ist es trotz bisherigen Fortschritte auf einfache Targetkonzepte beschränkt. In dieser Arbeit schlagen wir Algorithmen vor, die diesen Rahmen auf neuartige Anwendungsbereiche übertragen. Wir führen das Konzept der repräsentativen Untergruppen ein, mit dem wir nicht nur die Fairness einer Teilpopulation in Bezug auf ein sensibles Merkmal wie Rasse oder Geschlecht sicherstellen, sondern auch über bekannte Trends in den Daten hinausgehen können. Für Entitäten mit zusätzlicher relationalen Information, die als Graph kodiert werden kann, führen wir ein neuartiges Maß für robuste Verbundenheit ein, das die etablierten alternativen Dichtemaße verbessert; anschließend stellen wir eine Methode bereit, die dieses Maß verwendet, um herauszufinden, welche benannte Teilpopulationen besser verbunden sind. Unsere Beiträge in diesem Rahmen gipfeln in der Einführung der kernelisierten Subgruppenentdeckung: ein neuartiger Rahmen, der die Entdeckung von Subgruppen für u.i.v. Targetkonzepten mit praktisch jeder Art von Struktur ermöglicht. Wichtigerweise, unser Rahmen bereitstellt zusätzlich ein konkretes und effizientes Werkzeug, das ohne jegliche Modifikation funktioniert, abgesehen von der Angabe des Gramian eines positiv definitiven Kernels. Für den Einsatz innerhalb der kernelisierten Subgruppentdeckung, aber auch für jede andere Art von Kernel-Methode, führen wir zusätzlich einen neuartigen Random-Walk-Graph-Kernel ein. Unser Kernel ermöglicht die Feinabstimmung der Ausrichtung zwischen den Eckpunkten der beiden unter-Vergleich-gestelltenen Graphen während der Zählung der Random Walks, während wir auch sinnvolle strukturbewusste Vertex-Labels vorschlagen, um diese neue Fähigkeit zu nutzen. Mit diesen Beiträgen erweitern wir die Anwendbarkeit der Subgruppentdeckung gründlich und definieren wir sie im Endeffekt als Kernel-Methode neu

    Advances and Applications of DSmT for Information Fusion. Collected Works, Volume 5

    Get PDF
    This fifth volume on Advances and Applications of DSmT for Information Fusion collects theoretical and applied contributions of researchers working in different fields of applications and in mathematics, and is available in open-access. The collected contributions of this volume have either been published or presented after disseminating the fourth volume in 2015 in international conferences, seminars, workshops and journals, or they are new. The contributions of each part of this volume are chronologically ordered. First Part of this book presents some theoretical advances on DSmT, dealing mainly with modified Proportional Conflict Redistribution Rules (PCR) of combination with degree of intersection, coarsening techniques, interval calculus for PCR thanks to set inversion via interval analysis (SIVIA), rough set classifiers, canonical decomposition of dichotomous belief functions, fast PCR fusion, fast inter-criteria analysis with PCR, and improved PCR5 and PCR6 rules preserving the (quasi-)neutrality of (quasi-)vacuous belief assignment in the fusion of sources of evidence with their Matlab codes. Because more applications of DSmT have emerged in the past years since the apparition of the fourth book of DSmT in 2015, the second part of this volume is about selected applications of DSmT mainly in building change detection, object recognition, quality of data association in tracking, perception in robotics, risk assessment for torrent protection and multi-criteria decision-making, multi-modal image fusion, coarsening techniques, recommender system, levee characterization and assessment, human heading perception, trust assessment, robotics, biometrics, failure detection, GPS systems, inter-criteria analysis, group decision, human activity recognition, storm prediction, data association for autonomous vehicles, identification of maritime vessels, fusion of support vector machines (SVM), Silx-Furtif RUST code library for information fusion including PCR rules, and network for ship classification. Finally, the third part presents interesting contributions related to belief functions in general published or presented along the years since 2015. These contributions are related with decision-making under uncertainty, belief approximations, probability transformations, new distances between belief functions, non-classical multi-criteria decision-making problems with belief functions, generalization of Bayes theorem, image processing, data association, entropy and cross-entropy measures, fuzzy evidence numbers, negator of belief mass, human activity recognition, information fusion for breast cancer therapy, imbalanced data classification, and hybrid techniques mixing deep learning with belief functions as well

    Evaluation and optimisation of traction system for hybrid railway vehicles

    Get PDF
    Over the past decade, energy and environmental sustainability in urban rail transport have become increasingly important. Hybrid transportation systems present a multifaceted challenge, encompassing aspects such as hydrogen production, refuelling station infrastructure, propulsion system topology, power source sizing, and control. The evaluation and optimisation of these aspects are critical for the adaptation and commercialisation of hybrid railway vehicles. While there has been significant progress in the development of hybrid railway vehicles, further improvements in propulsion system design are necessary. This thesis explores strategies to achieve this ambitious goal by substituting diesel trains with hybrid trains. However, limited research has assessed the operational performance of replacing diesel trains with hybrid trains on the same tracks. This thesis develops various optimisation techniques for evaluating and refining the hybrid traction system to address this gap. In this research's first phase, the author developed a novel Hybrid Train Simulator designed to analyse driving performance and energy flow among multiple power sources, such as internal combustion engines, electrification, fuel cells, and batteries. The simulator incorporates a novel Automatic Smart Switching Control technique, which scales power among multiple power sources based on the route gradient for hybrid trains. This smart switching approach enhances battery and fuel cell life and reduces maintenance costs by employing it as needed, thereby eliminating the forced charging and discharging of excessively high currents. Simulation results demonstrate a 6% reduction in energy consumption for hybrid trains equipped with smart switching compared to those without it. In the second phase of this research, the author presents a novel technique to solve the optimisation problem of hybrid railway vehicle traction systems by utilising evolutionary and numerical optimisation techniques. The optimisation method employs a nonlinear programming solver, interpreting the problem via a non-convex function combined with an efficient "Mayfly algorithm." The developed hybrid optimisation algorithm minimises traction energy while using limited power to prevent unnecessary load on power sources, ensuring their prolonged life. The algorithm takes into account linear and non-linear variables, such as velocity, acceleration, traction forces, distance, time, power, and energy, to address the hybrid railway vehicle optimisation problem, focusing on the energy-time trade-off. The optimised trajectories exhibit an average reduction of 16.85% in total energy consumption, illustrating the algorithm's effectiveness across diverse routes and conditions, with an average increase in journey times of only 0.40% and a 15.18% reduction in traction power. The algorithm achieves a well-balanced energy-time trade-off, prioritising energy efficiency without significantly impacting journey duration, a critical aspect of sustainable transportation systems. In the third phase of this thesis, the author introduced artificial neural network models to solve the optimisation problem for hybrid railway vehicles. Based on time and power-based architecture, two ANN models are presented, capable of predicting optimal hybrid train trajectories. These models tackle the challenge of analysing large datasets of hybrid railway vehicles. Both models demonstrate the potential for efficiently predicting hybrid train target parameters. The results indicate that both ANN models effectively predict a hybrid train's critical parameters and trajectory, with mean errors ranging from 0.19% to 0.21%. However, the cascade-forward neural network topology in the time-based architecture outperforms the feed-forward neural network topology in terms of mean squared error and maximum error in the power-based architecture. Specifically, the cascade-forward neural network topology within the time-based structure exhibits a slightly lower MSE and maximum error than its power-based counterpart. Moreover, the study reveals the average percentage difference between the benchmark and FFNN/CNFN trajectories, highlighting that the time-based architecture exhibits lower differences (0.18% and 0.85%) compared to the power-based architecture (0.46% and 0.92%)

    If interpretability is the answer, what is the question?

    Get PDF
    Due to the ability to model even complex dependencies, machine learning (ML) can be used to tackle a broad range of (high-stakes) prediction problems. The complexity of the resulting models comes at the cost of transparency, meaning that it is difficult to understand the model by inspecting its parameters. This opacity is considered problematic since it hampers the transfer of knowledge from the model, undermines the agency of individuals affected by algorithmic decisions, and makes it more challenging to expose non-robust or unethical behaviour. To tackle the opacity of ML models, the field of interpretable machine learning (IML) has emerged. The field is motivated by the idea that if we could understand the model's behaviour -- either by making the model itself interpretable or by inspecting post-hoc explanations -- we could also expose unethical and non-robust behaviour, learn about the data generating process, and restore the agency of affected individuals. IML is not only a highly active area of research, but the developed techniques are also widely applied in both industry and the sciences. Despite the popularity of IML, the field faces fundamental criticism, questioning whether IML actually helps in tackling the aforementioned problems of ML and even whether it should be a field of research in the first place: First and foremost, IML is criticised for lacking a clear goal and, thus, a clear definition of what it means for a model to be interpretable. On a similar note, the meaning of existing methods is often unclear, and thus they may be misunderstood or even misused to hide unethical behaviour. Moreover, estimating conditional-sampling-based techniques poses a significant computational challenge. With the contributions included in this thesis, we tackle these three challenges for IML. We join a range of work by arguing that the field struggles to define and evaluate "interpretability" because incoherent interpretation goals are conflated. However, the different goals can be disentangled such that coherent requirements can inform the derivation of the respective target estimands. We demonstrate this with the examples of two interpretation contexts: recourse and scientific inference. To tackle the misinterpretation of IML methods, we suggest deriving formal interpretation rules that link explanations to aspects of the model and data. In our work, we specifically focus on interpreting feature importance. Furthermore, we collect interpretation pitfalls and communicate them to a broader audience. To efficiently estimate conditional-sampling-based interpretation techniques, we propose two methods that leverage the dependence structure in the data to simplify the estimation problems for Conditional Feature Importance (CFI) and SAGE. A causal perspective proved to be vital in tackling the challenges: First, since IML problems such as algorithmic recourse are inherently causal; Second, since causality helps to disentangle the different aspects of model and data and, therefore, to distinguish the insights that different methods provide; And third, algorithms developed for causal structure learning can be leveraged for the efficient estimation of conditional-sampling based IML methods.Aufgrund der Fähigkeit, selbst komplexe Abhängigkeiten zu modellieren, kann maschinelles Lernen (ML) zur Lösung eines breiten Spektrums von anspruchsvollen Vorhersageproblemen eingesetzt werden. Die Komplexität der resultierenden Modelle geht auf Kosten der Interpretierbarkeit, d. h. es ist schwierig, das Modell durch die Untersuchung seiner Parameter zu verstehen. Diese Undurchsichtigkeit wird als problematisch angesehen, da sie den Wissenstransfer aus dem Modell behindert, sie die Handlungsfähigkeit von Personen, die von algorithmischen Entscheidungen betroffen sind, untergräbt und sie es schwieriger macht, nicht robustes oder unethisches Verhalten aufzudecken. Um die Undurchsichtigkeit von ML-Modellen anzugehen, hat sich das Feld des interpretierbaren maschinellen Lernens (IML) entwickelt. Dieses Feld ist von der Idee motiviert, dass wir, wenn wir das Verhalten des Modells verstehen könnten - entweder indem wir das Modell selbst interpretierbar machen oder anhand von post-hoc Erklärungen - auch unethisches und nicht robustes Verhalten aufdecken, über den datengenerierenden Prozess lernen und die Handlungsfähigkeit betroffener Personen wiederherstellen könnten. IML ist nicht nur ein sehr aktiver Forschungsbereich, sondern die entwickelten Techniken werden auch weitgehend in der Industrie und den Wissenschaften angewendet. Trotz der Popularität von IML ist das Feld mit fundamentaler Kritik konfrontiert, die in Frage stellt, ob IML tatsächlich dabei hilft, die oben genannten Probleme von ML anzugehen, und ob es überhaupt ein Forschungsgebiet sein sollte: In erster Linie wird an IML kritisiert, dass es an einem klaren Ziel und damit an einer klaren Definition dessen fehlt, was es für ein Modell bedeutet, interpretierbar zu sein. Weiterhin ist die Bedeutung bestehender Methoden oft unklar, so dass sie missverstanden oder sogar missbraucht werden können, um unethisches Verhalten zu verbergen. Letztlich stellt die Schätzung von auf bedingten Stichproben basierenden Verfahren eine erhebliche rechnerische Herausforderung dar. In dieser Arbeit befassen wir uns mit diesen drei grundlegenden Herausforderungen von IML. Wir schließen uns der Argumentation an, dass es schwierig ist, "Interpretierbarkeit" zu definieren und zu bewerten, weil inkohärente Interpretationsziele miteinander vermengt werden. Die verschiedenen Ziele lassen sich jedoch entflechten, sodass kohärente Anforderungen die Ableitung der jeweiligen Zielgrößen informieren. Wir demonstrieren dies am Beispiel von zwei Interpretationskontexten: algorithmischer Regress und wissenschaftliche Inferenz. Um der Fehlinterpretation von IML-Methoden zu begegnen, schlagen wir vor, formale Interpretationsregeln abzuleiten, die Erklärungen mit Aspekten des Modells und der Daten verknüpfen. In unserer Arbeit konzentrieren wir uns speziell auf die Interpretation von sogenannten Feature Importance Methoden. Darüber hinaus tragen wir wichtige Interpretationsfallen zusammen und kommunizieren sie an ein breiteres Publikum. Zur effizienten Schätzung auf bedingten Stichproben basierender Interpretationstechniken schlagen wir zwei Methoden vor, die die Abhängigkeitsstruktur in den Daten nutzen, um die Schätzprobleme für Conditional Feature Importance (CFI) und SAGE zu vereinfachen. Eine kausale Perspektive erwies sich als entscheidend für die Bewältigung der Herausforderungen: Erstens, weil IML-Probleme wie der algorithmische Regress inhärent kausal sind; zweitens, weil Kausalität hilft, die verschiedenen Aspekte von Modell und Daten zu entflechten und somit die Erkenntnisse, die verschiedene Methoden liefern, zu unterscheiden; und drittens können wir Algorithmen, die für das Lernen kausaler Struktur entwickelt wurden, für die effiziente Schätzung von auf bindingten Verteilungen basierenden IML-Methoden verwenden

    Machine learning algorithms for efficient process optimisation of variable geometries at the example of fabric forming

    Get PDF
    Für einen optimalen Betrieb erfordern moderne Produktionssysteme eine sorgfältige Einstellung der eingesetzten Fertigungsprozesse. Physikbasierte Simulationen können die Prozessoptimierung wirksam unterstützen, jedoch sind deren Rechenzeiten oft eine erhebliche Hürde. Eine Möglichkeit, Rechenzeit einzusparen sind surrogate-gestützte Optimierungsverfahren (SBO1). Surrogates sind recheneffiziente, datengetriebene Ersatzmodelle, die den Optimierer im Suchraum leiten. Sie verbessern in der Regel die Konvergenz, erweisen sich aber bei veränderlichen Optimierungsaufgaben, etwa häufigen Bauteilanpassungen nach Kundenwunsch, als unhandlich. Um auch solche variablen Optimierungsaufgaben effizient zu lösen, untersucht die vorliegende Arbeit, wie jüngste Fortschritte im Maschinenlernen (ML) – im Speziellen bei neuronalen Netzen – bestehende SBO-Techniken ergänzen können. Dabei werden drei Hauptaspekte betrachtet: erstens, ihr Potential als klassisches Surrogate für SBO, zweitens, ihre Eignung zur effiziente Bewertung der Herstellbarkeit neuer Bauteilentwürfe und drittens, ihre Möglichkeiten zur effizienten Prozessoptimierung für variable Bauteilgeometrien. Diese Fragestellungen sind grundsätzlich technologieübergreifend anwendbar und werden in dieser Arbeit am Beispiel der Textilumformung untersucht. Der erste Teil dieser Arbeit (Kapitel 3) diskutiert die Eignung tiefer neuronaler Netze als Surrogates für SBO. Hierzu werden verschiedene Netzarchitekturen untersucht und mehrere Möglichkeiten verglichen, sie in ein SBO-Framework einzubinden. Die Ergebnisse weisen ihre Eignung für SBO nach: Für eine feste Beispielgeometrie minimieren alle Varianten erfolgreich und schneller als ein Referenzalgorithmus (genetischer Algorithmus) die Zielfunktion. Um die Herstellbarkeit variabler Bauteilgeometrien zu bewerten, untersucht Kapitel 4 anschließend, wie Geometrieinformationen in ein Prozess-Surrogate eingebracht werden können. Hierzu werden zwei ML-Ansätze verglichen, ein merkmals- und ein rasterbasierter Ansatz. Der merkmalsbasierte Ansatz scannt ein Bauteil nach einzelnen, prozessrelevanten Geometriemerkmalen, der rasterbasierte Ansatz hingegen interpretiert die Geometrie als Ganzes. Beide Ansätze können das Prozessverhalten grundsätzlich erlernen, allerdings erweist sich der rasterbasierte Ansatz als einfacher übertragbar auf neue Geometrievarianten. Die Ergebnisse zeigen zudem, dass hauptsächlich die Vielfalt und weniger die Menge der Trainingsdaten diese Übertragbarkeit bestimmt. Abschließend verbindet Kapitel 5 die Surrogate-Techniken für flexible Geometrien mit variablen Prozessparametern, um eine effiziente Prozessoptimierung für variable Bauteile zu erreichen. Hierzu interagiert ein ML-Algorithmus in einer Simulationsumgebung mit generischen Geometriebeispielen und lernt, welche Geometrie, welche Umformparameter erfordert. Nach dem Training ist der Algorithmus in der Lage, auch für nicht-generische Bauteilgeometrien brauchbare Empfehlungen auszugeben. Weiter zeigt sich, dass die Empfehlungen mit ähnlicher Geschwindigkeit wie die klassische SBO zum tatsächlichen Prozessoptimum konvergieren, jedoch kein bauteilspezifisches A-priori-Sampling nötig ist. Einmal trainiert, ist der entwickelte Ansatz damit effizienter. Insgesamt zeigt diese Arbeit, wie ML-Techniken gegenwärtige SBOMethoden erweitern und so die Prozess- und Produktoptimierung zu frühen Entwicklungszeitpunkten effizient unterstützen können. Die Ergebnisse der Untersuchungen münden in Folgefragen zur Weiterentwicklung der Methoden, etwa die Integration physikalischer Bilanzgleichungen, um die Modellprognosen physikalisch konsistenter zu machen

    Exploration of Higher Education Delivery of Artistic Sport Curriculum in the UK and China

    Get PDF
    This study explored the challenges and opportunities within the realm of artistic sports courses in China, primarily focusing on vocational outcomes for students in Chinese universities and addresses potential implications for enhancement in the context of teaching and learning practices. Through the insights garnered from higher education experts, on-campus students, and social professionals related to artistic sports, this research considered the potential of UK practices to inform the development of Chinese courses, adopting a rigorous and methodical approach to research design, informed by Saunders et al.'s "Research Onion" model. It comprehensively explored philosophical underpinnings, theory development approaches, research choices, strategies, and techniques with procedures. In addition, the research incorporated an in-depth review of pedagogic theory and contemporary literature to establish context. A series of semi-structured interviews were conducted with participants from both China and the U.K. The primary analytical strategy employed was thematic analysis, enriched by a template analysis approach. This comprehensive methodology facilitated a deep exploration, interpretation, and analysis of the data, culminating in a detailed understanding of the current state and potential improvements of artistic sports courses in China. Key findings from the research illuminate a range of expanded employment opportunities in artistic sports. This includes roles in artistic sports therapy, artistic sports health consulting, careers in health and social care, traditional Chinese artistic sports, artistic sports creativity, academic research, and positions requiring entrepreneurial skills. Further findings encourage a series of research implications for enhancing the teaching and learning practices within artistic sports courses, which span five critical dimensions in higher education delivery: course design, course content and learning experience, course implementation, course assessment, and quality enhancement. Among the key implications, the study highlights the expansion of course objectives, the need for course content diversification to cater to broader vocational outcomes, effective communication and cooperation strategies to improve course implementation, and comprehensive, diverse assessment approaches, especially including the innovative use of student portfolios. It also emphasises the importance of enhancing quality by updating university policies, enhancing the lecturer team, and shifting teaching methods to more learner-centred approaches. The above findings presented in this study offer significant contributions to developing artistic sports education in China. By aligning course design with societal and industry demands and addressing the distinctive interests and abilities of students, the study also offers the potential opportunity to enhance the quality, relevance, and impact of higher education in the realm of artistic sports courses
    corecore