254 research outputs found

    Development of variable and robust brain wiring patterns in the fly visual system

    Get PDF
    Precise generation of synapse-specific neuronal connections are crucial for establishing a robust and functional brain. Neuronal wiring patterns emerge from proper spatiotemporal regulation of axon branching and synapse formation during development. Several neuropsychiatric and neurodevelopmental disorders exhibit defects in neuronal wiring owing to synapse loss and/or dys-regulated axon branching. Despite decades of research, how the two inter-dependent cellular processes: axon branching and synaptogenesis are coupled locally in the presynaptic arborizations is still unclear. In my doctoral work, I investigated the possible role of EGF receptor (EGFR) activity in coregulating axon branching and synapse formation in a spatiotemporally restricted fashion, locally in the medulla innervating Dorsal Cluster Neuron (M- DCN)/LC14 axon terminals. In this work I have explored how genetically encoded EGFR randomly recycles in the axon branch terminals, thus creating an asymmetric, non-deterministic distribution pattern. Asymmetric EGFR activity in the branches acts as a permissive signal for axon branch pruning. I observed that the M-DCN branches which stochastically becomes EGFR ‘+’ during development are synaptogenic, which means they can recruit synaptic machineries like Syd1 and Bruchpilot (Brp). My work showed that EGFR activity has a dual role in establishing proper M-DCN wiring; first in regulating primary branch consolidation possibly via actin regulation prior to synaptogenesis. Later in maintaining/protecting the levels of late Active Zone (AZ) protein Brp in the presynaptic branches by suppressing basal autophagy level during synaptogenesis. When M-DCNs lack optimal EGFR activity, the basal autophagy level increases resulting in loss of Brp marked synapses which is causal to increased exploratory branches and post-synaptic target loss. Lack of EGFR activity affects the M-DCN wiring pattern that makes adult flies more active and behave like obsessive compulsive in object fixation assay. In the second part of my doctoral work, I have asked how non-genetic factors like developmental temperature affects adult brain wiring. To test that, I increased or decreased rearing temperature which is known to inversely affect pupal developmental rate. We asked if all the noisy cellular processes of neuronal assembly: filopodial dynamics, axon branching, synapse formation and postsynaptic connections scale up or down accordingly. I observed that indeed all the cellular processes slow down at lower developmental temperature and vice versa, which changes the DCN wiring pattern accordingly. Interestingly, behavior of flies adapts to their developmental temperature, performing best at the temperature they have been raised at. This shows that optimal brain function is an adaptation of robust brain wiring patterns which are specified by noisy developmental processes. In conclusion, my doctoral work helps us better understand the developmental regulation of axon branching and synapse formation for establishing precise brain wiring pattern. We need all the cell intrinsic developmental processes to be highly regulated in space and time. It is infact a combinatorial effect of such stochastic processes and external factors that contribute to the final outcome, a functional and robust adult brain

    Automated design of local search algorithms for vehicle routing problems with time windows

    Get PDF
    Designing effective search algorithms for solving combinatorial optimisation problems presents a challenge for researchers due to the time-consuming experiments and experience required in decision-making. Automated algorithm design removes the heavy reliance on human experts and allows the exploration of new algorithm designs. This thesis systematically investigates machine learning for the automated design of new and generic local search algorithms, taking the vehicle routing problem with time windows as the testbed. The research starts by building AutoGCOP, a new general framework for the automated design of local search algorithms to optimise the composition of basic algorithmic components. Within the consistent AutoGCOP framework, the basic algorithmic components show satisfying performance for solving the VRPTW. Based on AutoGCOP, the thesis investigates the use of machine learning for automated algorithm composition by modelling the algorithm design task as different machine learning tasks, thus investigating different perspectives of learning in automated algorithm design. Based on AutoGCOP, the thesis first investigates online learning in automated algorithm design. Two learning models based on reinforcement learning and Markov chain are investigated to learn and enhance the compositions of algorithmic components towards automated algorithm design. The Markov chain model presents a superior performance in learning the compositions of algorithmic components during the search, demonstrating its effectiveness in designing new algorithms automatically. The thesis then investigates offline learning to learn the hidden knowledge of effective algorithmic compositions within AutoGCOP for automated algorithm design. The forecast of algorithmic components in the automated composition is defined as a sequence classification task. This new machine learning task is then solved by a Long Short-term Memory (LSTM) neural network which outperforms various conventional classifiers. Further analysis reveals that a Transformer network surpasses LSTM at learning from longer algorithmic compositions. The systematical analysis of algorithmic compositions reveals some key features for improving the prediction. To discover valuable knowledge in algorithm designs, the thesis applies sequential rule mining to effective algorithmic compositions collected based on AutoGCOP. Sequential rules of composing basic components are extracted and further analysed, presenting a superior performance of automatically composed local search algorithms for solving VRPTW. The extracted sequential rules also suggest the importance of considering the impact of algorithmic components on optimisation performance during automated composition, which provides new insights into algorithm design. The thesis gains valuable insights from various learning perspectives, enhancing the understanding towards automated algorithm design. Some directions for future work are present

    On the selection of galaxy clusters using an adapted Gaussian Process binary classifier

    Get PDF
    The aim of this work is to select galaxy cluster candidates from the XXL X-ray source catalogue by applying a supervised machine learning based selection method. The biggest hurdle when applying supervised machine learning selection methods to astrophysical catalogues is the need for a sufficiently large, perfectly labelled set of training data that accurately reflects real data. The creation of such training sets for astrophysics is a highly involved complex problem. This work presents an alternative approach.By adapting the machine learning model to account for uncertainty on the training labels we remove the need for a perfectly labelled training set, instead requiring one that can be created by labelling a source catalogue based on the purity of existing source samples. We describe in chapter 3 the adaption of a Gaussian process binary classifier to account for uncertainties on the training labels. The adapted classifier was separately trained on the North and South XXL X-ray source catalogues labelled based on the existing XXL cluster selection samples (chapter 4). To avoid the model simply re-learning the existing selection criteria those measured source properties used by XXL to select galaxy clusters were not provided to the model. The capability of the model with respect to cluster selection was assessed using three methods. We first made use of a simulated XXL catalogue with labelled galaxy cluster detections, but it was found to insufficiently recreate the real XXL catalogues to be of use. A set of XXL sources with evidence of an increased likelihood of being a galaxy cluster detection based on their association with an optically-selected cluster, showed the model is able to distinguish such sources from the general population. Finally we visually inspect a subset of sources within the North catalogue to determine a reliable cluster selection criteria based on the output of the ML model. The cluster sample produced contains 623 sources from the North catalogue. Of the 248 sources previously selected by XXL, 225 were recovered by this sample. The sample was found to have a purity of 0.45+0.03−0.03 and contain an expected 280 cluster candidates, 101 of which were not previously selected by XXL. The new candidates were often found to differ in their X-ray morphologies from those previously selected by XXL, tending not to be dominated by a single X-ray component that follows a ÎČ-model surface brightness profile. Interpretation of the model’s selection criteria (chapter 5) showed it learnt to identify clusters based on a sources count rates measured by separately fitting an extended and point source emission model. We note that while the output of the binary classifier was robust to being trained on either the North or South XXL source catalogues, our investigation into the selection criteria showed a subtle and unresolved difference in behaviour, possibly due to differences in the properties of the two fields (e.g. differences in Galactic column and foreground, or time-varying instrument calibration or background characteristics). Overall, we find that the classifier is complementary to the standard XXL processing. However, the advantage of the Gaussian process is that it allows for additional information (e.g. from other wavebands) to be incorporated into the uncertainties on the labels used for training, or in the classification process (chapter 6

    Proactive Adaptation in Self-Organizing Task-based Runtime Systems for Different Computing Classes

    Get PDF
    Moderne Computersysteme bieten Anwendern und Anwendungsentwicklern ein hohes Maß an ParallelitĂ€t und HeterogenitĂ€t. Die effiziente Nutzung dieser Systeme erfordert jedoch tiefgreifende Kenntnisse, z.B. der darunterliegenden Hardware-Plattform und den notwendigen Programmiermodellen, und umfangreiche Arbeit des Entwicklers. In dieser Thesis bezieht sich die effiziente Nutzung auf die GesamtausfĂŒhrungszeit der Anwendungen, den Energieverbrauch des Systems, die maximale Temperatur der Verarbeitungseinheiten und die ZuverlĂ€ssigkeit des Systems. Neben den verschiedenen Optimierungszielen muss ein Anwendungsentwickler auch die spezifischen EinschrĂ€nkungen und Randbedingungen des Systems berĂŒcksichtigen, wie z. B. Deadlines oder Sicherheitsgarantien, die mit bestimmten Anwendungsbereichen einhergehen. Diese KomplexitĂ€t heterogener Systeme macht es unmöglich, alle potenziellen SystemzustĂ€nde und UmwelteinflĂŒsse, die zur Laufzeit auftreten können, vorherzusagen. Die System- und Anwendungsentwickler sind somit nicht in der Lage, zur Entwurfszeit festzulegen, wie das System und die Anwendungen in allen möglichen Situationen reagieren sollen. Daher ist es notwendig, die Systeme zur Laufzeit der aktuellen Situation anzupassen, um ihr Verhalten entsprechend zu optimieren. In eingebetteten Systemen mit begrenzten KĂŒhlkapazitĂ€ten muss z.B. bei Erreichen einer bestimmten Temperaturschwelle eine Lastverteilung vorgenommen, die Frequenz verringert oder Verarbeitungseinheiten abgeschaltet werden, um die WĂ€rmeentwicklung zu reduzieren. Normalerweise reicht es aber nicht aus, einfach nur auf einen ungĂŒnstigen Systemzustand zu reagieren. Das Ziel sollte darin bestehen, ungĂŒnstige oder fehlerhafte SystemzustĂ€nde vor dem Auftreten zu vermeiden, um die Notwendigkeit des Aufrufs von Notfallfunktionen zu verringern und die Benutzerfreundlichkeit zu verbessern. Anstatt beispielsweise die WĂ€rmeentwicklung durch eine Neuverteilung der Anwendungen zu reduzieren, könnten proaktive Mechanismen kritische Temperaturen bereits im Vorfeld vermeiden, indem sie bestimmte unkritische Aufgaben verzögern oder deren Genauigkeit oder QoS verringern. Auf diese Weise wird die Systemlast reduziert, bevor ein kritischer Punkt erreicht wird. Lösungen des aktuellen Stands der Technik wie einheitliche Programmiersprachen oder Laufzeitsysteme adressieren einige der oben genannten Herausforderungen, jedoch existiert kein Ansatz, der in der Lage ist, eine Optimierung mehrerer sich widersprechender Zielfunktionen dynamisch und vor allem proaktiv durchzufĂŒhren. Ein Konzept, das diese komplexe Aufgabe fĂŒr den Entwickler ĂŒbernimmt und eine Möglichkeit zur dynamischen und proaktiven Anpassung an VerĂ€nderungen bietet, ist die Selbstorganisation. Selbstorganisation ist jedoch definiert als ein Prozess ohne externe Kontrolle oder Steuerung. Im Kontext der Systemoptimierung kann dies leicht zu unerwĂŒnschten Ergebnissen fĂŒhren. Ein Ansatz, der Selbstorganisation mit einem Kontrollmechanismus kombiniert, welcher auf Robustheit und WiderstandsfĂ€higkeit gegenĂŒber Ă€ußeren Störungen abzielt, ist Organic Computing. Das bestimmende Merkmal von Organic Computing ist eine Observer/Controller-Architektur. Das Konzept dieser Architektur besteht darin, den aktuellen Zustand des Systems und der Umgebung zu ĂŒberwachen, diese Daten zu analysieren und auf der Grundlage dieser Analyse Entscheidungen ĂŒber das zukĂŒnftige Systemverhalten zu treffen. Organic Computing ermöglicht es also auf der Grundlage der vergangenen und des aktuellen Zustands proaktiv Mechanismen auszuwĂ€hlen und auszulösen, die das System optimieren und unerwĂŒnschte ZustĂ€nde vermeiden. Um die Vorteile des Organic Computings auf moderne heterogene Systeme zu ĂŒbertragen, kombiniere ich den Organic Computing-Ansatz mit einem Laufzeitsystem. Laufzeitsysteme sind ein vielversprechender Kandidat fĂŒr die Umsetzung des Organic Computing-Ansatzes, da sie bereits die AusfĂŒhrung von Anwendungen ĂŒberwachen und steuern. Insbesondere betrachte und bearbeite ich in dieser Dissertation die folgenden Forschungsthemen, indem ich die Konzepte des Organic Computings und der Laufzeitsysteme kombiniere: ‱ Erfassen des aktuellen Systemzustands durch Überwachung von Sensoren und Performance Countern ‱ Vorhersage zukĂŒnftiger SystemzustĂ€nde durch Analyse des vergangenen Verhaltens ‱ Nutzung von Zustandsinformationen zur proaktiven Anpassung des Systems Ich erweitere das Thema der Erfassung von SystemzustĂ€nden auf zwei Arten. ZunĂ€chst fĂŒhre ich eine neuartige heuristische Metrik zur Berechnung der ZuverlĂ€ssigkeit einer Verarbeitungseinheit ein, die auf symptombasierter Fehlererkennung basiert. Symptombasierte Fehlererkennung ist eine leichtgewichtige Methode zur dynamischen Erkennung von soften Hardware-Fehlern durch Überwachung des AusfĂŒhrungsverhaltens mit Performance Countern. Die dynamische Erkennung von Fehlern ermöglicht dann die Berechnung einer heuristischen Fehlerrate einer Verarbeitungseinheit in einem bestimmten Zeitfenster. Die Fehlerrate wird verwendet, um die Anzahl der erforderlichen AusfĂŒhrungen einer Anwendung zu berechnen, um eine bestimmte ErgebniszuverlĂ€ssigkeit, also eine Mindestwahrscheinlichkeit fĂŒr ein korrektes Ergebnis, zu gewĂ€hrleisten. Ein wichtiger Aspekt der Zustandserfassung ist die Minimierung des entstehenden Overheads. Ich verringere die Anzahl der fĂŒr OpenMP-Tasks notwendigen Profiling-DurchlĂ€ufe durch Thread-Interpolation und ÜberprĂŒfungen des Skalierungsverhaltens. ZusĂ€tzlich untersuche ich die Vorhersage von OpenCL Task-AusfĂŒhrungszeiten. Die PrĂ€diktoren der AusfĂŒhrungszeiten werden mit verschiedenen maschinellen Lernalgorithmen trainiert. Als Input werden Profile der Kernel verwendet, die durch statische Codeanalyse erstellt wurden. Um in dieser Dissertation zukĂŒnftige SystemzustĂ€nde vorherzusagen, sollen Anwendungen vorausgesagt werden, die in naher Zukunft im System vorkommen werden. In Kombination mit der AusfĂŒhrungsdatenbank ermöglicht dies die SchĂ€tzung der anstehenden Kosten, die das System zu bewĂ€ltigen hat. In dieser Arbeit werden zwei Mechanismen zur Vorhersage von Anwendungen/Tasks entwickelt. Der erste PrĂ€diktor zielt darauf ab, neue Instanzen unabhĂ€ngiger Tasks vorherzusagen. Der zweite Mechanismus betrachtet AusfĂŒhrungsmuster abhĂ€ngiger Anwendungen und sagt auf dieser Grundlage zukĂŒnftig auftretende Anwendungen vorher. Beide Mechanismen verwenden eine Vorhersagetabelle, die auf Markov-PrĂ€diktoren und dem Abgleich von Mustern basiert. In dieser Arbeit wird das Wissen, das durch die SystemĂŒberwachung und die Vorhersage zukĂŒnftiger Anwendungen gewonnen wird, verwendet, um die Optimierungsziele des Systems proaktiv in Einklang zu bringen und zu gewichten. Dies geschieht durch eine Reihe von Regeln, die eine Systemzustandsbeschreibung, bestehend aus dem aktuellen Zustand, Vorhersagen und Randbedingungen bzw. BeschrĂ€nkungen, auf einen Vektor aus Gewichten abbilden. Zum Erlernen der Regelmenge wird ein Extended Classifer System (XCS) eingesetzt. Das XCS ist in eine hierarchische Architektur eingebettet, die nach den Prinzipien des Organic Computing entworfen wurde. Eine wichtige Designentscheidung ist dabei die Auslagerung der Erstellung neuer Regeln an einen Offline-Algorithmus, der einen Simulator nutzt und parallel zum normalen Systemablauf ausgefĂŒhrt wird. Dadurch wird sichergestellt, dass keine ungetesteten Regeln, deren Auswirkungen noch nicht bekannt sind, dem laufenden System hinzugefĂŒgt werden. Die sich daraus ergebenden Gewichte werden schließlich verwendet, um eine Bewertungsfunktion fĂŒr List Scheduling-Algorithmen zu erstellen. Diese Dissertation erweitert das Forschungsgebiet der Scheduling-Algorithmen durch zwei Mechanismen fĂŒr dynamisches Scheduling. Die erste Erweiterung konzentriert sich auf nicht sicherheitskritische Systeme, die PrioritĂ€ten verwenden, um die unterschiedliche Wichtigkeit von Tasks auszudrĂŒcken. Da statische PrioritĂ€ten in stark ausgelasteten Systemen zu Starvation fĂŒhren können, habe ich einen dynamischen Ageing-Mechanismus entwickelt, der dazu in der Lage ist, die PrioritĂ€ten der Tasks entsprechend der aktuellen Auslastung und ihrer Wartezeiten anzupassen. Dadurch reduziert der Mechanismus die Gesamtlaufzeit ĂŒber alle Tasks und die Wartezeit fĂŒr Tasks mit niedrigerer PrioritĂ€t. Noch ist eine große Anzahl von Anwendungen nicht dazu bereit, den hohen Grad an ParallelitĂ€t zu nutzen, den moderne Computersysteme bieten. Ein Konzept, das versucht dieses Problem zu lösen, indem es mehrere verschiedene Prozesse auf demselben Rechenknoten zur AusfĂŒhrung bringt, ist das Co-Scheduling. In dieser Dissertation stelle ich einen neuartigen Co-Scheduling-Mechanismus vor, welcher die Task-Schedules mehrerer Laufzeitsysteminstanzen optimiert, die auf demselben Rechenknoten ausgefĂŒhrt werden. Um die notwendigen Informationen zwischen den Laufzeitsysteminstanzen zu teilen, speichert der Mechanismus die Daten in Shared Memory. Sobald ein Laufzeitsystem neue Tasks in das System einfĂŒgt, prĂŒft der Mechanismus, ob die Berechnung eines neuen Schedules sinnvoll ist. Wird die Entscheidung getroffen, einen neuen Schedule zu berechnen, setzt der Mechanismus Simulated Annealing ein, um alle Tasks, die bisher noch nicht mit ihrer AusfĂŒhrung begonnen haben, neu auf AusfĂŒhrungseinheiten abzubilden. Zusammenfassend lĂ€sst sich sagen, dass diese Arbeit neuartige Mechanismen und Algorithmen sowie Erweiterungen zu verschiedenen Forschungsgebieten anbietet, um ein proaktives selbst-organisierendes System zu implementieren, das sich an neue und unbekannte Situationen anpassen kann. Dabei wird die KomplexitĂ€t fĂŒr Benutzer und Anwendungsentwickler reduziert, indem die Entscheidungsfindung in das System selbst ausgelagert wird. Gleichzeitig sorgt dieser Ansatz fĂŒr eine effiziente Nutzung der Ressourcen des Systems. Insgesamt leistet diese Arbeit die folgenden BeitrĂ€ge zur Erweiterung des Stands der Forschung: ‱ EinfĂŒhrung einer neuartigen heuristischen Metrik zur Messung der ZuverlĂ€ssigkeit von Verarbeitungseinheiten. Die Metrik basiert auf einer leichtgewichtigen Methode zur Fehlererkennung, genannt symptombasierte Fehlererkennung. Mit der symptombasierten Fehlererkennung ist es möglich, mehrere injizierte Fehlerklassen und Interferenzen, die Soft-Hardware-Fehler simulieren, sowohl auf einer CPU als auch auf einer GPU zuverlĂ€ssig zu erkennen. DarĂŒber hinaus werden diese Ergebnisse durch Welch\u27s t-Test statistisch bestĂ€tigt. ‱ Vorschlag eines Vorhersagemodells fĂŒr die AusfĂŒhrungszeit von OpenCL Kerneln, das auf statischer Code-Analyse basiert. Das Modell ist in der Lage, die schnellste Verarbeitungseinheit aus einer Menge von Verarbeitungseinheiten mit einer Genauigkeit von im schlechtesten Fall 69 %69\,\% auszuwĂ€hlen. Zum Vergleich: eine Referenzvariante, welche immer den Prozessor vorhersagt, der die meisten Kernel am schnellsten ausfĂŒhrt, erzielt eine Genauigkeit von 25 %25\,\%. Im besten Fall erreicht das Modell eine Genauigkeit von bis zu 83 %83\,\%. ‱ Bereitstellung von zwei PrĂ€diktoren fĂŒr kommende Tasks/Anwendungen. Der erste Mechanismus betrachtet unabhĂ€ngige Tasks, die stĂ€ndig neue Task-Instanzen erstellen, der zweite abhĂ€ngige Anwendungen, die AusfĂŒhrungsmuster bilden. Dabei erzielt der erste Mechanismus bei der Vorhersage der Zeitspanne zwischen zwei aufeinanderfolgenden Task-Instanzen einen maximalen\\ sMAPEsMAPE-Wert von 4,33 %4,33\,\% fĂŒr sporadische und 0,002 %0,002 \,\% fĂŒr periodische Tasks. DarĂŒber hinaus werden Tasks mit einem aperiodischen AusfĂŒhrungsschema zuverlĂ€ssig erkannt. Der zweite Mechanismus erreicht eine Genauigkeit von 77,6 %77,6 \,\% fĂŒr die Vorhersage der nĂ€chsten anstehenden Anwendung und deren Startzeit. ‱ EinfĂŒhrung einer Umsetzung eines hierarchischen Organic Computing Frameworks mit dem Anwendungsgebiet Task-Scheduling. Dieses Framework enthĂ€lt u.a. ein modifiziertes XCS, fĂŒr dessen Design und Implementierung ein neuartiger Reward-Mechanismus entwickelt wird. Der Mechanismus bedient sich dabei eines speziell fĂŒr diesen Zweck entwickelten Simulators zur Berechnung von Task-AusfĂŒhrungskosten. Das XCS bildet Beschreibungen des Systemzustands auf Gewichte zur Balancierung der Optimierungsziele des Systems ab. Diese Gewichte werden in einer Bewertungsfunktion fĂŒr List Scheduling-Algorithmen verwendet. Damit wird in einem Evaluationsszenario, welches aus einem fĂŒnfmal wiederholten Muster aus Anwendungen besteht, eine Reduzierung der Gesamtlaufzeit um 10,4 %10,4\,\% bzw. 26,7 s26,7\,s, des Energieverbrauchs um 4,7 %4,7\,\% bzw. 2061,1 J2061,1\,J und der maximalen Temperatur der GPU um 3,6 %3,6\,\% bzw. 2,7K2,7 K erzielt. Lediglich die maximale Temperatur ĂŒber alle CPU-Kerne erhöht sich um 6 %6\,\% bzw. 2,3 K2,3\,K. ‱ Entwicklung von zwei Erweiterungen zur Verbesserung des dynamischen Task-Schedulings fĂŒr einzelne und mehrere Prozesse, z.B. mehrere Laufzeitsysteminstanzen. Der erste Mechanismus, ein Ageing-Algorithmus, betrachtet nicht sicherheitskritische Systeme, welche Task-PrioritĂ€ten verwenden, um die unterschiedliche Bedeutung von Anwendungen darzustellen. Da es in solchen Anwendungsszenarien in Kombination mit hoher Systemauslastung zu Starvation kommen kann, passt der Mechanismus die Task-PrioritĂ€ten dynamisch an die aktuelle Auslastung und die Task-Wartezeiten an. Insgesamt erreicht dieser Mechanismus in zwei Bewertungsszenarien eine durchschnittliche Laufzeitverbesserung von 3,75 %3,75\,\% und 3,16 %3,16\,\% bei gleichzeitiger Reduzierung der Durchlaufzeit von Tasks mit niedrigerer PrioritĂ€t um bis zu 25,67 %25,67\,\%. Der zweite Mechanismus ermöglicht die Optimierung von Schedules mehrerer Laufzeitsysteminstanzen, die parallel auf demselben Rechenknoten ausgefĂŒhrt werden. Dieser Co-Scheduling-Ansatz verwendet Shared Memory zum Austausch von Informationen zwischen den Prozessen und Simulated Annealing zur Berechnung neuer Task-Schedules. In zwei Evaluierungsszenarien erzielt der Mechanismus durchschnittliche Laufzeitverbesserungen von 19,74 %19,74\,\% und 20,91 %20,91\,\% bzw. etwa 2,7 s2,7\,s und 3 s3\,s

    COVID-19 Outbreak and Beyond

    Get PDF
    The COVID-19 pandemic drastically changed our lifestyle when, on 30 January 2020, the World Health Organization declared the coronavirus disease outbreak a public health emergency of international concern. Since then, many governments have introduced unprecedented containment measures, hoping to slow the spread of the virus. International research suggests that both the pandemic and the related protective measures, such as lockdown, curfews, and social distancing, are having a profound impact on the mental health of the population. Among the most commonly observed psychological effects, there are high levels of stress, anxiety, depression, and post-traumatic symptoms, along with boredom and frustration. At the same time, the behavioral response of the population is of paramount importance to successfully contain the outbreak, creating a vicious circle in which the psychological distress impacts the willingness to comply with the protective measures, which, in turn, if prolonged, could exacerbate the population’s distress. This book includes: i) original studies on the worldwide psychological and behavioral impact of COVID-19 on targeted individuals (e.g., parents, social workers, patients affected by physical and mental disorders); ii) studies exploring the effect of COVID-19 using advanced statistical and methodological techniques (e.g., machine learning technologies); iii) research on practical applications that could help identify persons at risk, mitigate the negative effects of this situation, and offer insights to policymakers to manage the pandemic are also highly welcomed

    Triggering tearing in a forming current sheet with the mirror instability

    Full text link
    We study the time-dependent formation and evolution of a current sheet (CS) in a magnetized, collisionless, high-beta plasma using hybrid-kinetic particle-in-cell simulations. An initially tearing-stable Harris sheet is frozen into a persistently driven incompressible flow so that its characteristic thickness gradually decreases in time. As the CS thins, the strength of the reconnecting field increases, and adiabatic invariance in the inflowing fluid elements produces a field-biased pressure anisotropy with excess perpendicular pressure. At large plasma beta, this anisotropy excites the mirror instability, which deforms the reconnecting field on ion-Larmor scales and dramatically reduces the effective thickness of the CS. Tearing modes whose wavelengths are comparable to that of the mirrors then become unstable, triggering reconnection on smaller scales and at earlier times than would have occurred if the thinning CS were to have retained its Harris profile. A novel method for identifying and tracking X-points is introduced, yielding X-point separations that are initially intermediate between the perpendicular and parallel mirror wavelengths in the upstream plasma. These mirror-stimulated tearing modes ultimately grow and merge to produce island widths comparable to the CS thickness, an outcome we verify across a range of CS formation timescales and initial CS widths. Our results may find their most immediate application in the tearing disruption of magnetic folds generated by turbulent dynamo in weakly collisional, high-beta, astrophysical plasmas

    Evolutionary computation for software testing

    Get PDF
    A variety of products undergo a transformation from a pure mechanical design to more and more software and electronic components. A polarized example are watches. Several decades ago they have been purely mechanical. Modern smart watches are almost completely electronic devices which heavily rely on software. Further, a smart watch offers a lot more features than just the information about the current time. This change had a crucial impact on how software is being developed. A first attempt to control the rising complexity was to move to agile development practices such as extreme programming or scrum. This rise in complexity is not only affecting the development process but also quality assurance and software testing. If a product contains more and more features then this leads to a higher number of tests necessary to ensure quality standards. Furthermore agile development practices work in an iterative manner which leads to repetitive testing that puts more effort on the testing team. We aimed within the thesis to ease the pain of testing. Thereby we examined a series of subproblems that arise. A key complexity is the number of test cases. We intended to reduce the number of test cases before they are executed manually or implemented as automated tests. Thereby we examined the test specification and based on the requirements coverage of the individual tests, we were able to identify redundant tests. We relied on a novel metaheuristic called GCAIS which we improved upon iteratively. Another task is to control the remaining complexity. Testing is often time crucial and an appropriate subset of the available tests must be chosen in order to get a quick insight into the status of the device under test. We examined this challenge in two different testing scenarios. The first scenario is located in semi-automated testing where engineers execute a set of automated tests locally and closely observe the behaviour of the system under test. We extended GCAIS to compute test suites that satisfy different criteria if provided with sufficient search time. The second use case is located in fully automated testing in a continuous integration (CI) setting. CI focuses on frequent software build cycles which also include testing. These builds contain a testing stage which greatly emphasizes speed. Thus there we also have to compute crucial tests. However, due to the nature of the process we have to continuously recompute a test suite for each build as the software and maybe even the test cases at hand have changed. Hence it is hard to compute the test suite ahead of time and these tests have to be determined as part of the CI execution. Thus we switched to a computational lightweight learning classifier system (LCS) to prioritize and select test cases. We integrated a series of innovations we made into an LCS known as XCSF such as continuous priorities, experience replay and transfer learning. This enabled us to outperform a state of the art artificial neural network which is used by companies such as Netflix. We further investigated how LCS can be made faster using parallelism. We developed generic approaches which may run on any multicore computing device. This is of interest for our CI use case as the build server's architecture is unknown. However, the methods are also independent of the concrete LCS and are not linked to our testing problem. We identified that many of the challenges that need to be faced in the CI use case have been tackled by Organic Computing (OC), for example the need to adapt to an ever changing environment. Hence we relied on OC design principles to create a system architecture which wraps the LCS developed and integrates it into existing CI processes. The final system is robust and highly autonomous. A side-effect of the high degree of autonomy is a high level of automatization which fits CI well. We also gave insight on the usability and delivery of the full system to our industrial partner. Test engineers can easily integrate it with a few lines of code and need no knowledge about LCS and OC in order to use it. Another implication of the developed system is that OC's ideas and design principles can also be employed outside the field of embedded systems. This shows that OC has a greater level of generality. The process of testing and correcting found errors is still only partially automated. We make a first step into automating the entire process and thereby take an analogy to the concept of self-healing of OC. As a first proof of concept of this school of thought we take a look at touch interfaces. There we can automatically manipulate the software to fulfill the specified behaviour. Thus only a minimalistic amount of manual work is required

    Scaling Genetic Algorithms to Large Distributed Datasets

    Get PDF
    Analysing large-scale data brings promises of new levels of scientific discovery and economic value. However, the fact that such volume of data is by its nature distributed and the need for new computational methods to be effective in the face of significant changes in data complexity and size has led to the need to develop large-scale data analytics. Genetic algorithms (GAs) have proven their flexibility in many application areas, and substantial research has been dedicated to improving their performance through parallelisation. In contrast with most previous efforts, we reject approaches based on the centralisation of data in the main memory of a single node or requiring remote access to shared/distributed memory. We focus instead on scenarios where data is partitioned across machines. In this partitioned scenario, we explore two parallelisation models: PDMS, inspired by the traditional master-slave model, and PDMD, based on island models. We adopt the two models to distribute BioHEL, a popular large-scale single-node GA classifier, using the Spark distributed data processing platform. We investigate the effect of GA control parameters (population size and migration frequency).We study the accuracy, time performance and scalability of the proposed models. Our results show that our distributed genetic algorithm design provides a good tradeoff between accuracy and time. We then extend the two models using automatic termination and population sizing to enhance the distributed genetic algorithm ease-of-use. Moreover, after testing this strategy on both models, we show that the applied automation offers a promising enhancement on the performance of the initially designed GA models

    EuroEXA - D2.6: Final ported application software

    Get PDF
    This document describes the ported software of the EuroEXA applications to the single CRDB testbed and it discusses the experiences extracted from porting and optimization activities that should be actively taken into account in future redesign and optimization. This document accompanies the ported application software, found in the EuroEXA private repository (https://github.com/euroexa). In particular, this document describes the status of the software for each of the EuroEXA applications, sketches the redesign and optimization strategy for each application, discusses issues and difficulties faced during the porting activities and the relative lesson learned. A few preliminary evaluation results have been presented, however the full evaluation will be discussed in deliverable 2.8

    Deep Neural Networks and Data for Automated Driving

    Get PDF
    This open access book brings together the latest developments from industry and research on automated driving and artificial intelligence. Environment perception for highly automated driving heavily employs deep neural networks, facing many challenges. How much data do we need for training and testing? How to use synthetic data to save labeling costs for training? How do we increase robustness and decrease memory usage? For inevitably poor conditions: How do we know that the network is uncertain about its decisions? Can we understand a bit more about what actually happens inside neural networks? This leads to a very practical problem particularly for DNNs employed in automated driving: What are useful validation techniques and how about safety? This book unites the views from both academia and industry, where computer vision and machine learning meet environment perception for highly automated driving. Naturally, aspects of data, robustness, uncertainty quantification, and, last but not least, safety are at the core of it. This book is unique: In its first part, an extended survey of all the relevant aspects is provided. The second part contains the detailed technical elaboration of the various questions mentioned above
    • 

    corecore