63 research outputs found
Toward a dynamical systems analysis of neuromodulation
This work presents some first steps toward a
more thorough understanding of the control systems
employed in evolutionary robotics. In order
to choose an appropriate architecture or to construct
an effective novel control system we need
insights into what makes control systems successful,
robust, evolvable, etc. Here we present analysis
intended to shed light on this type of question
as it applies to a novel class of artificial neural
networks that include a neuromodulatory mechanism:
GasNets.
We begin by instantiating a particular GasNet
subcircuit responsible for tuneable pattern generation
and thought to underpin the attractive
property of âtemporal adaptivityâ. Rather than
work within the GasNet formalism, we develop an
extension of the well-known FitzHugh-Nagumo
equations. The continuous nature of our model
allows us to conduct a thorough dynamical systems
analysis and to draw parallels between this
subcircuit and beating/bursting phenomena reported
in the neuroscience literature.
We then proceed to explore the effects of different
types of parameter modulation on the system
dynamics. We conclude that while there are
key differences between the gain modulation used
in the GasNet and alternative schemes (including
threshold modulation of more traditional synaptic
input), both approaches are able to produce
tuneable pattern generation. While it appears, at
least in this study, that the GasNetâs gain modulation
may not be crucial to pattern generation ,
we go on to suggest some possible advantages it
could confer
Evolving spiking networks with variable resistive memories
Neuromorphic computing is a brainlike information processing paradigm that requires adaptive learning mechanisms. A spiking neuro-evolutionary system is used for this purpose; plastic resistive memories are implemented as synapses in spiking neural networks. The evolutionary design process exploits parameter self-adaptation and allows the topology and synaptic weights to be evolved for each network in an autonomous manner. Variable resistive memories are the focus of this research; each synapse has its own conductance profile which modifies the plastic behaviour of the device and may be altered during evolution. These variable resistive networks are evaluated on a noisy robotic dynamic-reward scenario against two static resistive memories and a system containing standard connections only. The results indicate that the extra behavioural degrees of freedom available to the networks incorporating variable resistive memories enable them to outperform the comparative synapse types. © 2014 by the Massachusetts Institute of Technology
Synaptic Learning for Neuromorphic Vision - Processing Address Events with Spiking Neural Networks
Das Gehirn ĂŒbertrifft herkömmliche Computerarchitekturen in Bezug auf Energieeffizienz, Robustheit und AnpassungsfĂ€higkeit. Diese Aspekte sind auch fĂŒr neue Technologien wichtig. Es lohnt sich daher, zu untersuchen, welche biologischen Prozesse das Gehirn zu Berechnungen befĂ€higen und wie sie in Silizium umgesetzt werden können. Um sich davon inspirieren zu lassen, wie das Gehirn Berechnungen durchfĂŒhrt, ist ein Paradigmenwechsel im Vergleich zu herkömmlichen Computerarchitekturen erforderlich. TatsĂ€chlich besteht das Gehirn aus Nervenzellen, Neuronen genannt, die ĂŒber Synapsen miteinander verbunden sind und selbstorganisierte Netzwerke bilden.
Neuronen und Synapsen sind komplexe dynamische Systeme, die durch biochemische und elektrische Reaktionen gesteuert werden. Infolgedessen können sie ihre Berechnungen nur auf lokale Informationen stĂŒtzen. ZusĂ€tzlich kommunizieren Neuronen untereinander mit kurzen elektrischen Impulsen, den so genannten Spikes, die sich ĂŒber Synapsen bewegen.
Computational Neuroscientists versuchen, diese Berechnungen mit spikenden neuronalen Netzen zu modellieren. Wenn sie auf dedizierter neuromorpher Hardware implementiert werden, können spikende neuronale Netze wie das Gehirn schnelle, energieeffiziente Berechnungen durchfĂŒhren. Bis vor kurzem waren die Vorteile dieser Technologie aufgrund des Mangels an funktionellen Methoden zur Programmierung von spikenden neuronalen Netzen begrenzt. Lernen ist ein Paradigma fĂŒr die Programmierung von spikenden neuronalen Netzen, bei dem sich Neuronen selbst zu funktionalen Netzen organisieren.
Wie im Gehirn basiert das Lernen in neuromorpher Hardware auf synaptischer PlastizitÀt. Synaptische PlastizitÀtsregeln charakterisieren Gewichtsaktualisierungen im Hinblick auf Informationen, die lokal an der Synapse anliegen. Das Lernen geschieht also kontinuierlich und online, wÀhrend sensorischer Input in das Netzwerk gestreamt wird.
Herkömmliche tiefe neuronale Netze werden ĂŒblicherweise durch Gradientenabstieg trainiert. Die durch die biologische Lerndynamik auferlegten EinschrĂ€nkungen verhindern jedoch die Verwendung der konventionellen Backpropagation zur Berechnung der Gradienten. Beispielsweise behindern kontinuierliche Aktualisierungen den synchronen Wechsel zwischen VorwĂ€rts- und RĂŒckwĂ€rtsphasen. DarĂŒber hinaus verhindern GedĂ€chtnisbeschrĂ€nkungen, dass die Geschichte der neuronalen AktivitĂ€t im Neuron gespeichert wird, so dass Verfahren wie Backpropagation-Through-Time nicht möglich sind. Neuartige Lösungen fĂŒr diese Probleme wurden von Computational Neuroscientists innerhalb des Zeitrahmens dieser Arbeit vorgeschlagen.
In dieser Arbeit werden spikende neuronaler Netzwerke entwickelt, um Aufgaben der visuomotorischen Neurorobotik zu lösen. In der Tat entwickelten sich biologische neuronale Netze ursprĂŒnglich zur Steuerung des Körpers. Die Robotik stellt also den kĂŒnstlichen Körper fĂŒr das kĂŒnstliche Gehirn zur VerfĂŒgung. Auf der einen Seite trĂ€gt diese Arbeit zu den gegenwĂ€rtigen BemĂŒhungen um das VerstĂ€ndnis des Gehirns bei, indem sie schwierige Closed-Loop-Benchmarks liefert, Ă€hnlich dem, was dem biologischen Gehirn widerfĂ€hrt. Auf der anderen Seite werden neue Wege zur Lösung traditioneller Robotik Probleme vorgestellt, die auf vom Gehirn inspirierten Paradigmen basieren. Die Forschung wird in zwei Schritten durchgefĂŒhrt. ZunĂ€chst werden vielversprechende synaptische PlastizitĂ€tsregeln identifiziert und mit ereignisbasierten Vision-Benchmarks aus der realen Welt verglichen. Zweitens werden neuartige Methoden zur Abbildung visueller ReprĂ€sentationen auf motorische Befehle vorgestellt. Neuromorphe visuelle Sensoren stellen einen wichtigen Schritt auf dem Weg zu hirninspirierten Paradigmen dar. Im Gegensatz zu herkömmlichen Kameras senden diese Sensoren Adressereignisse aus, die lokalen Ănderungen der LichtintensitĂ€t entsprechen. Das ereignisbasierte Paradigma ermöglicht eine energieeffiziente und schnelle Bildverarbeitung, erfordert aber die Ableitung neuer asynchroner Algorithmen. Spikende neuronale Netze stellen eine Untergruppe von asynchronen Algorithmen dar, die vom Gehirn inspiriert und fĂŒr neuromorphe Hardwaretechnologie geeignet sind. In enger Zusammenarbeit mit Computational Neuroscientists werden erfolgreiche Methoden zum Erlernen rĂ€umlich-zeitlicher Abstraktionen aus der Adressereignisdarstellung berichtet. Es wird gezeigt, dass Top-Down-Regeln der synaptischen PlastizitĂ€t, die zur Optimierung einer objektiven Funktion abgeleitet wurden, die Bottom-Up-Regeln ĂŒbertreffen, die allein auf Beobachtungen im Gehirn basieren. Mit dieser Einsicht wird eine neue synaptische PlastizitĂ€tsregel namens "Deep Continuous Local Learning" eingefĂŒhrt, die derzeit den neuesten Stand der Technik bei ereignisbasierten Vision-Benchmarks erreicht. Diese Regel wurde wĂ€hrend eines Aufenthalts an der UniversitĂ€t von Kalifornien, Irvine, gemeinsam abgeleitet, implementiert und evaluiert.
Im zweiten Teil dieser Arbeit wird der visuomotorische Kreis geschlossen, indem die gelernten visuellen ReprÀsentationen auf motorische Befehle abgebildet werden. Drei AnsÀtze werden diskutiert, um ein visuomotorisches Mapping zu erhalten: manuelle Kopplung, Belohnungs-Kopplung und Minimierung des Vorhersagefehlers. Es wird gezeigt, wie diese AnsÀtze, welche als synaptische PlastizitÀtsregeln implementiert sind, verwendet werden können, um einfache Strategien und Bewegungen zu lernen. Diese Arbeit ebnet den Weg zur Integration von hirninspirierten Berechnungsparadigmen in das Gebiet der Robotik. Es wird sogar prognostiziert, dass Fortschritte in den neuromorphen Technologien und bei den PlastizitÀtsregeln die Entwicklung von Hochleistungs-Lernrobotern mit geringem Energieverbrauch ermöglicht
Evolution of Spiking Neural Networks for Temporal Pattern Recognition and Animat Control
I extended an artificial life platform called GReaNs (the name stands for Gene Regulatory evolving artificial Networks) to explore the evolutionary abilities of biologically inspired Spiking Neural Network (SNN) model. The encoding of SNNs in GReaNs was inspired by the encoding of gene regulatory networks.
As proof-of-principle, I used GReaNs to evolve SNNs to obtain a network with an output neuron which generates a predefined spike train in response to a specific input. Temporal pattern recognition was one of the main tasks during my studies. It is widely believed that nervous systems of biological organisms use temporal patterns of inputs to encode information. The learning technique used for temporal pattern recognition is not clear yet. I studied the ability to evolve spiking networks with different numbers of interneurons in the absence and the presence of noise to recognize predefined temporal patterns of inputs. Results showed, that in the presence of noise, it was possible to evolve successful networks. However, the networks with only one interneuron were not robust to noise.
The foraging behaviour of many small animals depends mainly on their olfactory system. I explored whether it was possible to evolve SNNs able to control an agent to find food particles on 2-dimensional maps. Using ring rate encoding to encode the sensory information in the olfactory input neurons, I managed to obtain SNNs able to control an agent that could detect the position of the food particles and move toward it.
Furthermore, I did unsuccessful attempts to use GReaNs to evolve an SNN able to control an agent able to collect sound sources from one type out of several sound types. Each sound type is represented as a pattern of different frequencies. In order to use the computational power of neuromorphic hardware, I integrated GReaNs with the SpiNNaker hardware system. Only the simulation part was carried out using SpiNNaker, but the rest steps of the genetic algorithm were done with GReaNs
Reservoir Computing with Neuro-memristive Nanowire Networks
We present simulation results based on a model of selfâassembled nanowire networks with memristive junctions and neural networkâlike topology. We analyse the dynamical voltage distribution in response to an applied bias and explain the network conductance fluctuations observed in previous experimental studies. We show I â V curves under AC stimulation and compare these to other bulk memristors. We then study the capacity of these nanowire networks for neuro-inspired reservoir computing by demonstrating higher harmonic generation and short/longâterm memory. Benchmark tasks in a reservoir computing framework are implemented. The tasks include nonlinear wave transformation, wave auto-generation, and hand-written digit classification
Autonomously Reconfigurable Artificial Neural Network on a Chip
Artificial neural network (ANN), an established bio-inspired computing paradigm, has proved very effective in a variety of real-world problems and particularly useful for various emerging biomedical applications using specialized ANN hardware. Unfortunately, these ANN-based systems are increasingly vulnerable to both transient and permanent faults due to unrelenting advances in CMOS technology scaling, which sometimes can be catastrophic. The considerable resource and energy consumption and the lack of dynamic adaptability make conventional fault-tolerant techniques unsuitable for future portable medical solutions. Inspired by the self-healing and self-recovery mechanisms of human nervous system, this research seeks to address reliability issues of ANN-based hardware by proposing an Autonomously Reconfigurable Artificial Neural Network (ARANN) architectural framework. Leveraging the homogeneous structural characteristics of neural networks, ARANN is capable of adapting its structures and operations, both algorithmically and microarchitecturally, to react to unexpected neuron failures. Specifically, we propose three key techniques --- Distributed ANN, Decoupled Virtual-to-Physical Neuron Mapping, and Dual-Layer Synchronization --- to achieve cost-effective structural adaptation and ensure accurate system recovery. Moreover, an ARANN-enabled self-optimizing workflow is presented to adaptively explore a "Pareto-optimal" neural network structure for a given application, on the fly. Implemented and demonstrated on a Virtex-5 FPGA, ARANN can cover and adapt 93% chip area (neurons) with less than 1% chip overhead and O(n) reconfiguration latency. A detailed performance analysis has been completed based on various recovery scenarios
- âŠ