1,065 research outputs found

    A Structured Model of Video Reproduces Primary Visual Cortical Organisation

    Get PDF
    The visual system must learn to infer the presence of objects and features in the world from the images it encounters, and as such it must, either implicitly or explicitly, model the way these elements interact to create the image. Do the response properties of cells in the mammalian visual system reflect this constraint? To address this question, we constructed a probabilistic model in which the identity and attributes of simple visual elements were represented explicitly and learnt the parameters of this model from unparsed, natural video sequences. After learning, the behaviour and grouping of variables in the probabilistic model corresponded closely to functional and anatomical properties of simple and complex cells in the primary visual cortex (V1). In particular, feature identity variables were activated in a way that resembled the activity of complex cells, while feature attribute variables responded much like simple cells. Furthermore, the grouping of the attributes within the model closely parallelled the reported anatomical grouping of simple cells in cat V1. Thus, this generative model makes explicit an interpretation of complex and simple cells as elements in the segmentation of a visual scene into basic independent features, along with a parametrisation of their moment-by-moment appearances. We speculate that such a segmentation may form the initial stage of a hierarchical system that progressively separates the identity and appearance of more articulated visual elements, culminating in view-invariant object recognition

    View-tolerant face recognition and Hebbian learning imply mirror-symmetric neural tuning to head orientation

    Get PDF
    The primate brain contains a hierarchy of visual areas, dubbed the ventral stream, which rapidly computes object representations that are both specific for object identity and relatively robust against identity-preserving transformations like depth-rotations. Current computational models of object recognition, including recent deep learning networks, generate these properties through a hierarchy of alternating selectivity-increasing filtering and tolerance-increasing pooling operations, similar to simple-complex cells operations. While simulations of these models recapitulate the ventral stream's progression from early view-specific to late view-tolerant representations, they fail to generate the most salient property of the intermediate representation for faces found in the brain: mirror-symmetric tuning of the neural population to head orientation. Here we prove that a class of hierarchical architectures and a broad set of biologically plausible learning rules can provide approximate invariance at the top level of the network. While most of the learning rules do not yield mirror-symmetry in the mid-level representations, we characterize a specific biologically-plausible Hebb-type learning rule that is guaranteed to generate mirror-symmetric tuning to faces tuning at intermediate levels of the architecture

    Learning Mid-Level Auditory Codes from Natural Sound Statistics

    Get PDF
    Interaction with the world requires an organism to transform sensory signals into representations in which behaviorally meaningful properties of the environment are made explicit. These representations are derived through cascades of neuronal processing stages in which neurons at each stage recode the output of preceding stages. Explanations of sensory coding may thus involve understanding how low-level patterns are combined into more complex structures. Although models exist in the visual domain to explain how mid-level features such as junctions and curves might be derived from oriented filters in early visual cortex, little is known about analogous grouping principles for mid-level auditory representations. We propose a hierarchical generative model of natural sounds that learns combina- tions of spectrotemporal features from natural stimulus statistics. In the first layer the model forms a sparse convolutional code of spectrograms using a dictionary of learned spectrotemporal kernels. To generalize from specific kernel activation patterns, the second layer encodes patterns of time-varying magnitude of multiple first layer coefficients. Because second-layer features are sensitive to combi- nations of spectrotemporal features, the representation they support encodes more complex acoustic patterns than the first layer. When trained on corpora of speech and environmental sounds, some second-layer units learned to group spectrotemporal features that occur together in natural sounds. Others instantiate opponency between dissimilar sets of spectrotemporal features. Such groupings might be instantiated by neurons in the auditory cortex, providing a hypothesis for mid-level neuronal computation.This work was supported by the Center for Brains, Minds and Machines (CBMM), funded by NSF STC award CCF-1231216

    Final report key contents: main results accomplished by the EU-Funded project IM-CLeVeR - Intrinsically Motivated Cumulative Learning Versatile Robots

    Get PDF
    This document has the goal of presenting the main scientific and technological achievements of the project IM-CLeVeR. The document is organised as follows: 1. Project executive summary: a brief overview of the project vision, objectives and keywords. 2. Beneficiaries of the project and contacts: list of Teams (partners) of the project, Team Leaders and contacts. 3. Project context and objectives: the vision of the project and its overall objectives 4. Overview of work performed and main results achieved: a one page overview of the main results of the project 5. Overview of main results per partner: a bullet-point list of main results per partners 6. Main achievements in detail, per partner: a throughout explanation of the main results per partner (but including collaboration work), with also reference to the main publications supporting them

    Hierarchical temporal prediction captures motion processing along the visual pathway

    Get PDF
    Visual neurons respond selectively to features that become increasingly complex from the eyes to the cortex. Retinal neurons prefer flashing spots of light, primary visual cortical (V1) neurons prefer moving bars, and those in higher cortical areas favor complex features like moving textures. Previously, we showed that V1 simple cell tuning can be accounted for by a basic model implementing temporal prediction – representing features that predict future sensory input from past input (Singer et al., 2018). Here, we show that hierarchical application of temporal prediction can capture how tuning properties change across at least two levels of the visual system. This suggests that the brain does not efficiently represent all incoming information; instead, it selectively represents sensory inputs that help in predicting the future. When applied hierarchically, temporal prediction extracts time-varying features that depend on increasingly high-level statistics of the sensory input

    Prä- und postnatale Entwicklung topographischer Transformationen im Gehirn

    Get PDF
    This dissertation connects two independent fields of theoretical neuroscience: on the one hand, the self-organization of topographic connectivity patterns, and on the other hand, invariant object recognition, that is the recognition of objects independently of their various possible retinal representations (for example due to translations or scalings). The topographic representation is used in the presented approach, as a coordinate system, which then allows for the implementation of invariance transformations. Hence this study shows, that it is possible that the brain self-organizes before birth, so that it is able to invariantly recognize objects immediately after birth. Besides the core hypothesis that links prenatal work with object recognition, advancements in both fields themselves are also presented. In the beginning of the thesis, a novel analytically solvable probabilistic generative model for topographic maps is introduced. And at the end of the thesis, a model that integrates classical feature-based ideas with the normalization-based approach is presented. This bilinear model makes use of sparseness as well as slowness to implement "optimal" topographic representations. It is therefore a good candidate for hierarchical processing in the brain and for future research.Die vorliegende Arbeit verbindet zwei bisher unabhängig untersuchte Gebiete der theoretischen Neurowissenschaften: zum Einen die vorgeburtliche Selbstorganisation topographischer Verbindungsstrukturen und zum Anderen die invariante Objekterkennung, das heisst, die Erkennung von Objekten trotz ihrer mannigfaltigen retinalen Darstellungen (zum Beispiel durch Verschiebungen oder Skalierungen). Die topographische Repräsentierung wird hierbei während der Selbstorganisation als Koordinatensystem genutzt, um Invarianztransformationen zu implementieren. Dies zeigt die Möglichkeit auf, dass sich das Gehirn bereits vorgeburtlich detailliert selbstorganisieren kann, um nachgeburtlich sofort invariant Erkennen zu können. Im Detail führt Kapitel 2 in ein neues, probabilistisch generatives und analytisch lösbares Modell zur Ontogenese topographischer Transformationen ein. Dem Modell liegt die Annahme zugrunde, dass Ausgabezellen des Systems nicht völlig unkorreliert sind, sondern eine a priori gegebene Korrelation erreichen wollen. Da die Eingabezellen nachbarschaftskorreliert sind, hervorgerufen durch retinale Wellen, ergibt sich mit der Annahme rein erregender Verbindungen eine eindeutige topographische synaptische Verbindungsstruktur. Diese entspricht der bei vielen Spezies gefundenen topographischen Karten, z.B. der Retinotopie zwischen der Retina und dem LGN, oder zwischen dem LGN und dem Neokortex. Kapitel 3 nutzt eine abstraktere Formulierung des Retinotopiemechanismus, welche durch adiabitische Elimination der Aktivitätsvariablen erreicht wird, um den Effekt retinaler Wellen auf ein Modell höherer kortikaler Informationsverarbeitung zu untersuchen. Zu diesem Zweck wird der Kortex vereinfacht als bilineares Modell betrachtet, um einfache modulatorische Nichtlinearitäten mit in Betracht ziehen zu können. Zusätzlich zu den Ein- und Ausgabezellen kommen in diesem Modell Kontrolleinheiten zum Einsatz, welche den Informationsfluss aktiv steuern können und sich durch Wettbewerb und pränatalem Lernen auf verschiedene Muster retinaler Wellen spezialisieren. Die Ergebnisse zeigen, dass die entstehenden Verbindungsstrukturen affinen topographischen Abbildungen (insbesondere Translation, Skalierung und Orientierung) entsprechen, die nach Augenöffnen invariante Erkennung ermöglichen, da sie Objekte in der Eingabe in eine normalisierte Repräsentierung transformieren können. Das Modell wird für den eindimensionalen Fall ausführlich analysiert und die Funktionalität für den biologisch relevanteren zweidimensionalen Fall aufgezeigt. Kapitel 4 verallgemeinert das bilineare Modell des dritten Kapitels zu einem mehrschichtigen Modell, die shifter curcuits''. Diese ermöglichen eine logarithmisch in der Anzahl der Eingabezellen wachsende Anzahl an Synapsen, statt einer prohibitiv quadratischen Anzahl. Ausgenutzt wird die Orthogonalität von Translationen im Raum der Verbindungsstrukturen um diese durch harten Wettbewerb an einzelnen Synapsen zu organisieren. Neurobiologisch ist dieser Mechanismus durch Wettbewerb um einen wachstumsregulierenden Transmitter realisierbar. Kapitel 5 nutzt Methoden des probabilistischen Lernens, um das bilineare Modell auf das Lernen von optimalen Repräsentation der Eingabestatistiken zu optimieren. Da statistischen Methoden zweiter Ordnung, wie zum Beispiel das generative Modell aus Kapitel 2, keine lokalisierten rezeptiven Felder ermöglichen und somit keine (örtliche) Topographie möglich ist, wird sparseness'' verwendet um statistischen Abhängigkeiten höherer Ordnung zu lernen und gleichzeitig Topographie zu implementieren. Anwendungen des so formulierten Modells auf natürliche Bilder zeigen, dass lokalisierte, bandpass filternde rezeptive Felder entstehen, die primären kortikalen rezeptiven Feldern stark ähneln. Desweiteren entstehen durch die erzwungene Topographie Orientierungs- und Frequenzkarten, die ebenfalls kortikalen Karten ähneln. Eine Untersuchung des Modells mit zusätzlicher slowness'' der Ausgabezellen und in zeitlicher Nähe gezeigten transformierten natürlichen Eingabemustern zeigt, dass verschiedene Kontrolleinheiten konsistente und den Eingabetransformationen entsprechende rezeptive Felder entwickeln und somit invariante Darstellungen bezüglich der gezeigten Eingaben entwickeln
    • …
    corecore