34 research outputs found

    Dynamic excitatory and inhibitory gain modulation can produce flexible, robust and optimal decision-making

    Get PDF
    <div><p>Behavioural and neurophysiological studies in primates have increasingly shown the involvement of urgency signals during the temporal integration of sensory evidence in perceptual decision-making. Neuronal correlates of such signals have been found in the parietal cortex, and in separate studies, demonstrated attention-induced gain modulation of both excitatory and inhibitory neurons. Although previous computational models of decision-making have incorporated gain modulation, their abstract forms do not permit an understanding of the contribution of inhibitory gain modulation. Thus, the effects of co-modulating both excitatory and inhibitory neuronal gains on decision-making dynamics and behavioural performance remain unclear. In this work, we incorporate time-dependent co-modulation of the gains of both excitatory and inhibitory neurons into our previous biologically based decision circuit model. We base our computational study in the context of two classic motion-discrimination tasks performed in animals. Our model shows that by simultaneously increasing the gains of both excitatory and inhibitory neurons, a variety of the observed dynamic neuronal firing activities can be replicated. In particular, the model can exhibit winner-take-all decision-making behaviour with higher firing rates and within a significantly more robust model parameter range. It also exhibits short-tailed reaction time distributions even when operating near a dynamical bifurcation point. The model further shows that neuronal gain modulation can compensate for weaker recurrent excitation in a decision neural circuit, and support decision formation and storage. Higher neuronal gain is also suggested in the more cognitively demanding reaction time than in the fixed delay version of the task. Using the exact temporal delays from the animal experiments, fast recruitment of gain co-modulation is shown to maximize reward rate, with a timescale that is surprisingly near the experimentally fitted value. Our work provides insights into the simultaneous and rapid modulation of excitatory and inhibitory neuronal gains, which enables flexible, robust, and optimal decision-making.</p></div

    Learning, Memory, and the Role of Neural Network Architecture

    Get PDF
    The performance of information processing systems, from artificial neural networks to natural neuronal ensembles, depends heavily on the underlying system architecture. In this study, we compare the performance of parallel and layered network architectures during sequential tasks that require both acquisition and retention of information, thereby identifying tradeoffs between learning and memory processes. During the task of supervised, sequential function approximation, networks produce and adapt representations of external information. Performance is evaluated by statistically analyzing the error in these representations while varying the initial network state, the structure of the external information, and the time given to learn the information. We link performance to complexity in network architecture by characterizing local error landscape curvature. We find that variations in error landscape structure give rise to tradeoffs in performance; these include the ability of the network to maximize accuracy versus minimize inaccuracy and produce specific versus generalizable representations of information. Parallel networks generate smooth error landscapes with deep, narrow minima, enabling them to find highly specific representations given sufficient time. While accurate, however, these representations are difficult to generalize. In contrast, layered networks generate rough error landscapes with a variety of local minima, allowing them to quickly find coarse representations. Although less accurate, these representations are easily adaptable. The presence of measurable performance tradeoffs in both layered and parallel networks has implications for understanding the behavior of a wide variety of natural and artificial learning systems

    Valence-Specific Modulation in the Accumulation of Perceptual Evidence Prior to Visual Scene Recognition

    Get PDF
    Visual scene recognition is a dynamic process through which incoming sensory information is iteratively compared with predictions regarding the most likely identity of the input stimulus. In this study, we used a novel progressive unfolding task to characterize the accumulation of perceptual evidence prior to scene recognition, and its potential modulation by the emotional valence of these scenes. Our results show that emotional (pleasant and unpleasant) scenes led to slower accumulation of evidence compared to neutral scenes. In addition, when controlling for the potential contribution of non-emotional factors (i.e., familiarity and complexity of the pictures), our results confirm a reliable shift in the accumulation of evidence for pleasant relative to neutral and unpleasant scenes, suggesting a valence-specific effect. These findings indicate that proactive iterations between sensory processing and top-down predictions during scene recognition are reliably influenced by the rapidly extracted (positive) emotional valence of the visual stimuli. We interpret these findings in accordance with the notion of a genuine positivity offset during emotional scene recognition

    Caratterizzazione di alcuni siti della rete accelerometrica nazionale al fine di individuare la risposta sismica locale

    Get PDF
    Le indagini geotecniche finalizzate alla stima della risposta sismica locale si limitano molto spesso ai primi 30 m di profondità, valore che è diventato uno standard per la classificazione delle caratteristiche di un sito. Negli anni ’90 Borcherdt (1994) e Martin e Dobry (1994) suggerirono 30 m come la profondità standard di indagine per la verifica delle strutture. Boore et al. (1993, 1994, 1997) e Boore e Joyner (1997) basarono le regressioni per il calcolo delle leggi predittive del moto del suolo sullo stesso parametro. Nel 1997 negli Stati Uniti il National Earthquake Hazards Reduction Program (NEHRP) nella stesura delle norme tecniche per le costruzioni in zona sismica (FEMA, 1997) utilizza per la prima volta il parametro Vs30 come indice per la classificazione dei suoli, con lo scopo di definirne l’amplificazione. Le norme tecniche per le costruzioni in zona sismica della comunità Europea, EC8 (ENV, 1998) ente da dati provenienti dagli Stati Uniti occidentali e, utilizzando dati provenienti dalla stessa regione, Wald & Mori (2000) segnalano che le VS,30 non sono molto ben correlate con l’entità dell’amplificazione, in quanto esiste una forte dispersione dei dati. La figura 1.1 mostra il rapporto tra le amplificazioni, mediate sull’intervallo di frequenza compreso tra 3-5 Hz. raccomandano lo stesso parametro per suddividere i terreni, anche se le classi differiscono in parte dalla classificazione NEHRP. Infine, anche in Italia, le Norme Tecniche per le Costruzioni (Normative Tecniche per le Costruzioni, Gazzetta Ufficiale del 14/01/2008) adottano la stessa suddivisione dei terreni adottata dall’EC8.L’attendibilità della velocità delle onde di taglio nei primi 30 m (VS,30) come estimatore della risposta sismica di un sito, in termini di frequenza e amplificazione, è tuttavia molto discussa.Innanzitutto il parametro è stato ricavato unicamente da dati provenienti dagli Stati Uniti occidentali e, utilizzando dati provenienti dalla stessa regione, Wald & Mori (2000) segnalano che le Vs30 non sono molto ben correlate con l’entità dell’amplificazione, in quanto esiste una forte dispersione dei dati. La figura 1.1 mostra il rapporto tra le amplificazioni, mediate sull’intervallo di frequenza compreso tra 3-5 Hz. I valori risultano effettivamente molto dispersi, ma questo risultato può essere spiegato col fatto che non tutte le classi di sito hanno frequenza di risonanza compreso in questo intervallo di frequenza. Perciò per alcuni siti la media è stata calcolata nell’intorno della frequenza di risonanza (sulle amplificazioni massime), mentre per altri è stata calcolata sulle armoniche superiori, che hanno ampiezze minori. Lavori eseguiti con dati provenienti da altre regioni sottolineano come le Vs30 non siano buoni estimatori per la predizione di amplificazioni in bacini profondi (Park & Hashash, 2004), per la stima delle amplificazioni in altre regioni (Stewart et al., 2003) o in presenza di inversioni di velocità (Di Giacomo et al., 2005). Uno studio recente, eseguito su dati giapponesi (Zhao et al., 2006) si è evitato l’uso della Vs30 perché strati spessi di terreno rigido posti sopra il substrato roccioso amplificano il moto di lungo periodo, mentre gli strati sottili e soffici tendono ad amplificare il moto di corto periodo: ciò significa che la VS,30 non può rappresentare il periodo predominante del sito, dato che si basa solo sugli strati superficiali. Secondo Mucciarelli e Gallipoli (2006) il confronto tra l’amplificazione sismica al sito e la Vs30 mostra che quest’ultimo parametro non è adeguato per spiegare gli effetti di sito osservati in Italia a causa delle situazioni geologiche particolari che sono diffuse nel nostro paese. La figura 1.2 mostra la distribuzione dell’ampiezza rispetto alla classe di sito, in cui si vede che le classi sono mal discriminate e le mediane delle classi A e B (indicate dalla linea nera) sono uguali. È però necessario notare che questo grafico è stato costruito utilizzando le ampiezze ricavate col metodo dei rapporti spettrali H/V, ma in letteratura (Bard, 1999) è dimostrato che tali rapporti spettrali permettono di stimare la frequenza di risonanza, ma falliscono nella stima del valore di amplificazione. In particolare la Vs30 sottostima gli effetti locali ai siti con inversione di velocità e li sovrastima in siti con bacini profondi. La Vs30 sembra fornire dei buoni risultati solo in siti che abbiano un profilo di velocità monotono, crescente con la profondità e un forte contrasto di impedenza nella prima decina di metri. Questo studio si propone di verificare l’attendibilità della velocità delle onde di taglio valutate nei primi 30 m come estimatore della risposta sismica di un sito. Per questo scopo sono state selezionate 45 stazioni della Rete Accelerometrica Nazionale, di cui si conoscono i profili stratigrafici e i profili di velocità delle onde di taglio e di compressione. Inoltre sono state raccolte le registrazioni strong motion relative ai terremoti registrati da queste stazioni. Gli effetti di sito sono stati valutati in due modi: · Le registrazioni sono state utilizzate per calcolare i rapporti spettrali H/V per ricavare la frequenza fondamentale propria di ciascun sito (f0) e il relativo valore di amplificazione; · I profili di velocità delle onde di taglio sono serviti per ricavare il modello teorico monodimensionale per il calcolo della funzione di trasferimento del sito, eseguito per mezzo del modello proposto da Haskell e Thomson (Haskell, 1953, Thomson 1950), da cui ricavare la f0 e l’amplificazione. I valori ottenuti con i due metodi sono stati poi confrontati per verificare la congruenza dei risultati. I profili di velocità hanno permesso di classificare le stazioni utilizzando la velocità media delle onde di taglio nei primi 30 m (Vs30), secondo la normativa italiana. I risultati ottenuti dalla valutazione della risposta di ciascun sito, espressi in termini di frequenza fondamentale e amplificazione, sono stati correlati con la rispettiva classe di sito per verificare l’attendibilità del parametro delle Vs30 come estimatore degli effetti di sito
    corecore