16,370 research outputs found

    On the strategy frequency problem in batch Minority Games

    Get PDF
    Ergodic stationary states of Minority Games with S strategies per agent can be characterised in terms of the asymptotic probabilities Ď•a\phi_a with which an agent uses aa of his strategies. We propose here a simple and general method to calculate these quantities in batch canonical and grand-canonical models. Known analytic theories are easily recovered as limiting cases and, as a further application, the strategy frequency problem for the batch grand-canonical Minority Game with S=2 is solved. The generalization of these ideas to multi-asset models is also presented. Though similarly based on response function techniques, our approach is alternative to the one recently employed by Shayeghi and Coolen for canonical batch Minority Games with arbitrary number of strategies.Comment: 17 page

    On the transition to efficiency in Minority Games

    Full text link
    The existence of a phase transition with diverging susceptibility in batch Minority Games (MGs) is the mark of informationally efficient regimes and is linked to the specifics of the agents' learning rules. Here we study how the standard scenario is affected in a mixed population game in which agents with the `optimal' learning rule (i.e. the one leading to efficiency) coexist with ones whose adaptive dynamics is sub-optimal. Our generic finding is that any non-vanishing intensive fraction of optimal agents guarantees the existence of an efficient phase. Specifically, we calculate the dependence of the critical point on the fraction qq of `optimal' agents focusing our analysis on three cases: MGs with market impact correction, grand-canonical MGs and MGs with heterogeneous comfort levels.Comment: 12 pages, 3 figures; contribution to the special issue "Viewing the World through Spin Glasses" in honour of David Sherrington on the occasion of his 65th birthda

    Satellite Luminosities in Galaxy Groups

    Full text link
    Halo model interpretations of the luminosity dependence of galaxy clustering assume that there is a central galaxy in every sufficiently massive halo, and that this central galaxy is very different from all the others in the halo. The halo model decomposition makes the remarkable prediction that the mean luminosity of the non-central galaxies in a halo should be almost independent of halo mass: the predicted increase is about 20% while the halo mass increases by a factor of more than 20. In contrast, the luminosity of the central object is predicted to increase approximately linearly with halo mass at low to intermediate masses, and logarithmically at high masses. We show that this weak, almost non-existent mass-dependence of the satellites is in excellent agreement with the satellite population in group catalogs constructed by two different collaborations. This is remarkable, because the halo model prediction was made without ever identifying groups and clusters. The halo model also predicts that the number of satellites in a halo is drawn from a Poisson distribution with mean which depends on halo mass. This, combined with the weak dependence of satellite luminosity on halo mass, suggests that the Scott effect, such that the luminosities of very bright galaxies are merely the statistically extreme values of a general luminosity distribution, may better apply to the most luminous satellite galaxy in a halo than to BCGs. If galaxies are identified with halo substructure at the present time, then central galaxies should be about 4 times more massive than satellite galaxies of the same luminosity, whereas the differences between the stellar M/L ratios should be smaller. Therefore, a comparison of the weak lensing signal from central and satellite galaxies should provide useful constraints. [abridged]Comment: 8 pages, 3 figures. Matches version accepted by MNRA

    Nanoseismic monitoring for detection of rockfalls. Experiments in quarry areas

    Get PDF
    Le frane per crollo da ammassi rocciosi fratturati sono tra i processi di instabilità gravitativa che più frequentemente interessano opere antropiche quali tagli su versanti naturali o artificiali, pareti di cava, trincee stradali, autostradali o ferroviarie, sia per ciò che attiene le aree di distacco che per quelle di accumulo. Nell’ambito dell’applicazione di sistemi di early warning per la gestione del rischio geologico legato a queste tipologie di frana, una sperimentazione della tecnica del monitoraggio nanosismometrico è stata effettuata presso due siti estrattivi non più in attività: le “Pirrere” della Baia di Cala Rossa sull’isola di Favignana (Trapani), in Sicilia, e la cava dismessa di Acuto (Frosinone), in Italia Centrale. Il monitoraggio nanosismometrico è una tecnica di indagine che consente di individuare e localizzare deboli eventi sismici, fino a magnitudo locale (ML) nell’ordine di -3, attraverso l’impiego di quattro sensori sismometrici disposti secondo una specifica geometria di array detta SNS (Seismic Navigation System). Nel presente lavoro, mediante il software NanoseismicSuite sono stati analizzati 73 eventi di crollo indotti artificialmente attraverso la caduta controllata di blocchi di roccia nei due siti estrattivi abbandonati; sono stati lanciati, simulando fenomeni di rockfalls, rispettivamente 47 blocchi di roccia nella cava di Acuto e 26 eventi in quattro diverse cave a cielo aperto presenti nel settore occidentale di Cala Rossa. Tali eventi, avendo punto epicentrale noto, hanno permesso di determinare il miglior modello di sottosuolo in termini di valori di velocità delle onde P ed S attraverso un’operazione di back analysis. L’analisi è stata, infatti, effettuata variando i valori di velocità e scegliendo quelli relativi all’epicentro teorico ottenuto dall’analisi dell’evento che fosse il più vicino possibile al punto reale di impatto del blocco di roccia. Al fine di valutare la sensibilità della geometria dell’array SNS e l’influenza del sito di installazione sulla capacità di individuare e localizzare gli eventi, le sperimentazioni sono state condotte sia variando il raggio di apertura che la zona di installazione degli array: presso Acuto le acquisizioni di segnale sono state condotte prima con un array SNS con apertura di 20 m e successivamente con un array di apertura 10 m, mentre presso Cala Rossa l’array è stato installato alternativamente all’aperto in un’area di plateau roccioso ed in una galleria facente parte dell’area di cava abbandonata. Analizzando i dati si è ottenuta una precisione dell’ubicazione epicentrale compresa tra il 10 ed il 22% della distanza che intercorre tra la sorgente e l’array nanosismometrico. Il miglior modello di sottosuolo ottenuto per entrambi i casi di studio è risultato avere una velocità delle onde P pari a 900 m/s ed un rapporto VP/VS pari a 1.73, valori in accordo con le condizioni di intenso stato di fratturazione delle rocce carbonatiche affioranti nelle due zone di cava. Per gli eventi di crollo indotti la magnitudo ML è risultata essere compresa tra -2.8 e -1.3; considerando l’energia sviluppata dall’impatto, legata alla massa del blocco ed all’altezza e alla velocità di caduta, non è stato possibile definire una relazione tra magnitudo ed energia, probabilmente a causa delle differenti caratteristiche del punto di impatto dei diversi blocchi. In generale, si è osservato che la precisione di ubicazione degli eventi, in termini di azimuth e distanza dal reale epicentro, è risultata paragonabile sia variando l’apertura dell’array che variando il sito di installazione. Per il sito sperimentale di Acuto, il processo di picking manuale del tempo di primo arrivo delle onde P è risultato essere più affidabile nel caso di array con apertura pari a 10 m. La sperimentazione effettuata a Cala Rossa ha permesso, invece, di osservare una migliore capacità di individuazione degli eventi nelle tracce relative all’array posizionato in galleria a causa della minore rumorosità di base del sito di installazione. Tra le registrazioni sismometriche sono state identificate varie tipologie di segnali, oltre a quelli generati dal lancio dei blocchi, alcune riconducibili ad eventi naturali di crollo altre a deboli terremoti. L’analisi dei segnali riferibili alla prima tipologia di eventi naturali, effettuata tenendo in considerazione i modelli di sottosuolo precedentemente calibrati, ha portato all’identificazione in ambedue i siti di aree aventi maggiore suscettibilità a frane per crollo. In definitiva, si può ritenere che i risultati ottenuti in questo studio siano incoraggianti rispetto all’efficacia della tecnica di monitoraggio nanosismometrico nell’individuazione e nell’ubicazione di fenomeni di crollo in roccia e portano a ritenere questa tecnica potenzialmente applicabile in aree in cui tali eventi possono interferire con infrastrutture antropiche.In the frame of early warning and risk mitigation studies for landslide processes involving rock masses, two quarry areas (Cala Rossa Bay in Sicily and Acuto in Central Italy) were monitored with SNS (Seismic Navigation System) arrays. In this study, 73 rockfalls were simulated by launches of rock blocks. This allowed to perform a back analysis for defining the best seismic velocity model of the subsoil half-space; the records related to each impact caused by the rock block launch were managed by the nanoseismic monitoring approach, varying the velocity model to obtain a theoretical epicentre as close as possible to the actual location of the impact point. In order to evaluate the sensibility of the SNS array, the results obtained by different array apertures and positions were compared in terms of azimuth and distance error with respect to the real epicentres. On the other hand, several natural rockfalls were detected; their analysis allowed to identify areas having higher susceptibility to rockfalls by using the previously calibrated subsoil half-space model. Further studies are required to better define the areas prone to rockfall generation in the considered test sites; nevertheless, the here obtained results show an encouraging perspective about the application of the nanoseismic monitoring with respect to vulnerable infrastructures in rockfall prone areas

    Von Neumann's expanding model on random graphs

    Full text link
    Within the framework of Von Neumann's expanding model, we study the maximum growth rate r achievable by an autocatalytic reaction network in which reactions involve a finite (fixed or fluctuating) number D of reagents. r is calculated numerically using a variant of the Minover algorithm, and analytically via the cavity method for disordered systems. As the ratio between the number of reactions and that of reagents increases the system passes from a contracting (r1). These results extend the scenario derived in the fully connected model (D\to\infinity), with the important difference that, generically, larger growth rates are achievable in the expanding phase for finite D and in more diluted networks. Moreover, the range of attainable values of r shrinks as the connectivity increases.Comment: 20 page

    Constrained Allocation Flux Balance Analysis

    Get PDF
    New experimental results on bacterial growth inspire a novel top-down approach to study cell metabolism, combining mass balance and proteomic constraints to extend and complement Flux Balance Analysis. We introduce here Constrained Allocation Flux Balance Analysis, CAFBA, in which the biosynthetic costs associated to growth are accounted for in an effective way through a single additional genome-wide constraint. Its roots lie in the experimentally observed pattern of proteome allocation for metabolic functions, allowing to bridge regulation and metabolism in a transparent way under the principle of growth-rate maximization. We provide a simple method to solve CAFBA efficiently and propose an "ensemble averaging" procedure to account for unknown protein costs. Applying this approach to modeling E. coli metabolism, we find that, as the growth rate increases, CAFBA solutions cross over from respiratory, growth-yield maximizing states (preferred at slow growth) to fermentative states with carbon overflow (preferred at fast growth). In addition, CAFBA allows for quantitatively accurate predictions on the rate of acetate excretion and growth yield based on only 3 parameters determined by empirical growth laws.Comment: 21 pages, 6 figures (main) + 33 pages, various figures and tables (supporting); for the supplementary MatLab code, see http://tinyurl.com/h763es
    • …
    corecore