16,371 research outputs found
On the strategy frequency problem in batch Minority Games
Ergodic stationary states of Minority Games with S strategies per agent can
be characterised in terms of the asymptotic probabilities with which
an agent uses of his strategies. We propose here a simple and general
method to calculate these quantities in batch canonical and grand-canonical
models. Known analytic theories are easily recovered as limiting cases and, as
a further application, the strategy frequency problem for the batch
grand-canonical Minority Game with S=2 is solved. The generalization of these
ideas to multi-asset models is also presented. Though similarly based on
response function techniques, our approach is alternative to the one recently
employed by Shayeghi and Coolen for canonical batch Minority Games with
arbitrary number of strategies.Comment: 17 page
On the transition to efficiency in Minority Games
The existence of a phase transition with diverging susceptibility in batch
Minority Games (MGs) is the mark of informationally efficient regimes and is
linked to the specifics of the agents' learning rules. Here we study how the
standard scenario is affected in a mixed population game in which agents with
the `optimal' learning rule (i.e. the one leading to efficiency) coexist with
ones whose adaptive dynamics is sub-optimal. Our generic finding is that any
non-vanishing intensive fraction of optimal agents guarantees the existence of
an efficient phase. Specifically, we calculate the dependence of the critical
point on the fraction of `optimal' agents focusing our analysis on three
cases: MGs with market impact correction, grand-canonical MGs and MGs with
heterogeneous comfort levels.Comment: 12 pages, 3 figures; contribution to the special issue "Viewing the
World through Spin Glasses" in honour of David Sherrington on the occasion of
his 65th birthda
Satellite Luminosities in Galaxy Groups
Halo model interpretations of the luminosity dependence of galaxy clustering
assume that there is a central galaxy in every sufficiently massive halo, and
that this central galaxy is very different from all the others in the halo. The
halo model decomposition makes the remarkable prediction that the mean
luminosity of the non-central galaxies in a halo should be almost independent
of halo mass: the predicted increase is about 20% while the halo mass increases
by a factor of more than 20. In contrast, the luminosity of the central object
is predicted to increase approximately linearly with halo mass at low to
intermediate masses, and logarithmically at high masses. We show that this
weak, almost non-existent mass-dependence of the satellites is in excellent
agreement with the satellite population in group catalogs constructed by two
different collaborations. This is remarkable, because the halo model prediction
was made without ever identifying groups and clusters. The halo model also
predicts that the number of satellites in a halo is drawn from a Poisson
distribution with mean which depends on halo mass. This, combined with the weak
dependence of satellite luminosity on halo mass, suggests that the Scott
effect, such that the luminosities of very bright galaxies are merely the
statistically extreme values of a general luminosity distribution, may better
apply to the most luminous satellite galaxy in a halo than to BCGs. If galaxies
are identified with halo substructure at the present time, then central
galaxies should be about 4 times more massive than satellite galaxies of the
same luminosity, whereas the differences between the stellar M/L ratios should
be smaller. Therefore, a comparison of the weak lensing signal from central and
satellite galaxies should provide useful constraints. [abridged]Comment: 8 pages, 3 figures. Matches version accepted by MNRA
Nanoseismic monitoring for detection of rockfalls. Experiments in quarry areas
Le frane per crollo da ammassi rocciosi fratturati sono tra i processi di instabilità gravitativa che più frequentemente interessano opere antropiche quali tagli su versanti naturali o artificiali, pareti di cava, trincee stradali, autostradali o ferroviarie, sia per ciò che attiene le aree di distacco che per quelle di accumulo. Nell’ambito dell’applicazione di sistemi di early warning per la gestione del rischio geologico legato a queste tipologie di frana, una sperimentazione della tecnica del monitoraggio nanosismometrico è stata effettuata presso due siti estrattivi non più in attività : le “Pirrere” della Baia di Cala Rossa sull’isola di Favignana (Trapani), in Sicilia, e la cava dismessa di Acuto (Frosinone), in Italia Centrale. Il monitoraggio nanosismometrico è una tecnica di indagine che consente di individuare e localizzare deboli eventi sismici, fino a magnitudo locale (ML) nell’ordine di -3, attraverso l’impiego di quattro sensori sismometrici disposti secondo una specifica geometria di array detta SNS (Seismic Navigation System).
Nel presente lavoro, mediante il software NanoseismicSuite sono stati analizzati 73 eventi di crollo indotti artificialmente attraverso la caduta controllata di blocchi di roccia nei due siti estrattivi abbandonati; sono stati lanciati, simulando fenomeni di rockfalls, rispettivamente 47 blocchi di roccia nella cava di Acuto e 26 eventi in quattro diverse cave a cielo aperto presenti nel settore occidentale di Cala Rossa. Tali eventi, avendo punto epicentrale noto, hanno permesso di determinare il miglior modello di sottosuolo in termini di valori di velocità delle onde P ed S attraverso un’operazione di back analysis. L’analisi è stata, infatti, effettuata variando i valori di velocità e scegliendo quelli relativi all’epicentro teorico ottenuto dall’analisi dell’evento che fosse il più vicino possibile al punto reale di impatto del blocco di roccia. Al fine di valutare la sensibilità della geometria dell’array SNS e l’influenza del sito di installazione sulla capacità di individuare e localizzare gli eventi, le sperimentazioni sono state condotte sia variando il raggio di apertura che la zona di installazione degli array: presso Acuto le acquisizioni di segnale sono state condotte prima con un array SNS con apertura di 20 m e successivamente con un array di apertura 10 m, mentre presso Cala Rossa l’array è stato installato alternativamente all’aperto in un’area di plateau roccioso ed in una galleria facente parte dell’area di cava abbandonata.
Analizzando i dati si è ottenuta una precisione dell’ubicazione epicentrale compresa tra il 10 ed il 22% della distanza che intercorre tra la sorgente e l’array nanosismometrico. Il miglior modello di sottosuolo ottenuto per entrambi i casi di studio è risultato avere una velocità delle onde P pari a 900 m/s ed un rapporto VP/VS pari a 1.73, valori in accordo con le condizioni di intenso stato di fratturazione delle rocce carbonatiche affioranti nelle due zone di cava. Per gli eventi di crollo indotti la magnitudo ML è risultata essere compresa tra -2.8 e -1.3; considerando l’energia sviluppata dall’impatto, legata alla massa del blocco ed all’altezza e alla velocità di caduta, non è stato possibile definire una relazione tra magnitudo ed energia, probabilmente a causa delle differenti caratteristiche del punto di impatto dei diversi blocchi. In generale, si è osservato che la precisione di ubicazione degli eventi, in termini di azimuth e distanza dal reale epicentro, è risultata paragonabile sia variando l’apertura dell’array che variando il sito di installazione. Per il sito sperimentale di Acuto, il processo di picking manuale del tempo di primo arrivo delle onde P è risultato essere più affidabile nel caso di array con apertura pari a 10 m. La sperimentazione effettuata a Cala Rossa ha permesso, invece, di osservare una migliore capacità di individuazione degli eventi nelle tracce relative all’array posizionato in galleria a causa della minore rumorosità di base del sito di installazione.
Tra le registrazioni sismometriche sono state identificate varie tipologie di segnali, oltre a quelli generati dal lancio dei blocchi, alcune riconducibili ad eventi naturali di crollo altre a deboli terremoti. L’analisi dei segnali riferibili alla prima tipologia di eventi naturali, effettuata tenendo in considerazione i modelli di sottosuolo precedentemente calibrati, ha portato all’identificazione in ambedue i siti di aree aventi maggiore suscettibilità a frane per crollo. In definitiva, si può ritenere che i risultati ottenuti in questo studio siano incoraggianti rispetto all’efficacia della tecnica di monitoraggio nanosismometrico nell’individuazione e nell’ubicazione di fenomeni di crollo in roccia e portano a ritenere questa tecnica potenzialmente applicabile in aree in cui tali eventi possono interferire con infrastrutture antropiche.In the frame of early warning and risk mitigation studies for landslide processes involving rock masses, two quarry areas (Cala Rossa Bay in Sicily and Acuto in Central Italy) were monitored with SNS (Seismic Navigation System) arrays. In this study, 73 rockfalls were simulated by launches of rock blocks. This allowed to perform a back analysis for defining the best seismic velocity model of the subsoil half-space; the records related to each impact caused by the rock block launch were managed by the nanoseismic monitoring approach, varying the velocity model to obtain a theoretical epicentre as close as possible to the actual location of the impact point. In order to evaluate the sensibility of the SNS array, the results obtained by different array apertures and positions were compared in terms of azimuth and distance error with respect to the real epicentres. On the other hand, several natural rockfalls were detected; their analysis allowed to identify areas having higher susceptibility to rockfalls by using the previously calibrated subsoil half-space model. Further studies are required to better define the areas prone to rockfall generation in the considered test sites; nevertheless, the here obtained results show an encouraging perspective about the application of the nanoseismic monitoring with respect to vulnerable infrastructures in rockfall prone areas
Von Neumann's expanding model on random graphs
Within the framework of Von Neumann's expanding model, we study the maximum
growth rate r achievable by an autocatalytic reaction network in which
reactions involve a finite (fixed or fluctuating) number D of reagents. r is
calculated numerically using a variant of the Minover algorithm, and
analytically via the cavity method for disordered systems. As the ratio between
the number of reactions and that of reagents increases the system passes from a
contracting (r1). These results extend the
scenario derived in the fully connected model (D\to\infinity), with the
important difference that, generically, larger growth rates are achievable in
the expanding phase for finite D and in more diluted networks. Moreover, the
range of attainable values of r shrinks as the connectivity increases.Comment: 20 page
Constrained Allocation Flux Balance Analysis
New experimental results on bacterial growth inspire a novel top-down
approach to study cell metabolism, combining mass balance and proteomic
constraints to extend and complement Flux Balance Analysis. We introduce here
Constrained Allocation Flux Balance Analysis, CAFBA, in which the biosynthetic
costs associated to growth are accounted for in an effective way through a
single additional genome-wide constraint. Its roots lie in the experimentally
observed pattern of proteome allocation for metabolic functions, allowing to
bridge regulation and metabolism in a transparent way under the principle of
growth-rate maximization. We provide a simple method to solve CAFBA efficiently
and propose an "ensemble averaging" procedure to account for unknown protein
costs. Applying this approach to modeling E. coli metabolism, we find that, as
the growth rate increases, CAFBA solutions cross over from respiratory,
growth-yield maximizing states (preferred at slow growth) to fermentative
states with carbon overflow (preferred at fast growth). In addition, CAFBA
allows for quantitatively accurate predictions on the rate of acetate excretion
and growth yield based on only 3 parameters determined by empirical growth
laws.Comment: 21 pages, 6 figures (main) + 33 pages, various figures and tables
(supporting); for the supplementary MatLab code, see
http://tinyurl.com/h763es
- …